Grundlagen: Filmen von A-Z

Filmer sprechen oft ihre ganz eigene Sprache. Und auch technische Zusammenhänge gestalten sich nicht selten anders als in der Fotografie. Hier findet ihr eine Übersicht über viele Video-Fachbegriffe zusammen mit einer verständlichen Erklärung.

Wer sich zum ersten Mal mit der Fotografie beschäftigt, wird von Begrifflichkeiten und Funktionsweisen förmlich erschlagen: Ob Blendenzahl oder Blendenöffnung, Verschlusszeit oder auch ISO-Empfindlichkeit – die Fotografie folgt ganz eigenen Regeln samt der passenden Terminologie. Für Laien wohl die größte Hürde, die es zu meistern gilt. Filmer gehen noch einen Schritt weiter. Aufbauend auf den technischen Voraussetzungen für Standbilder ist Videografie mehr, als nur 25 Bilder pro Sekunde einzufangen. Zu den visuellen Eindrücken gesellt sich beispielsweise der Ton, der beim Fotografieren schlicht keine Rolle spielt.

Doch keine Bange: Das bedeutet nicht, dass ihr nun alles bereits Erlernte über Bord werfen und ganz von vorne anfangen müsst, denn: Viele Aspekte der Videografie basieren auf bekannten Grundprinzipien und werden lediglich um eine Ebene erweitert, nämlich die der Zeit. Andere Zusammenhänge, wie zum Beispiel die Blendenstellung im Objektiv, bleiben ohnehin unverändert, was den Zugang zur Videografie, zumindest aus gestalterischer Sicht, entschieden erleichtert.

Auflösung

HD-Videos weisen in der Regel ein Bildformat mit einem Seitenverhältnis von 16:9 auf. Daraus und aus der Bezeichnung kann die Breite des Bildes berechnet werden: 720p besitzt also 1.024 x 720 Pixel, 1080p entsprechend 1.920 x 1.080 Pixel. 4K- und UHD-Videos weisen eine Bildhöhe von 2.160 Pixeln auf. Deren Auflösungen unterscheiden sich lediglich in der Bildbreite: UHD folgt dem 16:9-Format und verfügt somit über 3.840 Pixel in der Breite, 4K löst 4.096 Pixel und somit im Verhältnis 17:9 auf.

Abtastrate/Bitrate

Die Häufigkeit, mit der ein Ton gemessen und in ein digitales Signal umgewandelt wird, bezeichnet man als Abtastrate, Maßeinheit ist Hertz (Hz). 44,1 kHz entsprechen in etwa CD-Qualität. Eine weitere Kenngröße für die Qualität eines Audiosignals sind Bittiefe und Bitrate: Die Bittiefe gibt ähnlich wie bei Fotos an, wie viele Informationen pro Sample übertragen werden können. Die Bitrate hingegen liefert Aufschluss darüber, welche Datenmenge pro Zeiteinheit für die Übertragung nötig ist.

Bitrate

Je höher der Wert, desto mehr Informationen werden aufgezeichnet. Aufnahmen mit höherer Bitrate zeichnen sich allerdings nicht zwangsläufig durch eine bessere Qualität aus, denn: Fortschrittliche Codecs komprimieren Aufnahmen mit niedriger Bitrate bereits derart gut, dass das menschliche Auge einen Unterschied zu hohen Bitraten nicht mehr erkennt.

Codec

Der „Kodierer“ stellt sicher, dass unterschiedliche Geräte den Inhalt eines Containers immer gleich wiedergeben können. Zusammen mit dem Container legt der Codec fest, wie Videodaten in einer Datei abgespeichert werden. Im Consumer- Bereich am häufigsten anzutreffen ist der „h.264-Codec“ zusammen mit der Nachfolgeversion „h.265“ für hochauflösendes Bewegtbild ab UHD. Der „Pro- Res“-Codec von Apple ist auf HD-Videos angepasst und erlaubt beispielsweise eine große Farbtiefe.

Container

Bezeichnung, welche den Dateityp einer Videodatei beschreibt und die Endung des Dateinamens festlegt. Die gängigsten Container sind „Quicktime“ mit der Endung „MOV“ oder auch das „MPEG“-Format mit der Endung „MP4“. Wie Daten tatsächlich abgespeichert werden, bestimmen die Codecs, die in der Regel dedizierte Paare mit dem Container bilden.

dB/Dezibel

Zur Messung des Schalldruckpegels dient die logarithmische Maßeinheit Dezibel. Der leiseste Ton, der vom Gehör wahrgenommen werden kann, hat 0 dB. Eine Unterhaltung aus einem Meter Entfernung liegt zwischen 40 und 50 dB, laute Musik in einer Diskothek bereits bei rund 100 dB. Bei semiprofessionellen und professionellen Kameras lässt sich die Empfindlichkeit des (externen) Mikrofons manuell „pegeln“. Das verbessert die Aufnahmequalität auch in lauter Umgebung deutlich.

Farbtiefe in Bit

Diese Angabe ist identisch mit dem Wert aus der Fotografie. Dabei sind DSLRs und DSLMs oft auf 12 oder 14 Bit Farbtiefe beschränkt. Die Zahl gibt an, wie viele Werte pro Farbkanal (Rot, Grün und Blau) auch tatsächlich vom Sensor erkannt werden. 1 Bit hat zwei Zustände, 2 Bit entsprechen 4 Werten, 3 Bit 8 Werten und 8 Bit schließlich 256 Zuständen. Manche DSLM-Modelle erlauben die Aufnahme mit 10 Bit, also mit 1.024 Werten pro Farbkanal, was für ein realistischer wirkendes Bild sorgt.

Farb-Unterabtastung

Anders als beim Fotografieren nehmen DSLR oder DSLM beim Filmen nicht immer jedes einzelne Pixel tatsächlich auch auf. Die Angabe der tatsächlichen Abtastwerte erfolgt in Form von drei Zahlen. Dazu wird zunächst ein Raster aus 4 mal 2 Pixeln betrachtet. Die Abkürzung 4:4:4 steht für eine volle Auslesung. 4:2:2 gibt an, dass in jeder Zeile nur jeder zweite Pixel Verwendung findet. Bei 4:2:0 wird lediglich jedes zweite Pixel der ersten Zeile und kein Pixel der zweiten Zeile abgetastet. Nicht ausgelesene Pixelwerte interpoliert der Bildprozessor zuletzt aus den benachbarten Pixel-Werten.

Flache Bildprofile

Bildprofile wie Slog (Sony), Flog (Fujifilm), Nlog (Nikon), Clog (Canon) oder auch HLG speichern entsättigte und kontrastarme Videoaufnahmen mit gesteigertem Dynamikumfang. Somit sind sie für umfangreiche Nachbearbeitung, Farbkorrektur oder Toning besonders geeignet. Über sogenannte „Lookup-Tabellen“ (kurz: LUT) werden in der Nachbearbeitung eindeutige Farbzuordnungen sichergestellt. Jedem Farbwert des Ausgangsmaterials ist so in Form einer Datenbank eine andere Ausgangsfarbe zugewiesen.

Framerate/Bildfrequenz

Die Bildfrequenz oder Framerate gibt an, wie viele Bilder pro Sekunde aufgezeichnet werden. Nach der in Teilen Asiens und Amerikas geltenden NTSC-Norm sind es 30 Bilder pro Sekunde oder ein Vielfaches dieses Basiswertes. Die in Europa gängige PAL-Norm basiert auf 25 Bildern pro Sekunde sowie einem ganzzahligen Vielfachen davon. Unabhängig davon kommt bei Kinoproduktionen in der Regel eine Bildfrequenz von 24 Bildern pro Sekunde zum Einsatz. Ihren Ursprung haben diese Werte in der Frequenz des Stromnetzes: Während in Europa 50 Hz verbreitet sind, beruhen die Stromnetze in Amerika und Teilen Asiens in der Regel auf 60 Hz. Werden die Bildwiederholfrequenzen nicht entsprechend gewählt, kann es bei der Aufnahme unter Kunstlicht zu Bildflackern kommen.

Gain

Die Empfindlichkeit eines Mikrofons ist grob mit den ISO-Stufen eines Bildchips zu vergleichen: Der sogenannte „Gain“, die Betriebsspannung eines Mikrofons, verstärkt die Empfindlichkeit. Ähnlich wie beim Bildsensor führt eine Verstärkung zu störendem Rauschen. Wird die Empfindlichkeit beispielsweise automatisch von Ihrer Kamera geregelt, tritt störendes Rauschen insbesondere in sehr leisen Umgebungen auf. Kondensator- Mikrofone verfügen in der Regel über eine hohe Empfindlichkeit.

HDR-Video

HDR steht abgekürzt für „High Dynamic Range“, das bedeutet Aufnahmen mit einem großen Dynamikumfang. Im Grunde genommen unterscheidet sich die Aufzeichnung nicht von der aus der Fotografie bekannten Funktionsweise: Statt nur einem korrekt belichteten Bild nimmt die Kamera hierbei je ein unter- und ein überbelichtetes Bild kurz hintereinander auf. Diese Einzelbilder werden dann meistens bereits in der Kamera zu einer Aufnahme zusammengerechnet.

Keyframe

Der Begriff „Keyframe“ oder dt. „Schlüsselbild“ bezeichnet ein Einzelbild in einem Video, das als Ausgangspunkt für Effekte, Bearbeitungen oder Modifikationen in der Nachbearbeitung festgelegt werden kann. Grafische Elemente, Einblendungen oder auch komplexe Animationen lassen sich so exakt auf das gefilmte Material abstimmen. Bei der Kompression erhält der Keyframe eine andere Bedeutung: Er dient als Ausgangspunkt für den Encoder und liegt in der Regel vollständig und uncodiert vor.

Kompression

Ein Vorgang, bei dem die Datendichte in einem Video reduziert wird. Verlustfreie Kompression erlaubt es, die Dateigröße bei gleich bleibender Qualität zu reduzieren. Dabei werden Bildinformationen eingespart, die das menschliche Auge ohnehin nicht erkennen kann. Verlustbehaftete Kompression hingegen erlaubt es, die Dateigröße weiter zu senken, allerdings auf Kosten der Qualität. Grad sowie Art der Kompression regelt der Codec. Stellschrauben sind hier unter anderem die Bitrate oder Farbtiefe.

Line-Skipping & Pixel-Binning

Bei „Line-Skipping“ und „Pixel-Binning“ handelt es sich um zwei unterschiedliche Methoden, eine verhältnismäßig hohe Sensorauflösung auf ein jeweils typisches Video-Auflösungsformat zu reduzieren. „Line-Skipping“ (von engl. „line“: Linie und „to skip“: überspringen) bedeutet, dass eine bestimmte Anzahl horizontaler oder vertikaler Pixellinien nicht ausgelesen wird. Der größte Nachteil dieser Technik: An kontrastreichen Kanten kann verstärkt Flimmern auftreten. Der Begriff „Pixel-Binning“ bedeutet, dass benachbarte Pixel einer Zeile oder Spalte zu einem größeren Pixel zusammengefasst werden (von engl. „to bin“: gruppieren). Diese Technik wirkt sich allerdings auf die Detailschärfe aus, da resultierenden Pixel- Werte aus mehreren Informationen interpoliert werden.

Lumen/Lux

Der Lichtstrom, sprich die Lichtleistung einer Lampe wird in „Lumen“ gemessen und erlaubt einen Rückschluss auf deren Helligkeit. Die Einheit „Lux“ gibt hingegen die tatsächliche Beleuchtungsstärke an – also die Menge an Licht, die auf einer zu beleuchtenden Fläche ankommt. Zur Berechnung der Abhängigkeit beider Werte dient folgende Formel: Eine Lampe mit 1.000 Lumen, die ihr Licht auf einen Quadratmeter verteilt, beleuchtet diese Fläche mit 1.000 Lux.

Oversampling

Unter Oversampling versteht man eine „Überabtastung“ eines Bildsensors, wobei aus einer höheren Ausgangsauflösung eine niedrigere Zielauflösung errechnet wird. Diese spezielle Form der Abtastung führt in der Regel zu einem qualitativ besseren und in erster Linie schärferen Endergebnis. Der Grund dafür ist folgender: Der Bildprozessor kann dabei auf deutlich mehr Bildinformationen zurückgreifen, als dies bei einer direkten Aufzeichnung in Zielauflösung möglich ist.

PAL/NTSC

Abkürzungen für zwei Videoübertragungsnormen, die ursprünglich bei niedrig aufgelöstem SD-Video (von engl.: „Standard Definition“) zum Einsatz kamen und unterschiedliche Auflösungen beschrieben. Heute haben diese Bezeichnungen nur noch Einfluss auf die Bildfrequenz: PAL („Phase Alternating Line“) repräsentiert 25 Bilder pro Sekunde oder ein ganzzahliges Vielfaches. Bei NTSC („National Television Systems Committee“) liegt die Basisfrequenz bei 30 fps oder einem ganzzahligen Vielfachen.

Proxy

Parallel zu hochauflösendem Videomaterial zeichnen manche Kamera-Modelle einen zweiten Datenstrom mit reduzierter Auflösung auf. Dieses Videomaterial lässt sich für den Schnitt verwenden– vor allem auf leistungsschwächeren Rechnern. Anstatt das Video am Ende mit dem sogenannten Proxy-Material zu rendern, tauscht ihr die Aufnahmen dann gegen das eigentliche, hochauflösende Videomaterial aus – und spart so Renderzeit, die ansonsten im Schnitt nötig ist.

Richtcharakteristik

Die Richtcharakteristik eines Mikrofons gibt an, in welchem Bereich um die Kapsel es Töne mit welcher Empfindlichkeit aufnehmen kann. Weit verbreitet sind die omnidirektionale Kugel, die bidirektionale Acht, die direktionale Keule und diverse Mischformen aus diesen drei Charakteristika. Die Richtcharakteristik eines Mikrofons bestimmt den Einsatzzweck.

Timecode

Wenn eine Szene oder ein Motiv mit mehreren Kameras gleichzeitig gedreht werden soll, dient der Zeitstempel oder Timecode zur nachträglichen Synchronisation des Videomaterials. Professionelle Kameras verbinden sich dazu per Kabel, der Timecode wird im Handumdrehen auf allen Geräten eingestellt. Der manuelle Abgleich ist da schon deutlich schwieriger: Hier beeinträchtigen bereits kleinste Asynchronitäten, etwa zwischen Ton und Bild, das Endergebnis deutlich.

Transmission „T“

Neben dem Wert für die Offenblende findet sich auf einem Cine-Objektiv auch eine Kennzahl für die Transmission mit der Abkürzung „T“. Dieser Wert gibt an, welcher Anteil des einfallenden Lichts das Objektiv auch tatsächlich bis zum Sensor passiert. Objektive mit identischem „T“-Wert sind so konstruiert, dass die Linsenelemente gleich viel Licht durchlassen. Dieser Wert ist also keine rechnerische Angabe wie der „f“-Wert für die Offenblende, sondern wird bei jedem Filmobjektiv nachgemessen.

Zeitraffer, Zeitlupe

Wird der Ablauf eines Geschehens in einem Video verlangsamt dargestellt, spricht man von Zeitlupe. So kann man für eine ruckelfreie Darstellung ein mit 50 fps aufgenommenes Video mit halber Geschwindigkeit – rechnerisch 25 fps – abspielen. Beim Zeitraffer dagegen wird die Zeit verkürzt. Das Aufnahmeintervall gibt an, wie stark die Zeit beschleunigt wird: Ein Zeitraffer mit 1 fps ist gut für Menschenmengen geeignet, längere Intervalle für das Ziehen der Wolken oder andere langsame Vorgänge.

180-Grad-Shutter

Diese Aufnahmeregel ist von der Funktionsweise analoger Filmkameras abgeleitet. Für jedes bei der Aufnahme belichtete Einzelbild verging dieselbe Zeit, um das Filmmaterial weiterzutransportieren. Übertragen auf moderne Kameras ergibt sich bei einer Bildfrequenz von 25 Frames pro Sekunde somit eine Belichtungszeit von 1/50 s. Wird diese Einstellung gewählt, ergibt sich ein vertrauter Bildeindruck. Längere Verschlusszeiten können zu störender Bewegungsunschärfe, kürzere Verschlusszeiten zu Rucklern führen.