Begriff-Ratgeber Teil 1: Schnitt-Fachbegriffe
Das gebe ich ehrlich zu: Als langjähriger Redakteur für den Bereich Videoschnitt fallen mir viele Fachbegriffe oft gar nicht mehr auf, denn sie gehören zum täglichen Wortschatz. Doch Wolfgang Buchwald liest VIDEOAKTIV bereits seit 1995, schneidet mit Pinnacle Studio und hat nach dem Studium des Artikels „Schatten-Profis" selbst zur Feder gegriffen: „Trotz meiner Erfahrungen habe ich Ihren Bericht nur oberflächlich verstanden", meint er – und hat alle Begriffe aufgeschrieben, für die er eine Erklärung benötigt. Wir haben das zum Anlass genommen, die wichtigsten Begriffe zu erklären, denn um ein gewisses Maß an Fachchinesisch kommen wir leider nicht herum. Aus zwei Gründen: Wenn wir in jeden Text die Erklärungen mit hineinschreiben, werden unsere Artikel zu lang. Verwenden wir nur deutsche Begriffe, dann hat das den Haken, dass uns Spezialisten nicht verstehen, denn viele (oft englische) Fachbegriffe haben sich schon eingebürgert. Und selbst ungeübte Anwender bekommen dann ein Problem, denn die Schnittprogramme selbst verwenden dieselben Begriffe, so dass man die in unseren Artikeln erwähnten Funktionen meist nur findet, wenn man diese Bezeichnungen kennt.
Dateien und Formate
Gleich am Anfang erschlagen wir mit den Profiformaten den einen oder anderen Amateur: Was sind Red-, MVC-, oder MKV-Dateien? Bei allen dreien handelt es sich um spezifische Videoformate, die so vielfältig sind, dass man es leider nicht jedesmal schreiben kann. So handelt es sich bei Red-Dateien um ein spezielles Datenformat des Kameraherstellers Red, das wiederum ein so genanntes RAW-Format ist – womit ich den einen Fachbegriff leider mit einem anderen, englischen Begriff erklärt habe.


„Raw" heißt roh, der zugehörige Begriff stammt aus der Fotografie: Alle DSLR- und Systemkameras können inzwischen die Informationen des Bildsensors als native Signale aufzeichnen; das heißt, die Daten werden nicht direkt in ein Bild umgewandelt. Das gibt größere Freiheiten in der Nachbearbeitung, weil die Bildinformationen erst danach interpretiert und festgeschrieben werden. Was bei der Fotografie inzwischen üblich ist, bleibt im Videosegment aber vorerst etwas für Spezialisten, da der Aufwand recht hoch ist und Fachwissen voraussetzt, auch wenn die RAW-Aufzeichnung (nicht zuletzt durch Blackmagic Designs Cinema Camera) zurzeit sehr populär zu sein scheint.
MKV oder Matroska ist ein Container für Media-Inhalte als Opensource-Alternative (also von freien Entwicklern ohne kommerzielle Interessen programmiert) und soll als Ersatz für Formate wie AVI, MOV oder MP4 dienen. Der Name kommt von den russischen Matrjoschka-Puppen. Wie bei diesen ineinander verschachtelten Figuren kann ein Matroska-Container mehrere Informationen (Audio, Video oder Untertitel) fassen. Das MKV-Format kann Videos mit H.264- oder MPEG-2-Codierung und eine komplette Menüstruktur enthalten, so dass sich die Datei wie eine DVD nutzen lässt. Ähnliche Funktionen kann eine Flash-Datei haben, auch wenn sie ursprünglich von Adobe für die Gestaltung von Webseiten gedacht war, dafür inzwischen aber unattraktiv geworden ist.
Richtig populär wurde das Format durch YouTube, das Flash-Videos abspielt. Entsprechend beherrscht inzwischen jedes Schnittprogramm den Export eines Videos in Flash (*.flv), wobei es sich um einen Videocontainer handelt, in dem ganz unterschiedliche Videoauflösungen und Codecs stecken können. Adobe bietet einen kostenlosen Flash-Player an, so dass man Flash-Dateien auf vielen Rechnern abspielen kann. Doch auch bei Werbebannern auf Webseiten werden häufig Flash-Dateien angezeigt, die mit dem Flash-Programm von Adobe erstellt werden.
Die Abkürzung MVC steht für Multi View Coding, ein 3D-Format, das vom MPEG-Gremium (Motion Picture Expert Group, eine Gruppe von rund 350 Experten, die Standards für die Videokompression festsetzt) bereits 2005 für 3D-Aufzeichnung genormt wurde. Dabei werden simultan aufgezeichnete Videodatenströme in eine Datei geschrieben. Dieses Format nutzen aktuelle 3D-AVCHD-Camcorder und Schnittprogramme.
3D-Videos
Die passenden Grundeinstellungen im Schnittprojekt sind beim 3D-Schnitt besonders wichtig, denn bei nahezu allen Programmen kann man nur in einem speziellen 3D-Modus eine stereoskopische Vorschau sehen (3D-Vorschau), um die Tiefenwirkung des Bilds zu begutachten. Bedingung für eine 3D-Ansicht ist, dass zwei Videosignale aus leicht unterschiedlichen Perspektiven aufgezeichnet werden. Dabei geht man von einer Stereobasis aus, die sich am Augenabstand des Menschen orientiert, der zwischen 55 und 75 Millimetern liegt – wobei der Abstand die Tiefenwirkung bestimmt. Dann muss aber noch sichergestellt werden, dass beide Augen mit den unterschiedlichen Videoperspektiven versorgt werden.
YouTube bietet für 3D gleich mehrere Abspielmethoden an. Die preislich günstigste ist die mittels einer Anaglyphbrille, die es aus Papier schon für wenige Cent gibt. Allerdings ist die Farbdarstellung deutlich eingeschränkt.

Es gibt unterschiedliche Methoden, wie die zwei Sichtachsen voneinander getrennt werden: Die einfachste ist die sogenannte anaglyphe Vorschau, bei der der Betrachter eine Brille mit einem roten und einem blauen (oder auch cyanfarbenen) Glas benutzt. Die beiden Bilder, jeweils fürs rechte und linke Auge, sind in den Komplementärfarben eingefärbt und werden leicht versetzt dargestellt.
Die Brille dient dabei als Farbfilter zur Trennung der beiden Bilder, worunter allerdings die Farbtreue etwas leidet, weshalb diese Methode bei Filmern eher unüblich ist. Sie setzen lieber auf Shutter-Brillen. Dabei werden die Videosignale nebeneinander oder untereinander im Videosignal gespeichert. Für die Vorschau wird das Signal dann mittels Infrarotsender mit der Brille synchronisiert. Gezeigt wird im schnellen Wechsel das Bild fürs linke und rechte Auge – die Brille schaltet jeweils ein Brillenglas unsichtbar, so dass immer nur ein Auge sein Bild zu sehen bekommt. Das geht so schnell, dass der Zuschauer davon so wenig mitbekommt wie beim Bildwechsel eines herkömmlichen 2D-Films.
Als dritte Lösung gibt es die aus Kinos bekannten Polarisationsbrillen. Im Hausgebrauch ist diese Technik noch selten, denn die Brillen sind zwar deutlich günstiger als bei der Shutter-Technik, doch die Bilder für das rechte und linke Auge müssen durch horizontale und vertikale Polarisation voneinander getrennt werden. Diese Polarisation wird durch Filter erzeugt, die Licht schlucken, und auch die Brille macht das Bild dunkler, so dass man extrem helle und entsprechend teure Projektoren braucht.
Hier geht
Autor: |
Bildquellen: |
Weitere Editing-Artikel

Vorstellung: das ist neu in Magix Video Deluxe 2026

Workshop: Automatische Bildprofil-Erkennung in Adobe Premiere Pro
