Grundlagen der Videotechnik: Chromakeying

Wie funktioniert eine Kamera?

LinkedIn Learning kostenlos und unverbindlich testen!

Jetzt testen Alle Abonnements anzeigen
Für Chromakeys ist es von erheblicher Bedeutung, die "Reserven" der Bildsignale tatsächlich ausnutzen zu können. Man sollte daher schon bei der Aufnahme die Stärken und Schwächen der Signalverarbeitung berücksichtigen, um eine reibungslose Nachbearbeitung ermöglichen zu können.

Transkript

Ein Mensch kann insgesamt bis zu 30 Blenden an Kontrastumfang wahrnehmen. Das kann er aber nur, da die Iris in unseren Augen die Intensität des einfallenden Lichtes wie eine Belichtungsautomatik permanent anpasst. Gleichzeitig sehen wir immer nur bis zu 20 Blenden, was einem Kontrastverhältnis von 22 entspricht. Diese Sensoren in den heute üblichen Kameras kommen dem schon recht nahe und in nicht allzuferne Zukunft werden Kameras mehr Helligkeitstufen gleichzeitig unterscheiden können als der Mensch. Bislang sind es die Monitoren, die noch hinterher hängen. Audiovisuelle Medien arbeiten daher mit dem kleinsten gemeinsamen Nenner für die Verbreitung von Inhalten in Massenmedien der Rekommandation 709 der international Telelecommuncaionsunion ITU. Für die Verbreitung von Kinofilmen geht ein wenig mehr. Der P3 Standard der Digital Cinema Initiatives hat Anfang der 2000er Jahre die Voraussetzungen für einen erweiteten Kontrastumfang gelegt. Folgerichtig werden für die Distribution im TV, im Web und im Kino unterschiedliche Farbkorrekturen angefertigt, die den unterschiedlichen Kontrastumfang berücksichtigen. Auch für die aktuell angepriesenen TV-Geräte, die mit dem Label HDA für High Dynamic Arrange belegt werden, ist letztlch eine eigene Farbkorrektur erforderlich. Will man die Möglichkeit in der Darstellung eines erweiterten Kontrastes tatsächlich ausnutzen. Wenn wir uns die in der Nachbearbeitung üblichen Messgeräte näher anschauen, stellt sich die Frage, inwieweit Sie die unterschiedlichen Konrastumfänge der Distributionsstandards differenzieren können. Die Antwort ist vielleicht ernüchternd: Sie tun es überhaupt nicht, zumindest bisher nicht. Waveform-Monitore zeigen uns ein normalisiertes Signal des benutzten Kontrastumfangs, indem Sie sich auf die minimal und maximal mögliche Werte skalieren. Wir sind an das gewöhnt, Bildsignale in der RGB-Welt der additiven Farbmischung zu bewerten. Die additive Mischung der drei Primärfarben ist die Grundlage, mit der Bildschirme ein für uns erkennbares Bild erzeugen. Auch Kameras filtern das auf den Sensor auftreffende Licht mit Farbfiltern in Rot, Grün und Blau, um daraus die Komponenten der nachfolgenden Verarbeitung zu erzeugen. Die Verarbeitung von RGB-Signalen ist gleich nachvollziehbar und auch Grundlage für Entscheidungen zum Beispiel in der Farbkorrektur. Leider war und ist die für die Übertragung und Bearbeitung von RGB-Signalen erforderliche technische Bandbreite schon seit der Erfindung des Fernsehens eine Herausforderung. Und sie ist es angesichts immer größer werdende Bildauflösungen auch heute noch. In der Festlegung der Übertragungsstandards musste man daher schon immer Kompromisse machen. Als das Farbfernsehen konzepiert wurde, weist völlig undenkbar drei Schwarz-/ Weißauszüge für Rot, Grün und Blau parallel zu übertragen. Das hätte de facto drei Fernsehkanäle mit voller Bandbreite erfordet. Wenn wir heute dei Verarbeitung von RGB-SIgnalen betreiben, geht das immer noch. Entsprechend hoch sind aber auch heute noch die Anforderungen an Bandbreite und Speicherplatz. Die physiologischen Eigenschaften des menschlichen Gesichts kann man letztlich zu Hilfe. Sie führten aber als []seite der Medaille zu einem Verarbeitungs- und Übertragungsstandard, denn wir in der Film- und Fernsehproduktion alle permanent Anwenden, der aber vielen kaum bewusst ist. Der Mensch kann Helligkeitsunterschiede wesentlich besser differenzieren als Farbnuancen. Bei der Ausgestaltung der technischen Bildverarbeitung machte man sich genau das zu Nutze. Weit über 90% der Verarbeitung und Speicherung von Bildsignalen erfolgt auch heute noch durch die Trennung von Helligkeits- und Farbinformationen Wir benutzen auch in unseren Kameras täglich völlig selbstverständlich eine Bildspeicherung, die sich dieser Technik bedient. Man ernennt sie Farbdifferenzsignale, in der technischen Terminologie abgekürzt Y'CBCR. Jede Farbe hat auch eine wahrgenommene Helligkeit, den sogenannten Lumerwert. In der Abkürzung durch das Y mit dem Apostroph dahinter representiert, das Apostroph signalisiert, dass es sich hier um ein Gamma korrigiertes Signal handelt. Die Farbinformationen werden in den beiden Differenzkomponentnen Chromablue ud Chromared - CB und CR gespeichert und übertragen. Diese Technik erlaubt es, einen Teil der Farbinformationen wegzulassen, ohne dass wir das wahrnehmen. Mit anderen Worten ist dieses Verfahren die Grundlage für einer zum Teil massiven Datenreduktion, die uns mit unseren eingeschränkten Fähigkeiten der Farbwahrnehmung so gut wie nie auffällt. Erst in technischen Prozessen, in zum Beispiel der Farbkorrektur, stößt dieses Verfahren an seine Grenzen. Immer dann nämlich, wenn wir auf Informationen zugreifen wollen, die in diesem Prozess vorsetzlich auf der Strecke blieben, einen Chromakey zu erzeugen, ist genau deshalb komplizierter als es eigentlich sein müsste. Nun ist es der analogen Signalverarbeitung der frühen Jahre der Informationstechnik geschuldet, dass ich die Verarbeitung von RGB-Signalen von der der Broadcastwelt unterscheidet, Um Raum für technisch bedingten Unzulänglichkeiten der analogen Signalverarbeitung zu schaffen, wurden die tatsächlich nutzbaren Signale nur auf einen Teil des Signalpegals verteilt. Auch wenn wir diese Reserve in der heutigen digitalen Signalverarbeitung eigentlich nicht mehr brauchen, ist sie dennoch unser täglicher Begleiter. Der gesamte Übertragungsweg zwischen Kamera und Bildschirm ist davon betroffen, egal ob im TV, im Web, auf DVD oder Bluray. Als man Ende1980er Jahre die Spezifikation für das Zeitalter von High Definition Video festlegte, waren 8 Bt als digitale Qunatisierung angesagt. Mit anderen Worten, [ ]worte mit 2 hoch, 8 gleich, 256 Stufen standen zur Verfügung. Für das nutzbare Signale würden dafür in den Loomer-Werten Die Stufen 60 bis 235 benutzt, während die Farbdifferenzsignale von 16 bis 240 reichen. Im Loomer-Kanal liegen Schwarz und Weiß den nach nicht bei den extremen Werten, 0 und 255, wie man vielleicht vermuten würde. Die frei gewordenen Codeworte dienen zur Synchronisaion und für andere Aufgaben. Die Komponenten eines Farbdifferenzsignals YCBCA belegen weiterhin drei Kanäle, die das gesamte Bildsignal repräsentieren. Ein RGB-Signal wird hingegen jeweils mit dem vollen Wertespektrum zwischen 0 und 255 abgetastet. Wenn wir heute eine Bildbearbeitung in einer Software fpr diesen Zweck vornehmen, fällt uns dieser Umstand nicht auf, da uns die Software davon abschirmt und die Bearbeitung weitgehend automatisch vornimmt. Programme für den digitalen Videoschnitt unterscheiden sich in dieser Hinsicht nicht. Ihre Natur ist es, mit Signalen für die Verarbeitung in der Broadcastwelt umzugehen. Entsprechend unterstellen Sie das voraussichtlich auch eine Ausgabe in einem der Broadcastcondex. Und sie zeigen uns Messwerte, die darauf abgestellt sind, für die TV-Verbreitung legale Signale zu erzeugen. Sollten wir stattdessen eine Weiterverarbeitung in einem RGB-Speicherformat wünschen, müssen wir die Software für den nicht linealen Schnitt explzit mitteilen, um die Software für die Nachbearbeitung einmal beispielhaft mit Namen zu benennen. Die native Verarbeitung in farbdiffenzigen allen erfolgt in Apple Final Cut. Avid Media Composer, Adobe Pirmere Pro Grass Valley Edius, Edit share Lightworks und vielen anderen mehr. Mit wenigen Ausnahmen erfolgen auch 99% aller Aufzeichnungen von Bewegtbild in unseren Kameras in Farbdifferenzsignalen. Auch das machen sich die wenigsten Anwender bewusst. Die standardmäßige Erzeugung und Verarbeitung von RBG-Signalen erfolgt hingegen Adobe After Effects, adobe Speedgrade, Black Magic Design Davinci Resolve, BMD Fusion, Nuke, Maya Cinema 4D und auch hier viele andere mehr. Trotz dieser unterschiedlichen Verarbeitung unter der Haube zeigen uns diese Programme die Videopegal primär in der üblichen IRE Darstellung zwischen 0 und 100%: Um es zu rekapitulieren, IRE steht für Institut od Radio Ingeneeres. Es ist eine normalisierte Darstellung der Videopegal zwischen 0 und 100. 0 bedeutet schwarz, 100 bedeutet weiß. Darunter und darüber gibt es keine gültigen Werte. In einer 8 Bt Darstellung entspricht das den Codewerten 0 und 255, bei der Verarbeitung in der 10 BT Broadcastwelt 0 und 123. 10 Bt bedeutet nicht mehr Pegal, sondern eine um 2 Bt Höresignalauslösung. Also 4X4 Codeworte. Aber wie passt das denn jetzt zusammen, wenn RGBund YCBCI unterschiedliche Codewerte für Schwarz und Weiß benutzen. Im Prinzip passiert auf beiden Seiten das Gleiche. In der RGB gibt es nut 255 statt 220 Zwischenwerte. Das kann für Chromakey einen sichtbaren Qualitätsunterschied bedeuten. Schwarz wird in der Broadcastwelt in einer 8Bt Darstellung auf den Codewert 16, Weiß auf 235 bezogen, Entsprechend sind es bei einer 10 Bt Verarbeitung 64 für Schwarz und 940 für Weiß. Um die in der analogen Welt üblichen Messsignale die Black und Superwhite darstellen zu können, wurden Werte unter 16 und über 235 bedingt zugelassen. Broadcastcameras zeichnen Werte bis zu109 % auf, was nicht als illegales Bldsignal in der Bildanfassung bewertet wird, um eine bessere Wiedergabe, Tonwerte in den Lichtern zu gewährleisten. Das stammt aus der Ära, als die Sensoren in den Kameras noch nicht in der Lage waren, mehr als 7 Blenden darzustellen. In den Grundeinstellungen der Kameras wird dann oft von Fullrange und Broascastrange gesprochen. Typische DSLR-Kameras haben in den Einstellungen einen Wertebereich von 0 bis 255 als mögliche Werte für 100% des Tonwertumfangs, die der Sensor darstellen kann. Die Lichter sind da bereits eingeschlossen. Broadcastcameras hingegen definieren maximalesweis bei 100%, gemäß dem Codewert - 235. Sie lassen damit bis 109 offen, wie viele Lichter die jeweilige Kamera in diesem Bereich abbildet. So weit die Kameraseite. Ein Masterfall früher Meistertyp darf entsprechend der technischen Richtlinien in der Rundfunk veranstalten weltweit und von Sender zu Sender durchaus unterschiedlich bis zu 105 % in den Loomer-Werten aufweisen. Chromawerte werden bis zu 120 % toleriert. Es gibt in den Schnittprogrammen sogar ein selten genutztes Messgerät dazu. Es ist die sogenannte YUV Parade. Darin wird das Loomer-Signal und die beiden Farbdifferenzsignale dargestellt. Da wir es aber gewöhnt sind, in RGB zu denken, ist das YUV-ViScope nur eine zusätzliche Hilfe bei der Signalkontrolle. Auf einem Waveform-Monitor werden Broadcastsignale als IRE dargestellt, was in der Darstellung auf Messgeräte zu einem Abschneiden von Werten über 100 führt. Das heißt aber nicht, dass es darüber keine aufgezeichneten Werte gibt. Eine Reduzierung der Belichtungswerte in der Farbkorrektur enthüllt oft die Tonwerte, die ansonsten abgeschnitten, geclipt würden. Alternativ wird eine Prozentscala von -20 bis 120% zu Anzeigen gebracht, um das vollstädige Signal, das aufgezeichnet wurde, beurteilen zu können. Es obliegt dann der Nachbearbeitungssignale außerhalb des legalen Bereiches so anzupassen, dass sie eine nachfolgende Qualitätskontrolle nicht als nicht sendefähig zum Opfer fallen. Um es kurz zusammenzufassen, es gibt einen Unterschied in der Behandlung von Signalen zwischen der Verarbeitung von RGB und Y'CBCR. In der RGB-Welt werden alle Codeworte zwischen 0 und 255 in einer 8Bt Verarbeitung und 1023 bei einer 10 Bt Verarbeitung genutzt. Das nennt man Full Swing. In der weitaus dominierenden Welt der Farbunter abgetasteten Signale und Codex wird Schwarz in einer 8 Bt Verarbeitung auf den Wert 16 bezogen und Weiß auf den Wert 235. In einer 10 Bt Verarbeitung sind es Respektive die Werte 64 und 940. Das wird als Studio Swing bezeichnet.

Grundlagen der Videotechnik: Chromakeying

Lernen Sie, wie Sie Greenscreen-Aufzeichnungen optimieren, sodass die Nachbearbeitung rasch von der Hand geht.

3 Std. 0 min (32 Videos)
Derzeit sind keine Feedbacks vorhanden...

Dieser Online-Kurs ist als Download und als Streaming-Video verfügbar. Die gute Nachricht: Sie müssen sich nicht entscheiden - sobald Sie das Training erwerben, erhalten Sie Zugang zu beiden Optionen!

Der Download ermöglicht Ihnen die Offline-Nutzung des Trainings und bietet die Vorteile einer benutzerfreundlichen Abspielumgebung. Wenn Sie an verschiedenen Computern arbeiten, oder nicht den ganzen Kurs auf einmal herunterladen möchten, loggen Sie sich auf dieser Seite ein, um alle Videos des Trainings als Streaming-Video anzusehen.

Wir hoffen, dass Sie viel Freude und Erfolg mit diesem Video-Training haben werden. Falls Sie irgendwelche Fragen haben, zögern Sie nicht uns zu kontaktieren!