HDR - einfach bessere Pixel?

HDR, Technik -

HDR - einfach bessere Pixel?

In den letzten Jahren haben wir eine Art Renaissance der Display bezogenen Technologien erlebt. Der Sprung von SD zu HD war ein enormer Sprung in der Bildqualität. HD zu 4k war ein weiterer deutlicher Schritt, um bessere Bilder zu erhalten - und zu generieren, hatte aber weniger Einfluss auf den vorherigen Sprung von SD zu HD. Jetzt sehen wir allmählich 8K-Displays am Horizont und damit einher gehen natürlich auch die entsprechend notwendigen 8K-Workflows. Obwohl dies für sehr große Bildschirme großartig ist, hat dieser Sprung für "kleinere" Betrachtungsumgebungen, also für Display, welche solch eine Auflösung technisch garnicht darstellen können, so gut wie keinen Mehrwert. Und wer besitzt in Europa heutzutage schon ein 8K-Display?

Meiner Meinung nach sind wir an einem Punkt angelangt, an dem wir nicht ein Mehr an Pixeln brauchen, sondern bessere! HDR- oder High Dynamic Range-Bilder zusammen mit breiteren Farbskalen ermöglichen es uns, die nächste große Steigerung der Bildqualität zu liefern. HDR liefert also in erster Linie ganz einfach ausgedrückt bessere Pixel!

Dynamic Range

Wenn wir über den Dynamikbereich eines bestimmten Erfassungssystems sprechen, also z.B. einer Kamera, beziehen wir uns auf das Delta zwischen dem schwärzesten Schatten und dem hellsten erfassten Glanzlicht. Dies wird in Stops typischerweise mit einem Belichtungsmesser gemessen, und einen solchen haben alle modernen Kameras bereits integriert. Ein Stop ist eine Verdoppelung oder Halbierung des Lichts. Diese Zweierpotenz-Methode zur Messung von Licht ist perfekt für ihre Korrelation mit der logarithmischen Natur unserer Augen. Unsere Augäpfel „clippen“ nie und ein perfektes HDR-System sollte das auch nicht. Je heller wir werden, desto schwieriger wird es, Unterschiede zu erkennen, aber wir stoßen mit unseren Augen nie wirklich an eine Grenze, und dies liegt nicht zuletzt in der Fähigkeit unseres Sehsystems, sich an unterschiedliche Lichtsituationen gut anpassen zu können.

Aber leider funktionieren die Sensoren von Digitalkameras nicht wie unsere Augen. Digitale Sensoren haben eine lineare Reaktion, unzwar mit einem linearen Gamma von 1,0 und Clipping. Die meisten High-End-Kameras wandeln dieses lineare Signal zur Nachbearbeitung in ein logarithmisches Signal um, ess ei denn, wir verfügen über ein RAW Aufnahmeformat, hier bleibt alles linear.

Wir werden eines Tages in der Lage sein, jedes Photon in einer Szene zu erklären, aber bis dieser Sensor hergestellt ist, müssen wir innerhalb der Grenzen des Bereichs arbeiten, der erfasst werden kann. Und solche Sensoren werden auch noch eine Weile auf sich warten lassen.

Wenn beispielsweise der dunkelste Teil eines abgetasteten Bildes die Schatten sind und der hellste Teil 8 Stufen heller ist, bedeutet dies, dass wir für dieses Bild einen Bereich von 8 Stops haben. Die Art und Weise, wie wir einen Sensor oder ein Stück Zelluloid belichten, ändert sich basierend auf einer Kombination von Faktoren. Dazu gehören Blende, Belichtungszeit und die allgemeine Empfindlichkeit des Abbildungssystems, also der ASA bzw. ISO. Je nachdem, wie wir diese Variablen einstellen, können wir den gesamten Bereich in der Szene nach oben oder unten verschieben.

Nehmen wir an, wir hätten eine Szene mit einem Helligkeitsumfang von 16 Stopps. Dies reicht vom dunkelsten Schatten bis zur hellsten Lichtquelle im Bild, beispielsweise der Sonne. Unser Abbildungsgerät in diesem Beispiel kann aber nur 8 der 16 vorhandenen Stopps verarbeiten. Wir können die zu gewichtende Belichtung in Richtung der Schatten, der Lichter oder des Sweetspots in der Mitte verschieben. Es gibt keinen richtigen oder falschen Weg, diesen Bereich einzustellen. Es muss nur das Bild ergeben, das hilft, die Story zu unterstützen, die man in der Aufnahme zu erzählen versucht. Eine 16-Bit-EXR-Datei hingegen kann 32 Stopps verarbeiten. Viel mehr, als jedes Aufzeichnungs- bzw. Erfassungssystem heutzutage leisten kann.

Was hat Film mit HDR zu tun?

Filme haben seit ihrer Entstehung immer mehr Informationen erfasst, als gedruckt werden konnten. Aktuelle Stocks haben eine Dynamikumfang von etwas mehr als 12 Stopps. Wenn man diesen Film druckt, muss man die besten 8 Stopps auswählen, um sie durch Drucken mit mehr oder weniger Licht anzeigen bzw. darstellen zu können. Der zusätzliche Dynamikumfang war zwar im Film-Negativ enthalten, wird aber am Ende durch die Display-Technologie begrenzt.

Erwähnt werden muss auch, dass man einen Unterschied im Dynamikumfang zwischen digitalen Sensoren and analogen Filmen nicht so ganz einfach ermitteln kann. Die nachstehende Abbildung zeigt das Ergebnis einer Messung von Zacuto, liegt aber auch schon ein paar Jahre zurück. Aussagekräftige Tests sind eher selten, das Bild dient vor allem der Veranschaulichung. 


Over and Underexposure Latitude (Quelle: Zacuto 2019)

Kameras von Arri, Red, Blackmagic und Sony verfügen heutzutage alle über Dynamikbereiche von über 13 Blendenstufen. Was hat das aber nun mit dem Dynamikumfang eines Films zu tun? Ganz einfach: wir müssen anfangen, Kameras nicht als Bilderzeuger, sondern eher als Photonensammler für die Szene zum Zeitpunkt der Aufnahme zu betrachten, genauso wie einen analogen Film. Das Bild wird dann also "kreativ" auf das Display „abgebildet“, unzwar so, wie wir es möchten bzw. wie es uns hilft, die Story zu erzälen. Wichtige Bestandteile des Bildes bzw. der Szene erhalten also mehr Zeichnung als andere Bereiche, ein Bild wird insgesamt eher dunkler, in den Mitten ausgeglichen oder heller.

Rein technisch gesehen ist ein Film heute immernoch den meisten Kameras überlegen, wenn es um die richtige Einstellung der Belichtung geht, denn ein Film clippt nicht, unsere digitalen Sensoren hingegen schon. Hinzu kommt, dass ein Film fast immer zwar weniger Spielraum in den Schatten hat, aber in den Highlights über einen deutlich größeren Spielraum verfügt. So hat man beispielsweise bei einem Kodak Vision 3 5213 Stock im Vergleich zu den besten am Markt verfügbaren Kameras bei einem einheitlichen ISO Wert von 800 bei dem Film bis zu 10 Stops mehr Spielraum in den Highlights. Es ist also einfacher einen Film "überzubelichten", als eine digitale Kamera, sofern sie auch auf 800 ISO eingestellt ist. Und genau dieses Mehr an Spielraum braucht man aber, wenn es um HDR geht, denn die wirklich mit Abstand weichesten und sehr weiten Roll-Offs in den Highlights erhält man immernoch mit einem analogen Film Stock. Natürlich kann man mit einer digitalen Kamera heute bis zu 16 Stopps "verarbeiten", aber die Qualität der Pixel ist immernoch geringer als die Latitide eines Films. und genau deswegen kommt es eben bei digitalen Kameras erstrangig auf die Qualität der Pixel an, und nicht auf die Auflösung. Eine digitale Kamera sollte also vor allem in erster linie gut und richtig bedient werden, wenn man das Maximum an Qualität heraus holen möchte, und genau das sollte man tun, wenn man die Szene am Ende in HDR ausliefern möchte. Eine höhere Anzahl von Pixeln hilft hier wenig, eine guter Dynamikumfang, eine wirklich gute Sensorabtastung und zusätzliche Hilfsmittel wie ND Filter schon viel eher.

Fazit

Ich wünsche mir vor allem, dass dieses Pixel Counting endlich mal aufhört, denn dies führt nur zu einem Ergebnis: die Hersteller digitaler Kameras verdienen an Leuten, die auf solche Specs großes Augenmerk legen, noch mehr Geld. Sofern man seine Kamera aber eher als Werkzeug und Photonensammler versteht, welches genau so wie ein analoger Film dazu genutzt wird, um eine Szene kreativ belichten zu können, beginnt man ein völlig anderes Gefühl und Verständnis für den Umgang mit seiner Kamera zu entwickeln, und erhält am Ende deutlich bessere Aufnahmen mit höherer Qualität.

1 Kommentar

  • Daniel

    Super geschrieben! Wie Recht du hast! Aber auch wie du schon am Ende sagst: die Hersteller digitaler Kameras verdienen an Leuten, die auf solche Specs großes Augenmerk legen, noch mehr Geld. Das ist das Problem an der Sache! Ich muss es leider immer als Beispiel nehmen, Sony a7sIII… aber der sie wird gekauft…

Hinterlasse einen Kommentar