Ich will mich auch mal versuchen.

- Das menschliche Auge nimmt Helligkeitsunterschiede logarithmisch wahr (
Weber-Fechner-Gesetz). Wir sagen nicht "ui, hier kommen 10 Photonen / s mehr an" (Addition), sondern "oh, das ist 10% heller" (Produkt). Was also reell eine exponentielle Intensitätssteigerung ist, kommt bei uns linear an -> logarithmische Wahrnehmung.
- Der
Active Pixel Sensor gängiger DSLRS "zählt" dummerweise linear (es gibt auch logarithmisch zählende Sensoren, z.B.
Digital Pixel Sensor und
High Dynamic Range CMOS). Entsprechend kennt er bei wenig Licht zwischen "geringe Helligkeit" und "doppelt so hell" nur wenige Stufen (z.B. 100 -> 200 = 100 Stufen), bei viel Licht aber viele Stufen (z.B. 1000 -> 2000 = 1000 Stufen).
- Ein linearer Zahlenraum wird also der logarithmischen Wahrnehmung nicht gerecht, weswegen man bei gängigen Bildformaten, Monitorwiedergabe oder generell Farbprofilen immer wieder mit einer
Gammakorrektur in Kontakt kommt.
- Licht wird vom Sensor in Form des
photoelektrischen Effektes "wahrgenommen", d.h. je nach Leuchtdichte wird unterschiedlich schnell ein Elektron "befreit". Dies unterliegt der stochastischen
Poisson-Verteilung, welche bei größeren Zahlenwerten der
gaußschen Normalverteilung ähnelt. Diese hat eine (theoretische)
Varianz von "gar kein Ereignis" bis zum theoretischen Maximallevel, welches sich aus der jeweiligen Leuchtdichte ergibt. Aus dieser Varianz ergibt sich definitionsgemäß das "Rauschlevel" als
Standardabweichung, also der Quadratwurzel aus der Varianz.
- Entsprechend nimmt mit mehr Licht das Rauschen also zwar auch (mit der Wurzel) zu - das, was wir gemeinhin als Rauschen empfinden, ist aber das
Signal-Rausch-Verhältnis, also Signal durch Rauschen. Mit um Faktor x größerem Signal wird dieses also auch um Wurzel x größer (besser).
- Aus den vorigen Erwägungen heraus entstand die Idee zu "
Expose to the right", also einer Belichtung dergestalt, dass die hellste Stelle im Bild gerade so unter der maximalen Sättigung der einzelnen Pixel bleibt.
- Die Helligkeit eines Pixels wird berechnet aus etwa 0,30*Rot+0,59*Grün+0,11*Blau. Bei den üblichen RGGB-Farbfiltern vor Sensoren mit
Bayer-Mosaik gilt für den Grünwert natürlich das Mittel beider Grünpixel. Da ein Pixel nicht mehr als seine maximale Sättigung erreichen kann, wird das Erreichen der Sättigungsgrenze im Helligkeitshistogramm also erst angezeigt, wenn
alle Farbkanäle überlaufen - also viel zu spät. Im RGB-Histogramm ist die Anzeige dagegen korrekt - fast:
- Sehen wir einen Grauton, sollten per Definition Rot-, Grün- und Blauanteil gleich sein. Praktisch sind sie dies aber auch nicht, gängige Kameras nehmen Grün zwar recht gut auf, Blau und Rot aber schlechter (Beispiel Canon 5D Mark II: Blau etwa um Faktor 1,4 schlechter und Rot um etwa Faktor 2,5). Nehmen wir ein strahlendes Weiß so auf, dass wir im RGB-Histogramm einen Anschlag rechts sehen, sind Blau und vor allem Rot im RAW noch bei weitem nicht gesättigt. Das sieht man mit Tools wie
RAWnalyze (erörtert u.a.
hier). Da das RGB-Histogramm dem angesetzten Weißabgleich unterliegt, macht erst dieser aus den im RAW enthaltenen Daten mittels unterschiedlicher Faktoren für Rot, Grün und Blau die scheinbaren Sättigungen, welche wir sehen. Möchte man seinen Sensor also bis auf's Letzte ausreizen, benötigt man einen Weißabgleich, der für alle 3 Farbkanäle einen Korrekturfaktor von 1,0 anzeigt (meist leicht grünlich). Einen solchen gibt es mit
UniWB.
- Zur Sättigung einzelner Pixel gilt wie bereits geschrieben: mehr als voll geht nicht. Somit gehen bei übersättigten Pixeln die Farbinformationen verloren (-> Punkte werden "weiß") oder erhalten durch die bereits erwähnten unterschiedlichen Korrekturwerte einen vom Weißabgleich abhängigen Farbstich (bei Übersättigung aller Kanäle also z.B. das Gegenstück zum UniWB-WB-Oliv, mithin ein zartes Rosa). Moderne RAW-Converter können teilweise überlaufende Farbkanäle erkennen und versuchen, "halbintelligent" zu korrigieren (durch farbkanalweise Interpolation angrenzender Bereiche) oder wenigstens die Farbstiche bei der Überbelichtung zu vermeiden.
- Wie man sieht, ist es also - insbesondere mit dem reinen Helligkeitshistogramm - schwer, ein Überlaufen der Farbkanäle verlässlich zu erkennen. Gleiches gilt bei Nacht-, Gegenlicht oder ähnlichen Aufnahmen, die im Vergleich zur durchschnittlichen Helligkeit nur wenige Spitzlichter haben, die man im Histogramm möglicherweise nicht erkennt. Um dort nichts zu riskieren, wird von vielen Fotografen bewusst etwas unterbelichtet (würde man im Histogramm auch Spitzlichter gut erkennen, könnte ETTR durchaus auch auf eine Unterbelichtung hinauslaufen!). Auf diese Art und Weise sind ausgefressene Lichter eher unwahrscheinlich, dafür müssen die Tiefen hochgezogen werden.
- Aufgrund der geringeren Signallevel der Tiefen, erhalten diverse Störungen einen relativ gesehen größeren Anteil: Photonenrauschen (s.o.), thermisches Rauschen auf den Pixeln und im Auslesevorgang und schlussendlich Einflüsse durch Digitalisierung und Bildverarbeitung. Photonenrauschen lässt sich aufgrund seiner o.g. Natur recht gut herausrechnen, thermisches Rauschen in Pixeln und Auslesevorgang dagegen nicht. Das Tiefen hochziehen funktioniert also besonders gut mit Sensoren, die "geringes Ausleserauschen" aufweisen (diverse Nikon, Pentax, Sony). Bei anderen Herstellern (Canon) klappt das Hochziehen der Tiefen vielleicht nicht ganz so gut, dafür ist ggf. auch die Sättigungsgrenze der Pixel höher.
So. Mal sehen, was ich vergessen oder ggf. auch falsch geschrieben habe.
