(...)
So wie ich das im Hinterkopf habe ist der Dynamik-Umfang vom Menschlichen Auge (20 Blenden) noch deutlich höher, als von aktuellen Digital-Sensoren (14 Blenden).
Wenn ich Fotos mit der D850 erstelle, dann kann ich aus Schatten mit nachträglicher EBV noch relativ viele Bildinformationen rausholen.
(...)
Wo ist mein Denkfehler ?
Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Warum muss ich das per EBV machen ?
(...)
Verzerre ich mit dem hochziehen der Schatten die Realität ?
(...)
Erst mal:
Das mit den angeblichen 20+ EV Dynamikumfang des Auges stimmt so leider nicht. Das Auge kann zwar in einem großen Bereich wahrnehmen - hat aber eigentlich bei einer Szene (also fixierter Blick) immer nur einen "Dynamikumfang" von ca. 5 bis 7 EV, je nach Helligkeitsbereich und Auge. Mehr kann die Netzhaut eben nicht auf einmal. Dazu hat das Auge nur einen sehr minimalen Scharfbereich (< 5° Blickwinkel), alles andere am Rand wird zwar wahrgenommen - aber ist eben unscharf. Sobald man irgendwo anders hin schaut in der Szene passt sich das Auge wieder komplett neu an, sowohl bei der Schärfe als eben auch am Helligkeitsempfinden. Und das Ganze passiert dann auch noch nichtlinear. Das Auge ist eben keine Fotokamera - sondern ein "Videosystem".
[Hintergrund:
Das menschliche Auge kann so zwar im Bereich von -10EV (dunkle Nacht ohne Mond, nur Sternenlicht) bis 15+EV sehen. Aber das geht nur deshalb, weil das Auge und das Gehirn sich entsprechend anpasst. Auf einem Gletscher/Schneefeld in der prallen Mittagssonne kann man deswegen noch etwas erkennen, weil sich die Pupille auf eine Mindestgröße verkleinert (entspricht dann ca. f/12 bis f/13). Und weil das Auge bzw. Gehirn sich an die Helligkeit auch adaptieren kann, was aber sehr schnell geht (< 1 Minute). Kommt man dann wieder aus dem hellen in einen dunklen Bereich (normal heller Raum innen), dann sieht man aber erst mal kurz nicht all zu viel, man ist erst mal "geblendet" und sieht eventuell sogar Nachbilder. Erst nach einer kurzen Zeit (auch so <1 Minute) hat sich das Auge dann wieder an die Dunkelheit angepasst und die Pupille ist geweitet. Genau das gleiche passiert auch, wenn man von einer normal hellen Umgebung in eine dunkle Umgebung kommt. Um dann in einer dunklen Umgebung (helles Mondlicht, -1EV) wieder etwas zu sehen muss sich das Auge wieder anpassen, was ein bis zwei Minuten dauern kann. Und um in wirklich dunkler Umgebung wieder etwas zu sehen, da muss sich das Auge erneut anpassen, auch weil hier nicht mehr die Farbempfindlichen Zapfen-, sondern die lichtempfindlicheren Stäbchensensoren zum Einsatz kommen. Und erst nach so 20 bis 30+ Minuten Adaption an die enstprechende Dunkelheit von z.B. -5EV oder weniger sieht man dann wieder vollständig, bei maximal geöffneter Pupille (entspricht dann irgendwo f/5 bis f/2, im Alter öffnet sich die Pupille weniger weit...). Wenn auch nur in schwarzweiß und leicht unscharf. Dafür kann man dann nach einer entsprechenden Adaption und ohne große Lichtverschmutzung des Himmels auch die Milchstraße in einer Neumondnacht wunderbar sehen.
Das Auge kann aber z.B. nicht gleichzeitig bei Nacht den normal hell beleuchteten Innenraum (7EV) und dazu noch die nächtliche Szenerie draußen vor dem Fenster erkennen (-1EV), da ist für das Auge draußen kein wirkliches Detail mehr erkannbar, alles ist "schwarz". Erst wenn man innen das Licht dimmt, dann kann man dann draußen wieder was erkennen. ]
Das Auge kann so in einer fixierten Szene deutlich weniger Dynamik wahrnehmen als die meisten modernen Kameras mit ihren bis zu 14 EV aufzeichnen können. Und genau deswegen nutzen die Kameras beim Erstellen der jpeg normal auch nicht die vollen 14 EV Dynamikumfang um z.B. die Schatten durch eine Betonung mehr aufzuhellen. Sondern versuchen lediglich einen möglichst "natürlichen Eindruck" des Bildes zu bekommen. Bei dem auch mal Details im Schatten "versinken". Da werden dann schon auch mal 10EV aus dem Bild genutzt (in 8-bit jpeg kann man dank nichtlinearer Gammakurven Problemlos 11EV darstellen..) - aber Schatten werden meist nur sehr dezent aufgehellt von der Dynamik. Wenn nämlich die Schatten zu sehr hoch gezogen werden um dort Details zu sehen, dann wirken Bilder gern mal etwas unnatürlich, das sieht man vor allem bei vielen "Urbex-" und Social-Media Landschaftsbildern, bei denen dann Tonemapping & co. auch gern mal bisschen bis massiv übertrieben wird. Wobei die Bilder am Ende auch mal direkt nach optischem Müll aussehen. Das ist dann diese verzerrte Realität, die du angesprochen hast.
Was das für dich für die Praxis bedeutet:
Wenn du OOC jpeg mit der Kamera machst um das Bild direkt zu haben, dann musst du immer das hinnehmen, was die Ingenieure da an Bildprofilen eingebaut haben - oder du verwendest hier eigene, angepasste Bildprofile, die du z.B. mit dem Picture Control Utility 2 bearbeitet und in die Kamera geladen hast. Mit dieser Software kannst du dann nicht nur Helligkeit und Kontrast verändern (wie in den jpeg-Profilen der Kamera), sondern auch direkt die Belichtungskurven verändern. Damit kannst du dann die Schatten generell leicht aufhellen. Aber die Kamera ist eben immer nur eine Dummautomatik, die nicht wirklich selbst mitdenken kann auch wenn man mit ein bisschen Auseinandersetzung mit den Kameraprofilen/Picture Controls schon ganz gute Ergebnisse bekommen kann. Nur hat man am Ende 8-bit jpeg, die verlustbehaftet komprimiert sind. Und zwar so für sich gut aussehen, für die weitere Bearbeitung aber nicht mehr so gut geeignet sind, weil du dabei dann z.B. Artefakte und Banding im Bild bekommen kannst.
Die wirkliche volle Kontrolle über das Bild kriegst du aber nur, wenn du es nicht als jpeg, sondern am besten als 14-bit lossless RAW fotografierst und dann die ganzen Einstellungen, die beim JPEG OOC die Kamera für dich macht, selbst am RAW-Konverter machst. Hier kannst du dann nicht nur die ganze Grundbelichtung ändern, sondern auch Schatten hochziehen, mit dem Nikon-Konverter kann man auch das D-Lighting noch nachträglich anwenden, verschiedene Kamera jpeg-Profile ausprobieren usw. Um das Bild erst dann am Ende in das verlustbehaftete und komprimierte 8-bit jpeg-Format umzuwandeln.
Ich selbst fotografiere so eigentlich fast nur noch in RAW und mache den Rest dann zu hause am Rechner, da hat man dann seine 20+ jepg auch mit drei, vier Klicks erzeugt, wenn man nicht viel am Bild ändern will. (Der Nikon-Konverter ist da in der Funktion auch nicht anders als die Kamera). Und individuell anpassen einzelner Bilder geht dann auch immer noch. Die jpegs OOC sind eigentlich nur dann notwendig, wenn man die Bilder direkt braucht um sie z.B. so schnell wie möglich an eine Bildagentur zu schicken oder wenn man generell keine Lust hat sie noch schnell am PC umzuwandeln. (Vergleichbar mit dem "Film ohne weitere Angaben" entwickeln lassen am Discounter früher).
"Interpretationen der Realität" sind aber bei Varianten, sowohl die von dir nach deinen Vorgaben entwickelten als auch die von der Kamera nach den Bildvorstellungen eines Nikon-Ingenierus entwickelten Bilder.