• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang Nikon

Gunther Wegner hat mal einen interessanten Vergleich bzgl. High ISO und Dynamik gemacht:

http://gwegner.de/review/nikon-d810-d800-d5300-canon-6d-high-iso-dynamik-review/

Da werden bei der Dynamik die Vorteile der Nikon-Sensoren sichtbar, vorausgesetzt, es wurde im Low ISO Bereich fotografiert.
 
in der Wahrnehmung einen sehr sehr großen Dynamikumfang haben.

Das hätte ich gerne bei meinen Bildern. Das die Wahrnehmung beim live gesehenen und beim Betrachten des Bildes das gleiche ist.



Was ich hier gelernt habe ist, dass der Dynamikumfang der Sony Sensoren eher in die dunklen Bereichen geht. D.h. es bringt mehr Unterzubelichten und das als Basis zu nehmen.
 
Was ich hier gelernt habe ist, dass der Dynamikumfang der Sony Sensoren eher in die dunklen Bereichen geht. D.h. es bringt mehr Unterzubelichten und das als Basis zu nehmen.

Das ist auch das, was die neuen Fujis (auch Sony Sensor) machen. Hat man DR200 und Iso 400 eingestellt, wird das Bild eigentlich bei Iso 200 aufgenommen und um eine Blende gepusht. Das Ergebnis ist qualitativ nahezu ebenbürtig.
 
Dann musst du deine Kamera entsprechend einstellen - und zwar so, dass die Tiefen aufgehellt werden... deswegen gibt es die dazu notwendigen Funktionen ja in der Kamera. Und nein, leider wird keine jpg-Engine dazu in der Lage sein das Bild genau so zu erzeugen, wie du es gesehen hast - dazu spielen bei der Wahrnehmung zu viele Dinge eine Rolle, selbst 2 Personen nebeneinander nehmen das gleiche Bild verschieden wahr.
 
Wie bekommen die eigentlich mit 14Bit >14EV Dynamikumfang hin? Wird da im Sättigungsbereich nich-linear abgeregelt (was eigentlich auch nur hartes Clipping kaschiert)?

Die D810 hat bei ISO64 13,67Ev Dynamik, die D750 etwas mehr.

Die Werte oberhalb 14Ev ergeben sich bei einer Betrachtung auf 8MP reduziert.

Die Erklärung ist nicht ganz richtig. Auch wenn die D810 im Screen Mode 13.7 EV hat so sind das im Print fast 15 EV.

Der Grund, warum man mit einer bestimmten Anzahl von Bits einen größeren Dynamikumfang bekommt, als man von der Anzahl der Bits erwarten kann, liegt daran, dass die Charakteristik des AD-Wandlers (der das Sensorsignal digitalisiert) nicht linear ist, sondern im Allgemeinen eine logarithmische Kennlinie hat. Das heisst, eine Änderung des Zahlenwerts um Eins in den Tiefen entspricht einer größeren Lichtwertänderung als eine Zahlenwertänderung um Eins in den Lichtern.
 
Die Erklärung ist nicht ganz richtig. Auch wenn die D810 im Screen Mode 13.7 EV hat so sind das im Print fast 15 EV.

Der Grund, warum man mit einer bestimmten Anzahl von Bits einen größeren Dynamikumfang bekommt, als man von der Anzahl der Bits erwarten kann, liegt daran, dass die Charakteristik des AD-Wandlers (der das Sensorsignal digitalisiert) nicht linear ist, sondern im Allgemeinen eine logarithmische Kennlinie hat. Das heisst, eine Änderung des Zahlenwerts um Eins in den Tiefen entspricht einer größeren Lichtwertänderung als eine Zahlenwertänderung um Eins in den Lichtern.

Dynamikkompression an der Sättigungs- oder Empfindlichkeitsgrenze bringt dir keine zusätzliche Dynamik. In deinem Beispiel würden dir Details in den Lichtern flöten gehen, und du gewinnst dann nicht wirklich mehr Dynamik.
So eine Nichtlinearität wäre auch schlecht, wenn sie vor dem Tonemapping eingebracht werden würde. Im Tonemapping hingegen tut man genau das (nichtlineare Verläufe in verschiedene Helligkeitsbereiche in den verschiedenen Farbkanälen einbringen), und hier ist es dann gut viel lineare, unkomprimierte Dynamik zu haben.
 
Zuletzt bearbeitet:
In deinem Beispiel würden dir Details in den Lichtern flöten gehen, und du gewinnst dann nicht wirklich mehr Dynamik.
Genau umgekehrt, man verliert Details in den Tiefen, nicht in den Lichtern.

Wenn man nicht eine logarithmische Kennlinie anwendet, wie sollte es dann möglich sein, im jpg-Format (8 bit) mehr als 8 EV Dynamikumfang zu bekommen? Solche Diskussion gab es hier in einem Thread schon vor vielen Jahren, als mir genau dieser Punkt nicht klar war. Das war bei der Diskussion um Vorteile zwischen analoger und digitaler Fotografie. Aus meiner Dunkelkammerzeit in den 70-ern wusste ich noch, dass der Dynamikumfang von normalem, frischen, im Kühlschrank gelagerten Negativematerial (ASA=ISO 100) etwa 4000 beträgt, zwischen der "Dunkelbelichtung" und der Sättigung vor Einsetzen der Solarisation. Das war genau meine Frage hier im Forum, wo denn der Vorteil einer Digitalkamera gegenüber dem Film liegt, wenn der Film einen Dynamikumfang von etwa 12 EV hat und jpg aber nur 8 Bits. Da wurde mir genau das erklärt, dass der AD-Wandler nicht linear ist, so dass man mehr Dynamikumfang als die Anzahl der Bits bekommt.

Mittlerweile habe ich das auch anhand der Histogramme in etwa Photoshop verifiziert bzw. benutze die dort gemessene Kennlinie, wenn ich über Kontrastmessung mittels Photoshop die Einstellung der Feinabstimmung des Phasen-AFs für meine Objektive an der Kamera vornehme. Habe ich gerade am WE gemacht, nachdem mein D600 in eine D610 getauscht wurde :).

Schaut doch einmal die Histogramme z.B. in den Bildbearbeitungsprogramme an:
So entspricht 18% Helligkeit (also das, was als Standard belichtet wird) einem Wert von 117. +1EV, also 36%, entspricht 160.5 und -1EV, also 9%, entspricht 85.35. Die Differenz ist 43.5 (+1EV) und 32.65 (-1EV) also: je heller je mehr Abstufungen sind möglich.
 
Genau umgekehrt, man verliert Details in den Tiefen, nicht in den Lichtern.

Wenn man nicht eine logarithmische Kennlinie anwendet, wie sollte es dann möglich sein, im jpg-Format (8 bit) mehr als 8 EV Dynamikumfang zu bekommen? [...]

Gar nicht. Man zieht die Tiefen mach oben und die Höhen nach unten. Das macht man idealerweise so, das es nicht auffällt. Dabei dampfst man das Ausgangsmaterial mit hoher Dynamik so ein, das es in die 8 Bit rein passt. Man hat also nicht mehr als 8EV, sondern Bereiche die zu hell sind werden dunkler gemacht und zu dunkle Bereiche werden angehoben und man hat weiterhin 8 Bit. Was nicht passt wird also passend gemacht. Das Histogramm wird dabei gestaucht. Das ganze muss mir Augenmaß geschehen, sonst bekommt man den typischen Grusel HDR Look
 
Und welchen Einfluss hat ggfs. die objektivseitige Kontrastumsetzung hierbei? Objektiv ist ja schließlich nicht Objektiv ...
 
Und welchen Einfluss hat ggfs. die objektivseitige Kontrastumsetzung hierbei? Objektiv ist ja schließlich nicht Objektiv ...

Naja, die Danymikumfang beschreibt den maximal möglichen Kontrast, denn ein Bild haben kann. Objektive mit schlechter Kontrastumsetzung haben eher Einfluss auf den lokalen Gradienten der Kontraste (also wie gut eng beieinander liegende Kontrastkanten umgesetzt werden [aka Schärfe]) und nicht auf den Dynamikumfang. Wenn ich das gerade richtig im Kopf habe, ist das genau jene Eigenschaft eines Objektivs den man über die Modulationsübertragungsfunktion (aka MTF) abbildet. Aber sicher bin ich mir da gerade nicht.
 
Zuletzt bearbeitet:
@tachyon: Schon klar, oder anders gesagt MTF = Modulation Transfer Function oder auf Deutsch = Kontrastübertragungsfunktion.

Egal wie, schon zu analogen Zeiten habe ich bei hohen Kontrasten hart arbeitende Objektive grundsätzlich gemieden und umgekehrt. Nachtaufnahmen mit einem 105/4.0 AIS Micro waren z.B. schlichtweg ein No-Go, während ein 85/2.0 AIS oder ein 135/2.8 Serie E solche Szenen, fast wie bei einer unterschwelligen Vorbelichtung beim analogen Film, spielend gemeistert haben.

Da sich viele bzgl. Dynamikumfang auf DXO beziehen, frage ich mich wie ohne objektivseitige Einflussnahme sytemübergreifend gemessen wird bzw. gemessen werden kann?
 
Der Rauschabstand und damit auch die Dynamik (mit der Untergrenze beim Erreichen von SNR=0dB) ergibt sich aus Mittelwert und Standardabweichung der Messwerte von vielen kleinen, gleich großen und gleich belichteten Flächenstückchen des Sensors. Bei DxOMark sind die für "screen" je 1 Sensorpixel groß und für "print" je 1/8000000 der Sensorfläche. Mit linearen Raw-Daten in 14bit erreicht man auch bei "screen" eine Dynamik >14LW, in "print" sowieso. Dafür braucht man keine nichtlineare Kennlinie.

Die 8bit einer sRGB-JPG-Datei sind aber tatsächlich nichtlinear codiert, können deshalb einen Werteumfang von 11,7LW darstellen. Die Dynamik ist noch etwas größer.

Übrigens bedeutet eine geringe MTF eines Objektivs nicht, dass große helle Flächen nicht ganz so hell und große dunkle Flächen nicht ganz so dunkel übertragen werden. Die MTF hat eine (starke) Ortsfrequenzabhängigkeit, aber bei tiefen Ortsfrequenzen ist sie bei allen Objektiven ziemlich hoch.
 
Zuletzt bearbeitet:
Man merkt, dass das DSLR Forum sehr techniklastig ist :D


Wird eigentlich der Dynamikumfang der RAW durch den Dynamikumfang des Monitors beschnitten? Sieht man Dynamikunterschiede zwischen normalen Monitoren und sehr guten?
 
Wird eigentlich der Dynamikumfang der RAW durch den Dynamikumfang des Monitors beschnitten? Sieht man Dynamikunterschiede zwischen normalen Monitoren und sehr guten?

Natürlich nicht! Die messen/rechnen schließlich direkt mit den Raw-Daten, die kann man gar nicht auf einem Monitor darstellen. Den "Dynamikunterschied" zwischen monitoren sieht man natürlich, aber das hat überhaupt nichts mit der Dynamik der Raw-Daten zu tun.
 
Zuletzt bearbeitet:
Ich habe in der Bearbeitung von RAW mit der D810 auf jedenfall deutlich mehr Reserven, bevor Höhen ausgefressen oder Tiefen abgesoffen sind.

Die korrigierten Bilder im Anhang wären mit meiner Canon undenkbar gewesen, da in den Höhen keinerlei Zeichnung mehr zu retten gewesen wäre. Ich habe die Canon bei Aufnahmen in der Sonne im letzten Floridausflug verflucht...

Das Teichhuhn (Belichtung -3 Blenden) und den Eisvogel (Belichtung - 1,5 Blenden und weitere EBV) habe ich durch Verwendung eines Telekonverters (und teilweise mangelhafte Verwendung der Messmethode) falsch belichtet. Die Bilder wären mit meiner Canon nicht zu retten gewesen.
 

Anhänge

  • kf.jpg
    Exif-Daten
    kf.jpg
    415,9 KB · Aufrufe: 141
  • Unbenannt-1.jpg
    Exif-Daten
    Unbenannt-1.jpg
    368 KB · Aufrufe: 124
  • DSC_8348_NIKON D810_200.0-400.0 mm f-4.0_Sigma 1.4 EX DG.jpg
    Exif-Daten
    DSC_8348_NIKON D810_200.0-400.0 mm f-4.0_Sigma 1.4 EX DG.jpg
    353,6 KB · Aufrufe: 71
  • DSC_8258_NIKON D810_200.0-400.0 mm f-4.0_Sigma 1.4 EX DG.jpg
    Exif-Daten
    DSC_8258_NIKON D810_200.0-400.0 mm f-4.0_Sigma 1.4 EX DG.jpg
    462,9 KB · Aufrufe: 107
  • kfv.JPG
    Exif-Daten
    kfv.JPG
    371,7 KB · Aufrufe: 71
Zuletzt bearbeitet:
Natürlich nicht! Die messen/rechnen schließlich direkt mit den Raw-Daten, die kann man gar nicht auf einem Monitor darstellen. Den "Dynamikunterschied" zwischen monitoren sieht man natürlich, aber das hat überhaupt nichts mit der Dynamik der Raw-Daten zu tun.

Worum es mir ging ist ob der Monitor 14.8 Blendenstufen Dynamikumfang darstellen kann. Das sie da sind ist klar. Nur das man sie beim unbearbeiteten Betrachten nicht sieht.
 
WERBUNG
Zurück
Oben Unten