So ganz richtig ist das nicht, da die Gradationskurve fast immer unbeeinflussbar ist, muss man sie nunmal hinnehmen.
Die Gradationskurve ist eine REINE Software-Funktion. Im JPEG-Prozeß wird sie durch die Kamera-Software und die Einstellung des Kontrasts im Settings-Menü beeinflußt.
Bei Halbleitersensoren ist es eine rein unter Geschmacksmuster laufende Eigenschaft.
Selbst mit einem perfekten Sensor mit reinem Quantenrauschen (und selbst bei 100% rauschfreien Bildern aus CGI-Prozessen) gibt es ein Ränkespiel zwischen großer darstellbarer Dynamik und knackigem Bild.
Man bildet eine reale Helligkeitsverteilung (standardisierter Testchart) durch die Systeme 'Objektiv' und 'Kamera' in eine JPG an. Die schaut man sich dann an.
Als Ergebniss der rechnerischen Analyse kommt von der "Mitte" ausgehend ein Spielraum zum Weiß und ein Spielraum hin zum Schwarz raus. (Neudeutsch HighLight und Shadow-Range)
An sich liefert diese Methode brauchbare Resultate, zumindest nach oben hin. Eine E-410 attestiert eine gewisse Seite 2.7 EV High-Light-Range, der S5 Pro 4.8 EV.
Kommt in etwa hin und bringt das Problem/den Vorzug auf den Punkt.
Wenn Du JPEGs mißt, mißt Du die JPEG-Engine. In RAWs stecken schon typischerweise 1 Blende mehr Kontrast drin, die Sensoren selbst haben noch typischerweise zwischen 0 und 4 Blenden mehr Kontrast als man im RAW-Image sieht.
Wenn moderne Sensoren einen erweiterten Headroom bekommen, wird man davon einen Teil nur im RAW sehen und noch weniger davon im JPEGs. Die JPEG-Analyse ist damit ziemlich sinnfrei, um Verbesserungen der Sensorentwicklung zu erkennen.
Wirkliche Schwachpunkte existieren m.E. bei anderen Punkten. Zum einen wird das verwendete Objektiv verschwiegen. (Im Idealfall sollten alle Tests ja mit einem sehr kontrastreichem Objektiv gemacht werden).
Wenn Du die Dynamik von Sensoren bestimmen willst, brauchst Du kein Objektiv.
Wenn Du das Streulichtverhalten von Objektiven bestimmen willst, brauchst Du das Objektiv, dessen Streulichtverhalten Du bestimmen willst.
Zum anderen sollte man diesen Test auch mit den bestmöglichen Einstellungen durchführen.
Die Bewertung nach unten hin ist m.E. sowieso schwierig, so genaue Werte sind da auch nicht nötig.
Wenn Du eine genaue Meßvorschrift angibst, kann Du die Dynamik auch messen. Für technische Sensoren (ohne Bayermaske und ohne gebundelten AD-Wandler) gibt es eine. Die Werte werden dort in Dezibel angegeben.
Dynamik = 20 dB * log10 ( FullWellCapacity / ReadOutNoise).
Beispiele:
Für eine Fotografie-Kamera sind aber diese technischen Dynamikwerte der Fotosensoren aber nur ein Anhaltspunkt. Etliches ist dort anders, was die Werte verringert oder erhöht.
- -- Farbrekonstruktion durch Bayer-Matrix (wird zu einem + bei rein interpolierenden Rekonstruktionsfiltern).
- -- Scharfzeichnung
- -- Rauschen der AD-Wandlung (entfällt bei Counting Detectors)
- -- JPEG-Fehler
- + Rauschfilterung
- -- Gradationskurve (drückt meist Details einfach weg).
- o In die Wertung müßten weiterhin wahrnehmungsphysiologische Effekte von Homo Sapiens Sapiens berücksichtig werden.
Was von der Dynamik als Hauptarbeitsbereich, was Headroom und was Footroom ist, ist ISO-abhängig (in naher Zukunft hoffentlich auch motivabhängig) und abhängig von der Wichtung der Prioritäten im Entwicklungsprozeß der Endentwicklung des Herstellers.
Das ist das letzte, was ich zu diesem Thema hier sagen werden, wenn nicht konkrete Fragen gestellt werden (diese beantworte ich, wenn sie mir auffallen), da hier ohnehin im wesentlichen nur spekuliert wird und selten was gewußt wird.
Als Quellen empfehle ich das Programm dcraw sowie den Hersteller Kodak, der eine erstaunlich offene Informationspolitik betreibt. Eine geringe Dosis an technischem Verständnis ist weiterhin hilfreich.