• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamik-Entwicklung stagniert

Die Messung der Dynamik der JPEG ist völlig sinnfrei (man mißt im wesentlichen die gewählte Gradationskurve)
So ganz richtig ist das nicht, da die Gradationskurve fast immer unbeeinflussbar ist, muss man sie nunmal hinnehmen.

Man bildet eine reale Helligkeitsverteilung (standardisierter Testchart) durch die Systeme 'Objektiv' und 'Kamera' in eine JPG an. Die schaut man sich dann an.
Als Ergebniss der rechnerischen Analyse kommt von der "Mitte" ausgehend ein Spielraum zum Weiß und ein Spielraum hin zum Schwarz raus. (Neudeutsch HighLight und Shadow-Range)

An sich liefert diese Methode brauchbare Resultate, zumindest nach oben hin. Eine E-410 attestiert eine gewisse Seite 2.7 EV High-Light-Range, der S5 Pro 4.8 EV.
Kommt in etwa hin und bringt das Problem/den Vorzug auf den Punkt.

Wirkliche Schwachpunkte existieren m.E. bei anderen Punkten. Zum einen wird das verwendete Objektiv verschwiegen. (Im Idealfall sollten alle Tests ja mit einem sehr kontrastreichem Objektiv gemacht werden).
Zum anderen sollte man diesen Test auch mit den bestmöglichen Einstellungen durchführen.

Die Bewertung nach unten hin ist m.E. sowieso schwierig, so genaue Werte sind da auch nicht nötig.
 
Es müsste möglich sein einen Sensor nach 1/2 oder 2/3 der Zeit bereits auszulesen und dann zum Schluss nocheinmal (Ergebnisse werden dann addiert). Damit kann man noch Werte für Pixel ermitteln welche ansonsten überlaufen.

Nette Idee, aber das wird an der Auslesegeschwindigkeit scheitern. (Sonst könnte man sich auch gleich den mechanischen Verschluß schenken).
 
So ganz richtig ist das nicht, da die Gradationskurve fast immer unbeeinflussbar ist, muss man sie nunmal hinnehmen.

Die Gradationskurve ist eine REINE Software-Funktion. Im JPEG-Prozeß wird sie durch die Kamera-Software und die Einstellung des Kontrasts im Settings-Menü beeinflußt.
Bei Halbleitersensoren ist es eine rein unter Geschmacksmuster laufende Eigenschaft.

Selbst mit einem perfekten Sensor mit reinem Quantenrauschen (und selbst bei 100% rauschfreien Bildern aus CGI-Prozessen) gibt es ein Ränkespiel zwischen großer darstellbarer Dynamik und knackigem Bild.

Man bildet eine reale Helligkeitsverteilung (standardisierter Testchart) durch die Systeme 'Objektiv' und 'Kamera' in eine JPG an. Die schaut man sich dann an.
Als Ergebniss der rechnerischen Analyse kommt von der "Mitte" ausgehend ein Spielraum zum Weiß und ein Spielraum hin zum Schwarz raus. (Neudeutsch HighLight und Shadow-Range)
An sich liefert diese Methode brauchbare Resultate, zumindest nach oben hin. Eine E-410 attestiert eine gewisse Seite 2.7 EV High-Light-Range, der S5 Pro 4.8 EV.
Kommt in etwa hin und bringt das Problem/den Vorzug auf den Punkt.
Wenn Du JPEGs mißt, mißt Du die JPEG-Engine. In RAWs stecken schon typischerweise 1 Blende mehr Kontrast drin, die Sensoren selbst haben noch typischerweise zwischen 0 und 4 Blenden mehr Kontrast als man im RAW-Image sieht.

Wenn moderne Sensoren einen erweiterten Headroom bekommen, wird man davon einen Teil nur im RAW sehen und noch weniger davon im JPEGs. Die JPEG-Analyse ist damit ziemlich sinnfrei, um Verbesserungen der Sensorentwicklung zu erkennen.

Wirkliche Schwachpunkte existieren m.E. bei anderen Punkten. Zum einen wird das verwendete Objektiv verschwiegen. (Im Idealfall sollten alle Tests ja mit einem sehr kontrastreichem Objektiv gemacht werden).
Wenn Du die Dynamik von Sensoren bestimmen willst, brauchst Du kein Objektiv.
Wenn Du das Streulichtverhalten von Objektiven bestimmen willst, brauchst Du das Objektiv, dessen Streulichtverhalten Du bestimmen willst.

Zum anderen sollte man diesen Test auch mit den bestmöglichen Einstellungen durchführen.
Die Bewertung nach unten hin ist m.E. sowieso schwierig, so genaue Werte sind da auch nicht nötig.
Wenn Du eine genaue Meßvorschrift angibst, kann Du die Dynamik auch messen. Für technische Sensoren (ohne Bayermaske und ohne gebundelten AD-Wandler) gibt es eine. Die Werte werden dort in Dezibel angegeben.

Dynamik = 20 dB * log10 ( FullWellCapacity / ReadOutNoise).

Beispiele:Für eine Fotografie-Kamera sind aber diese technischen Dynamikwerte der Fotosensoren aber nur ein Anhaltspunkt. Etliches ist dort anders, was die Werte verringert oder erhöht.
  • -- Farbrekonstruktion durch Bayer-Matrix (wird zu einem + bei rein interpolierenden Rekonstruktionsfiltern).
  • -- Scharfzeichnung
  • -- Rauschen der AD-Wandlung (entfällt bei Counting Detectors)
  • -- JPEG-Fehler
  • + Rauschfilterung
  • -- Gradationskurve (drückt meist Details einfach weg).
  • o In die Wertung müßten weiterhin wahrnehmungsphysiologische Effekte von Homo Sapiens Sapiens berücksichtig werden.
Was von der Dynamik als Hauptarbeitsbereich, was Headroom und was Footroom ist, ist ISO-abhängig (in naher Zukunft hoffentlich auch motivabhängig) und abhängig von der Wichtung der Prioritäten im Entwicklungsprozeß der Endentwicklung des Herstellers.

Das ist das letzte, was ich zu diesem Thema hier sagen werden, wenn nicht konkrete Fragen gestellt werden (diese beantworte ich, wenn sie mir auffallen), da hier ohnehin im wesentlichen nur spekuliert wird und selten was gewußt wird.

Als Quellen empfehle ich das Programm dcraw sowie den Hersteller Kodak, der eine erstaunlich offene Informationspolitik betreibt. Eine geringe Dosis an technischem Verständnis ist weiterhin hilfreich.
 
Natürlich brauche ich mehr Dynamik.... ich überlege mir eine Analoge zuzulegen, ist der Unterschied wirklich so groß? Welche DSLR hat aktuell den besten Dynamikumfang? Die Fuji S5?
 
Selbst die neue 40D hat in großen Teilen eine gleich gute oder bessere Dynamik als die Fuji.

Das kann ich gar nicht glauben. Dpreview hat bei der Fuji 11,8 Blendenstufen gemessen, bei der 400D , die doch den gleichen Sensor wie die 40D hat, 8,4 Blendenstufen. Wenn die 40D in der Dynamik besser wäre als die S5Pro, würde das bedeuten, dass Canon per Bildverarbeitung einen gigantischen Schritt von 3,4 Blendenstufen gemacht hat...
j.
 
Welche DSLR hat aktuell den besten Dynamikumfang? Die Fuji S5?

Meines Wissen nach ja. Sie hat Doppelpixel, alle anderen Single-Pixel. Große Pixel sollen auch was bringen, aber die 5D kann der Fuji da auch nicht das Wasser reichen. Nicht so schlecht in der Dynamik soll auch die Sigma sein, aber ich denke, sie wird auch nicht an die Fuji rankommen können.
Theoretisch müsste es doch aber möglich sein, während der Aufnahme noch die Iso-Empfindlichkeit für jeden Pixel individuell anzupassen, d.h., um ein Ausbrennen der Lichter zu verhindern, müsste die Cam die Iso in gewissen Bereichen auf 50 oder so senken können. Ob das nicht in der Zukunft ein Weg wäre, mit Single-Pixel auch eine gute Dynamik zu erreichen?
j.
 
Das kann ich gar nicht glauben. Dpreview hat bei der Fuji 11,8 Blendenstufen gemessen, bei der 400D , die doch den gleichen Sensor wie die 40D hat, 8,4 Blendenstufen. Wenn die 40D in der Dynamik besser wäre als die S5Pro, würde das bedeuten, dass Canon per Bildverarbeitung einen gigantischen Schritt von 3,4 Blendenstufen gemacht hat...
j.

Bei der Testmethode von dpreview steig ich nicht durch.

Ich habe ja schon viele "Meßmethoden" der Dynamik gesehen, aber bei keiner kam eine DSLR-Kamera überhaupt über 11 Blendenstufen.

Insofern kann man das nicht daran festmachen.

DerHeimatlose
 
@Frank Klemm: Ich will ja auch nicht den Dynamikumfang des Sensors, sondern der Kamera messen. RAW ist schön und gut, aber eigentlich sollte das der Kamerahersteller wie im Falle Fujifilm schon mit der Kamerasoftware können.

Seit Raw Shooter nicht mehr verkauft wird, ist das Thema für mich persönlich gestorben.
 
Bei der Testmethode von dpreview steig ich nicht durch.

Ich habe ja schon viele "Meßmethoden" der Dynamik gesehen, aber bei keiner kam eine DSLR-Kamera überhaupt über 11 Blendenstufen.

Insofern kann man das nicht daran festmachen.

Ist in der Tat ein bisschen viel Unterschied. Normal sollten zwischen Fuji und den anderen "nur" ca. 2 Blendenstufen sein. Aber ich bin mir doch ziemlich sicher, dass eine 40D nicht annähernd an die Fuji rankommen können kann.
Eigentlich ist Dpreview ziemlich verlässlich, das Messverfahren habe ich aber jetzt auch nicht geprüft und nehme die Ergebniss so zur Orientierung.
j.
 
Ist in der Tat ein bisschen viel Unterschied. Normal sollten zwischen Fuji und den anderen "nur" ca. 2 Blendenstufen sein. Aber ich bin mir doch ziemlich sicher, dass eine 40D nicht annähernd an die Fuji rankommen können kann.
Eigentlich ist Dpreview ziemlich verlässlich, das Messverfahren habe ich aber jetzt auch nicht geprüft und nehme die Ergebniss so zur Orientierung.
j.


Wieder ich

Ich versteh das ganze jetzt bald nichtmehr. Es kommt doch garnicht so sehr darauf an, wie weit der Dynamikbereich ist, sondern, wie fein, die einzelnen Abstufungen in den Helligkeitswerten in einzelnen EV Zonen vom Sensor differenziert werden können. Das kommt schon nahe an die Idee heran, für jeden einzelnen Sensor die Iso gezielt so anzupassen, dass je anch Lichtmenge am feinsten abgestuft werden kann, das ist aber wieder was anderes, hab ich das jetzt falsch verstanden?

Gruss
Boris
 
Bei der Testmethode von dpreview steig ich nicht durch.
Na, da bist Du nicht alleine. Die Dynamik-"Messmethode" von Dpreview ist eigentlich eine Signal-Response-Funktion. Die *Dynamik* aka Signal-/Rauschverhältnis wird dabei nicht korrekt erfasst. Grund: das Rauschen wird nicht sauber quantifiziert. Die Anleitung lautet: "Shadow range is more complicated, in our test we stop measuring values below middle gray as soon as the luminance value drops below our defined 'black point' (about 2% luminance) or the signal-to-noise ratio drops below a predefined value (where shadow detail would be swamped by noise), whichever comes first."

Setzt der Hersteller seinen Schwarzpunkt (in JPEG!) anders so hat dies also eine direkte Auswirkung auf die angebliche Dynamik, was schlicht Unfug ist. Ebenso ist die Rauschfilterung korrekt zu berücksichtigen, da zu extensiv betrieben die Dynamik dann angeblich steigt (paradoxerweise vor allem auch bei sehr hohen ISO-Werten), obgleich klar sein muss, dass dies eine Fehlinterpretation des realen Rauschens ist.

Lies´ vielleicht die Beiträge von Frank Klemm nochmal genau und versuche, eventuelle Unklarheiten durch Selbststudium zu lösen. Was er schrub ist zu 100% korrekt. In JPEG ist keine vernünftige Analyse der Dynamik mehr vornehmbar. Ein RAW-File muss es schon sein, Signale und Rauschverhalten müssen analysiert werden und in Zusammenschau mit den von Frank bereits erwähnten modifizierenden Parametern bewertet werden. Dpreview zeigt in diesem Punkt mehr Schwächen als Hilfestellung.


Wer etwas ernsthafter als hier möglich über diesen Komplex lesen möchte, dem sein folgende Seite empfohlen:

http://www.clarkvision.com/imagedetail/index.html

ansonsten etwas basaler an der Sensortechnik:
http://www.andor.com/library/digital_cameras/?app=321
und:
http://www.andor.com/library/digital_cameras/?app=316
 
@Frank Klemm: Ich will ja auch nicht den Dynamikumfang des Sensors, sondern der Kamera messen.
Und, wie machst Du das, wenn nicht in RAW? Ist einmal eine nicht-lineare Operation über die Daten gebrezelt, wie die Farbraumtransformation in JPEG, so sind die im File liegenden Zahlenwerte nicht mehr quantitativ auswertbar. Sie hängen nun von allen Systemeinstellungen (Kontrast, Sättigung, Schärfe, ...) ab, wie auch vom "Geschmack" des Kameraherstellers. Will ein Hersteller eine "knackige Zeichnung", so wendet er eine steile Gradation mit entsprechend enger Dynamik an. Will der Hersteller eher weiche Tonwertabstufungen im Bild erzeugen, dann verläuft die Gradation flacher und nutzt einen größeren Teil der Sensordynamik aus. Was *ist* aber nun die "Kameradynamik"???
 
Ich versteh das ganze jetzt bald nichtmehr. Es kommt doch garnicht so sehr darauf an, wie weit der Dynamikbereich ist, sondern, wie fein, die einzelnen Abstufungen in den Helligkeitswerten in einzelnen EV Zonen vom Sensor differenziert werden können. Das kommt schon nahe an die Idee heran, für jeden einzelnen Sensor die Iso gezielt so anzupassen, dass je anch Lichtmenge am feinsten abgestuft werden kann, das ist aber wieder was anderes, hab ich das jetzt falsch verstanden?
Ich fürchte ja. Der Dynamik*bereich* soll beziffern, wie weit die Spanne ist zwischen
a) maximaler Belichtung, die gerade noch differenziert werden kann und
b) minimaler Belichtung, die gerade noch differenziert werden kann.

Punkt a) wird in der technischen Definition der Sensordynamik durch die full well capacity, also das Sättigungssignal des Pixels reflektiert, Punkt b) wird durch das Rauschen des Auslesevorganges bestimmt. Erst wenn ein Nutzsignal sich über das Ausleserauschen erhebt, so wird es als Nutzsignal erkannt werden können. Erreicht das Signal eine 2^x-fach höhere Intensität als diese Schwelle, so treibt es den Sensor in die Sättigung. Der Wert x beziffert nun den realen Dynamikumfang.
 
Es kommt doch garnicht so sehr darauf an, wie weit der Dynamikbereich ist,
Doch. Wo nichts mehr ist, kann auch 14 Bit nichts mehr rausholen, also wo z.B. ein Gesicht überbelichtet wurde und die Haut schneeweiss aussieht (im Histogramm am Anschlag ist), helfen auch keine 14 Bit. Aber die zusätzlichen R-Pixel der Fuji helfen, dabei noch Durchzeichnung zu erkennen, denn die kann tatsächlich mehr Dynamik erkennen und ins Bild bringen.
j.
 
naja, ich würde die schuld da nicht nur den kameraherstellern in die schuhe schieben. immerhin gibt es derzeit kaum ausgabemedien die einen größeren dynamikumfang darstellen könnten. im druck ist dieser gleich nochmals geringer als das was der sensor liefert - und die üblichen monitore arbeiten in der regel auch nur mit 6 oder 8 bit farbtiefe...

Aber man könnte die Dynamik durchaus in guten Ausbelichtungen/Abzügen sehen.

:)Sascha
 
Sorry, ich steh gerade auf'm Schlauch. :ugly:
Was begrenzt den Dynamikumfang der Kamera? Kann der Sensor nicht exakt differenzieren, wieviel Licht genau er während der Belichtung aufgenommen hat?
Muss doch so sein; andernfalls wäre es ja reine Sache der Umwandlung des Signals in ein Bild, oder?

Ich überlege gerade nur, warum es überstrahlte Stellen gibt. Stellt der Sensor fest, dass er zu viel Licht eingefangen hat und sowohl ein zu heller Pixel, als auch sein Nebenmann auf einem Bild rein weiß sein würden, könnte er doch die eingefangene Lichtmenge durch die Belichtungszeit teilen und würde so für diesen zu hellen Pixel irgendwann wieder auf aktzeptable Helligkeitswerte kommen, die eine Differenzierung zulassen.
Die Kamerasoftware müsste dann nur noch intern eine Art HDR erstellen können und es mittels Tonemapping als Bild ausgeben, das momentan alle mittels mehreren Belichtungen per Hand zu einem HDR zusammenfügen.

Hat vielleicht jemand mal einen schlauen Link, der mir das genau erklärt?
Muss da ja 'nen totalen Denkfehler drin haben :rolleyes:
 
Huch, ist das hier techniklastig ... ich poste mal einen crop aus der Praxis.
Vielleicht hilft das jemandem bei der Entscheidung. Vorher.pg ist aus der Kamera (unterbelichtet, weil der Himmel im oberen Bereich sehr hell war und sonst ausgebrochen wäre) und nachher.jpg, nach 1 Minute Photoshop-Bearbeitung. Im dunklen Bereich war nach Aufhellung kein signifikantes Rauschen erkennbar, im Originalzustand sind alle RGB-Kanäle durchgezeichnet und glatt:

Ein drittes - stark übertriebenes - Bearbeitungsbeispiel am Schluss (aber es hat so Spaß gemacht, aber auch nur eine Minute gedauert, wie vieles im Leben ;))

vorher.jpg


nachher.jpg


uebertrieben.jpg
 
Sorry, ich steh gerade auf'm Schlauch. :ugly:
Okay, das ist erlaubt. Kann ja jedem passieren, auch mir.

Da Du aber konkrete Fragen gestellt hast, bekommst Du auf diese konkreten Fragen auch konkrete Antworten. Die Antworten beziehen sich auf die heutigen akkumulierenden Sensoren.

Was begrenzt den Dynamikumfang der Kamera?
Nach oben:
  • bei niedrigen ISO-Empfindlichkeiten die maximal sammelbare Ladungsmenge pro Pixel.
  • bei hohen ISO-Empfindlichkeiten Übersteuerungen des Vorverstärkers oder AD-Wandlers.
Nach unten:
  • bei niedrigen ISO-Empfindlichkeiten die Ungenauigkeit des AD-Wandlers.
  • bei hohen ISO-Empfindlichkeiten das Rauschen des Sensors
Weitere Limitierungen ergeben sich aus der verwendeten Gradationskurve, die in Bereichen, in denen sie horizontal verläuft, Information vollständig vernichtet. Das Umrechnen des entstehenden 48 bit-RGB-Bildes nach 24 bit-TIFF oder JPEG ist dann der letzte Schritt der Dynamikvernichtung.

Kann der Sensor nicht exakt differenzieren, wieviel Licht genau er während der Belichtung aufgenommen hat?
Nach oben hin hat ein Sensor eine maximale Lichtmenge, die er messen kann. Alles was darüber liegt, verursacht im besten Fall keine Schäden an den Nachbarpixeln.
Nach unten hin wird das Signal durch Rauschen verdeckt. Nicht zuletzt rauscht Licht von selbst, es ist ein quantenmechanischer Prozeß. Nicht rauschen tun nur Bilder von PIXAR.

Ich überlege gerade nur, warum es überstrahlte Stellen gibt.
Nach oben hin gibt es Schwelle, aber der der Sensor nur noch "über Grenzwert" melden kann. Wenn alle drei Grundfarben gleichermaßen betroffen sind, endet das in Strukturlosigkeit, wenn nur einzelne Kanäle übersteuert sind, in unangenhemen Verfärbungen.

Die Kamerasoftware müsste dann nur noch intern eine Art HDR erstellen können und es mittels Tonemapping als Bild ausgeben, das momentan alle mittels mehreren Belichtungen per Hand zu einem HDR zusammenfügen.
HDR besteht aus zwei völlig unabhängigen Prozessen (die heutzutage zusammengemixt werden), Aufnehmen von Bildern höherer Dynamik mit heutigen Sensoren und Tonemapping. Ersteres ist nur für die derzeitig benutzten Sensoren erforderlich und wird derzeit mit mehreren Belichtungen erledigt, was aber nur bei statischen Motiven geht. Das Tonemapping würde ich aus der Kamera rausnehmen, da es zu viel Parameter beinhaltet, die im Postprocessing besser aufgehoben sind.
 
Für eine Verbesserung des Headroom bei ISO 50 bis ISO 200 müßte man die Full Well Capacity erhöhen. In dieser Richtung habe ich in den letzten 5 Jahren keine Erhöhung gesehen. Verbessert hat sich (wesentlich!) das Rauschen...

Wenn das so ist, und das glaube ich Dir gerne, dann muss es einen anderen Grund haben, warum die 1DIII nach meinen Erfahrungen Lichter besser bewältigt als die 5D.

Generell kann ich überbelichtete Bilder der 1DIII bis -3 Blenden nachträglich unterbelichten, bei der 5D entstehen da regelmäßig Farbverfälschungen oder Informationsverlust auf allen drei Kanälen.

Für eine Erklärung habe ich hier zwei Ansätze:

1. Die maximalen Helligkeitswert, die die 1DIII erfasst, sind größer

2. Der Auto-WB der 1DIII minimiert die Unterschiede der Helligkeitswerte in den einzelnen Kanälen im oberen Bereich.

Zu 1. habe ich mit dcraw.c nachgeschaut, welche maximalen Helligkeitswerte in den RAW-Dateien gespeichert sind, und zwar direkt nach der Dekomprimierung der RAW-Daten noch vor dem Clipping und WB.

Die 1DIII-Bilder zeigen durchgehend höhere Werte bis zu einem Maximum von 15280, das sind 93,26% des möglichen Wertes von 2^14.

Die 5D zeigt durchgehend niedrigere Werte, der Höchstwert war 3692, das sind 90,13% von 4096.

Mit Punkt 2 habe ich mich noch nicht näher befasst.
 
WERBUNG
Zurück
Oben Unten