• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamik DSLR

Es heisst ja Digitalkameras haben deutlich schlechteren Dynamikumfang als Analogkameras. Als "Umweg" gibts ja die HDR Bilder aus mehreren Aufnahmen.

zumindest beim Vergleich mit Diafilm ist die Aussage falsch ...
 
Zum Vergleich erstmal:

Analog Dia: 6 bis 8 Blenden
Analog Negativ: 12 bis 14 Blenden

DSLR (ausser Fuji) jpeg: 8 bis maximal 9 Blenden, eher 8.
DSLR (ausser Fuji) Raw mit einer Entwicklung: 9 bis 11 Blenden

DSLR (Fuji) JPEG: schon knapp 12 Blenden
DSLR (Fuji) RAW mit einer Entwicklung: Habe ich noch nicht genau getestet. Es geht aber noch mehr!

Ganz spannend wird es bei mehreren Entwicklungen aus einem RAW. Damit kann man noch einiges mehr raus holen, so hab ich schon mit 'ner "popeligen" Bridge 14 oder 15 Blenden geholt - allerdings mit starkem Rauschen in den aufgehellten Schatten, aufhellen ohne starkes Rauschen bruacht dann doch eine DSLR bei sehr tiefen ISO. Mit mehreren Entwicklungen aus einem RAW und getrenntem Entwickeln der S- und R-Pixel schätze ich die Fuji S5 auf 18 Blenden ein, hab's aber noch nicht genau getestet. Man braucht dann zudem eine HDR Software, um die mehrfach entwickelten Bilder wieder zusammenzurechnen. Auch mit einer "normalen" DSLR müssten dann 12 bis 15 Blenden gehn - je nachdem wieviel Rauschen in den Schatten noch akzeptiert wird.
 
Wie wäre es mit "Höhe des Kohlenhaufens im Vergleich zur Kohle, aus der man ihn aufgeschüttet hat"?
Kommt der Sache näher. Etwas weiter in Richtung Korrektheit abgewandelt wäre es:

"Höhe des maximal aufschüttbaren Kohlenhaufens im Vergleich zur Größe der Kohle, aus der man ihn aufgeschüttet hat."

Die technisch richtige Definition "maximale Pixelkapazität geteilt durch Ausleserauschen" kommt allerdings auch ganz ohne Bits und Bytes aus. ;)
 
Analog Dia: 6 bis 8 Blenden
Analog Negativ: 12 bis 14 Blenden
Dia eher 5-7 Blenden, Negativ 12-14 nur bei niedrigempfindlichen Emulsionen, typischerweise eher so um die 9-12 Blenden. In beiden Fällen keine ganz klare Definition der an den Dynamikgrenzen noch verbleibenden Restauflösung.

DSLR (ausser Fuji) Raw mit einer Entwicklung: 9 bis 11 Blenden
DSLR (Fuji) RAW mit einer Entwicklung: Habe ich noch nicht genau getestet. Es geht aber noch mehr!

Ganz spannend wird es bei mehreren Entwicklungen aus einem RAW. Damit kann man noch einiges mehr raus holen, so hab ich schon mit 'ner "popeligen" Bridge 14 oder 15 Blenden geholt - allerdings mit starkem Rauschen in den aufgehellten Schatten, aufhellen ohne starkes Rauschen bruacht dann doch eine DSLR bei sehr tiefen ISO. Mit mehreren Entwicklungen aus einem RAW und getrenntem Entwickeln der S- und R-Pixel schätze ich die Fuji S5 auf 18 Blenden ein, hab's aber noch nicht genau getestet. Man braucht dann zudem eine HDR Software, um die mehrfach entwickelten Bilder wieder zusammenzurechnen. Auch mit einer "normalen" DSLR müssten dann 12 bis 15 Blenden gehn - je nachdem wieviel Rauschen in den Schatten noch akzeptiert wird.
Sorry, aber das ist technisch quatsch. Alles (und ich meine alles!), was man in RAW findet, könnte auch durch eine einzige Entwicklung mobilisiert werden. Entscheidend dafür ist lediglich die Konfigurierbarkeit der Konvertierungssoftware und nicht die Zahl der Entwicklungsdurchläufe.

Wenn das linear skalierende RAW in einem 12-Bit-File liegt, dann kann man daraus keine 14 Blendenstufen "zaubern". Was man allerdings tun kann, und dies wird oft in der Diskussion hineinverwechselt: man kann das Signal in einem Datenpuffer größerer Bittiefe über mehrere Pixel mitteln (aka: Glätten, Filtern, Entrauschen) und dann die feineren Zwischenabstufungen als eine gesteigerte "Mehrpixeldynamik" verkaufen. Führt man dies ins Extrem weiter, so kann man das Signal des gesamten Sensors mitteln und kommt dann auf die Dynamik des Gesamtsensors. Ein Beispiel hierfür: der Sensor der Leica M8 ist mit einem "linear dynamic range" von 71,5 dB spezifiziert. Dies in Blendenstufen umgerechnet wären knapp 24 Blendenstufen! :eek: Die Einzelpixeldynamik des Sensors liegt hingegen bei 60.000 Elektronen / 15 Elektronen = 4000 entsprechend 12 Blendenstufen.

Man kommt aus diesen Verflechtungen nur dadurch heraus, dass man entweder strikt Einzelpixelsignale betrachtet, was aber schon durch das demosaic-Rechnen der Farbinterpolation schwer fällt, oder man muss bei der Dynamikbetrachtung die räumliche Ausdehnung von Rauschen, also die "Grob- bzw. Feinschlägigkeit des Rauschens) mit spezifizieren.
 
(...) Alles (und ich meine alles!), was man in RAW findet, könnte auch durch eine einzige Entwicklung mobilisiert werden (...)

immer diese theoretiker, machen einen das leben echt schwer ...

ahoi mi67 ... gibst du auch workshops für begriffstutzige? wie zb mich? deine erläuterungen klingen in meinen ohren von allen am sinnvollsten, aber auch am kompliziertesten, wohl weils so nah am technischen liegt. diese bekannten eselsbrücken waren mir bisher immer recht sympathisch :(

kennst du eigentlich diesen thread und kannst kurz was über dessen gehalt sagen? vll hast du dort auch mitgemacht, ich bin erst bei s2 angelangt. der user lgw hat da wohl so einiges an büchern gewälzt ... ich werds mir wohl häppchenweise gönnen.

erstma auf jeden fall nen danke für deine ausfühlichen antworten! gruss::andreas
 
kennst du eigentlich diesen thread und kannst kurz was über dessen gehalt sagen? vll hast du dort auch mitgemacht, ich bin erst bei s2 angelangt. der user lgw hat da wohl so einiges an büchern gewälzt ... ich werds mir wohl häppchenweise gönnen.
Bei dem Thread war ich - Dank Job, Umzug und letzten Vorbereitungen für einen Sporturlaub - nicht im Sommerloch und somit abwesend. ;)

Da in diesem Thread die Sache vielleicht etwas zu "allumfassend" behandelt werden sollte (Aspekte der Dynamik in Signal, Sensor, Speicherformat, Wiedergabekett, Ausgabemedium), kam man wohl nicht zu einer finalen Klärung, obwohl viele Posts dort ein sehr gutes Niveau hatten.

Geht man der Signalkette entlang, so wird sicherlich die Sensordynamik das allererste sein, was es zu betrachten gilt. Da mittlerweile der Zugriff auch Rohdaten des ausgelesenen Sensors nicht mehr in jedem Fall gegeben ist, kann die Sensordynamik leider nicht mehr bei allen Kameras durch eine simple Bildanalyse ermittelt werden. So lange dies noch ging, war die messtechnische Bezifferung der Sensordynamik ein leichtes. Man befreite ein Bild vom Fixed pattern und rechnete Maximalsignal / Rauschen. Wie man das Rauschsignal einer Kamera bewertet, die bereits in RAW gefiltert hat, darüber könnte man sich trefflich die Köpfe heissreden.

Gehen wir in den zweiten Schritt, indem wir die Bittiefen des primären Speicherformates mitbedenken, dann gibt es ebenfalls einen sehr simplen Zusammenhang: Speichern wir in hoher Farbtiefe, dann verschlechtert sich in diesem Speicherformat die Dynamik nur unwesentlich. Speichere ich in einem Datenformat geringer Bittiefe, so verliere ich entweder zuvor aufgelöste Helligkeitsstufen in den Schatten, Signale in den Lichtern oder die lineare Skalierung. Die Regel (in JPEG) ist Letzteres. Ob und wieviel an Schattenzeichnung dabei draufgeht, ob und wie stark erkennbar dann Tonwertabrisse in Mitteltönen oder gar in hellen Arealen erzeugt werden, hängt von dem Mapping der RAW-Daten in den Farbraum des JPEG-Files ab.

Meiner Erfahrung nach lohnen sich Gedanken um die Dynamik von Signal und Datenmaterial im Moment der Aufnahme, bei der Betrachtung der Qualitäten/Schwächen von Sensoren, bei der Wahl des primären Speicherformates und in der Datenbehandlung im RAW-Konverter. In dem Moment, in dem die gewünschte Gradation erzeugt wurde, käme allenfalls noch die Stufigkeit im danach genutzten Speicherformat als überlegenswerter Parameter. Überlegungen zur Dynamik haben sich aber zu diesem Zeitpunkt im Grunde bereits erledigt.
 
Zuletzt bearbeitet:
Das hier war mein schneller Test mit der S6500fd:

https://www.dslr-forum.de/showpost.php?p=4189612&postcount=110

Da hab ich (bei starkem Rauschen) 15 Blenden aus einem RAW gequetscht. Mit nur einer Entwicklung geht das definitiv nicht, ich muss für die extremen Bereiche jeweils auch die Belichtung verstellen.
Natürlich wird die Zeichnung grade in den ganz dunklen bereichen (Kalender) grob, u.a. durch das starke Rauschen, was ich glatt gebügelt habe. D.h. das Signal ist da nicht mehr wirklich gut.
Aber mit 'ner DSLR sehn Schatten in einem Bild, das mit +3 entwickelt wurde, viel, viel besser aus (sofern man sehr tiefe ISO genommen hat). D.h. mit dieser Methode müsste mit vielen DSLR 13 (sehr konservativ geschätzt) bis 15 Blenden machbar sein.
Das schafft gemäss dpreview aber praktisch keine DSLR mit einer einzelnen Entwicklung. Was wohl daran liegt, dass man den Kontrast in der Software eben nicht so extrem flach einstellen kann, dass man alles, was das RAW in Schatten und Lichtern hat, mit einem Mal raus bringt. Wäre auch Sinnlos, 15 Blenden mit eienr Entwicklung zu bekommen, so ein Bild wäre unbrauchbar flau. 15 Blenden linear auf 8 Blenden Monitor gequetscht sieht einfach nur mies aus. Wer ein motiv mit 15 Blenden hat, und das auf 8 Blenden darstellen will, muss

1. entweder Lichter und Schatten ganz flach machen, sodass nur ca. 6 bis 7 von den 15 Blenden wirklich deutliche Zeichnung haben. Dann erkennt man aber die Details in den Schatten und Lichtern nicht mehr, kann nur noch Zeichnung erahnen.
2. Oder aber mit Exposure Blending und anderen HDR Techniken Kontrast in Schatten- Lichter und Mitteltonbereiche des Bildes rein zaubern. Wobei ich nur manuelles Exposre Belnding mache, alles andere sieht zu künstlich aus. Diese Methode ist diejenige, welche die hohe Dynamik wirklich zeigt und nicht in extrem flacher Gradation in Lichtern und Schatten praktisch verschwindne lässt.

Wenn man die 15 Blendne mit einer Entwicklung aus dem RAW bekommen würde, wäre das der vernünftigste Workflow:

1. 16 Bit TIFF draus machen, mit allen 15 Blenden.
2. Das TIFF mehrmals speichern, einmal mit vielen Lichtern durch Tonwertkorrektur abgeschnitten, einmal mit viel Schatten abgeschnitten, einmal mit etwas Lichter und etwas Schatten abgeschnitten
3. Diese Bilder via HDR verrechnen

D.h. aus so einer Einzelentwicklung würe man vermutlich gleich wieder mehrere Bilder mit beschränkter Dynamik machen, um dann zu verrechnen...

Das ist im übrigen auch bei Negativflimen so, die man dazu misbraucht hat, z.B. bei Sonnenaufgang Himmel und schattige Landschaft ohne Verlaufsfilter auf den Film zu bannen. Mit einem einzigen Scan kann man das auch alles auslesen, die Maximaldichte von negativfilmen ist ja klein.
Der Film (oder Scan) hat dann in beiden Bereichen schöne Zeichnung, aber es braucht EBV Verlaufsfilter (oder noch besser eben Exposure Blending) um aus so einem Scan ein wirklich gutes Bild zu zaubern.
 
Das hier war mein schneller Test mit der S6500fd:
..

Wenn man die 15 Blendne mit einer Entwicklung aus dem RAW bekommen würde, wäre das der vernünftigste Workflow:

1. 16 Bit TIFF draus machen, mit allen 15 Blenden.
2. Das TIFF mehrmals speichern, einmal mit vielen Lichtern durch Tonwertkorrektur abgeschnitten, einmal mit viel Schatten abgeschnitten, einmal mit etwas Lichter und etwas Schatten abgeschnitten
3. Diese Bilder via HDR verrechnen

D.h. aus so einer Einzelentwicklung würe man vermutlich gleich wieder mehrere Bilder mit beschränkter Dynamik machen, um dann zu verrechnen...
Die Verrechnung von Teilbildern eines gemeinsamen RAW-Ursprunges macht doch auch nichts anderes als es eine entsprechend wilde Gradation direkt getan hätte. Alles andere wäre Tonemapping. Die Restsignale, die man (insbesondere bei verkleinerter Ansicht) bei weiterer Dynamikkompression noch vom Sensor gekratzt bekommt, entsprechen der bereits erwähnten "Mehrpixeldynamik".

Die recht großen Reserven von DSLRs in der Schattenzeichnung sind ja kein Geheimnis mehr. Wenn man dann noch vergleichend mitbetrachtet, dass Dynamik bei Film ja aus Dithering von Einzelkörnern erzeugt wird, dann wird klar, dass Äpfel und Birnen verglichen werden, wenn man schnell mal dahinsagt, Negativfilm würde 12-14 Blendenstufen an Dynamik liefern, digitale Fotografie aber "nur 10-12 Blendenstufen". Erlaubt man in einer DSLR durch Bildung einer "Mehrpixeldynamik" auch, den Effekt des Ditherings mit in die Dynamikbetrachtung einzubeziehen, dann mag die Dynamik irgendwo zwischen jener des Einzelpixels (z.B. 11 Blenden) und jener des Gesamtsensors (z.B. 24 Blendenstufen) liegen.
 
Hallo

Die Fa. DXO-Optics hat ihre Messungen der Sensoren vieler Kameras online gestellt: http://www.dxomark.com/

Ich finde es auf jeden Fall interessant. Falls der Link schon bekannt ist und hundertmal durchdiskutiert wurde.... Sorry.

Wurde schon viel drüber geredet. Der Test zeigt leider nur, wieviel deren RAW Software rausholen kann. Grade bei den Fujis ist das teilweise weniger, als die mit JPEG können.
Ich würde diesen Test also eher als Test dafür sehn, wie gut die DxO RAW Software für eine spezielle Kamera geeignet ist.

Eigentlich müsste man für einen Dynamikvergleich jeder DSLR den RAW Konverter ihrer Wahl zugestehn.
 
Wurde schon viel drüber geredet. Der Test zeigt leider nur, wieviel deren RAW Software rausholen kann. Grade bei den Fujis ist das teilweise weniger, als die mit JPEG können.
Ich würde diesen Test also eher als Test dafür sehn, wie gut die DxO RAW Software für eine spezielle Kamera geeignet ist.

Eigentlich müsste man für einen Dynamikvergleich jeder DSLR den RAW Konverter ihrer Wahl zugestehn.
Ganz so einfach abbügeln lässt sich die DxO-Analyse IMO nicht. Im DxO-Test geht es nicht primär darum, was DxO aus den RAWs ziehen kann, sondern darum, was in den RAWs drinsteckt. Die Hersteller von Entwicklungs-Software müssen, bevor sie ihren RAW-Konverter auf die Kameramodelle zuschneidern, erst mal analysieren, was die Kameras denn an Datenmaterial anliefern. Diese Analyse (und nicht deren Weiterverarbeitung) hat DxO quasi als Nebenprodukt ihrer Konverterkonfigurierung durchgeführt und in eine "Testform" gegossen.

Es gibt in DxOmark zweifelsohne Knackpunkte, die diskussionswürdig sind. Aus Mangel an harten Zahlen zur Hersteller-übergreifenden Sensorcharakterisierung dürfte DxOmark in seinen Einzeldisziplinen dennoch eine der Ressourcen sein, die zur Dynamik-Abschätzung herangezogen werden kann - auch wenn der Test z.B. durch rauschgefilterte RAWs aufs Kreuz gelegt werden könnte.
 
Es gibt in DxOmark zweifelsohne Knackpunkte, die diskussionswürdig sind. Aus Mangel an harten Zahlen zur Hersteller-übergreifenden Sensorcharakterisierung dürfte DxOmark in seinen Einzeldisziplinen dennoch eine der Ressourcen sein, die zur Dynamik-Abschätzung herangezogen werden kann - auch wenn der Test z.B. durch rauschgefilterte RAWs aufs Kreuz gelegt werden könnte.
Hallo

Das entspricht auch meiner Meinung. Fragwürdig finde ich lediglich die Zusammenfassung aller Werte im DXO-Mark. Das Beeinflussungen durch vorab korrigierte RAW-Dateien möglich sind, beweist ja DXO-Optic selbst, in dem darauf hingewiesen wird, das einige Korrekturen in ihrem Programm erstmalig bereits auf RAW-Ebene durchgeführt werden.

Gibt es eigentlich Programme wo man sich die RAW-Dateien ansehen kann wie sie wirklich sind? Die also ein Abbild des realen Sensors zeigen? Die üblichen RAW-Konverterprogramme zeigen ja nur ein Bild der schon bearbeiteten RAW-Dateien. (TIFF?)
 
Fragwürdig finde ich lediglich die Zusammenfassung aller Werte im DXO-Mark.

Das ist eigentlich immer das Problem sobald man verschiedene Aspekte in einem Wert zusammenfassen will.
Die detaillierten Werte finde ich nützlich, der DXO-Mark bringt mir nichts/wenig. Ich sehe da einfach eine andere Gewichtung, außerdem fehlen auch einige Aspekte. Hat ein Sensor z.B. einen sehr schwachen AA-Filter werde ich weniger Scharfzeichnen und kann von daher höheres Sensor-Rauschen vertragen.

Zum ursprünglichen Thema:
Ich hab mal nachgerechnet (40D, ISO400 und sRGB bei 8 Bit). Gegenüber den 14 Bit des Sensors erhöht sich das Rauschen um maximal 43% (20% in dunklen Bereichen). Die Abstufungen in der 8Bit-Kodierung sind im Dunklen um einiges feiner als das Sensorrauschen, im Hellen ungefähr gleich.

Wenn ich am Bildschirm zwischen 8 und 16-Bit umschalte fällt mir kein Unterschied auf. Erst im Differenzbild - mit heftiger Nachbelichtung um 10 Blenden - werden an ein paar dunklen Stellen Farbunterschiede sichtbar. Ansonsten ists ein schön gleichmäßiges Rauschen.

Fazit: ein wenig geht verloren, sichtbar ists nicht.
 

Zumindest das Demosaicing ist doch eine unumgängliche Interpretation der RAW-Daten, die je nach Algorithmus und Sensor (z.b. Fujis Super CCD) unterschiedliche Ergebnisse liefern kann.

Hier ein Zitat zum Thema (im Zusammenhang mit DXO):

"Das Demosaicing ist der wichtigste Schritt der RAW-Umwandlung, bei dem das Sensormuster der Kamera in ein für das menschliche Auge erkennbares Bild umgewandelt wird. Das Demosaicing ist immer ein Kompromiss zwischen Bildschärfe, Details, Rauschen, Verarbeitungszeit und Umwandlungsartefakten. Die Demosaicing-Qualität entscheidet über die Detailzeichnung und die Artefakte im endgültigen Bild. Diese störenden Artefakte, die bei hohen ISO-Einstellungen besonders stark hervortreten, sind zu einem großen Teil für den "unnatürlichen" Bildeindruck verantwortlich, der Digitalfotos oft vorgeworfen wird.

"Der Demosaicing-Ansatz von DxO Labs stellt klassische Lösungen auf den Kopf: Statt nur die direkten Nachbarn eines Pixels zu berücksichtigen, verwendet die neue RAW-Engine von DxO einen 'nichtlokalen' Ansatz, der auch das weitere Umfeld der Pixel berücksichtigt, um Details zu rekonstruieren. Dadurch werden Demosaicing-Artefakte erheblich reduziert", erklärt Frédéric Guichard, wissenschaftlicher Leiter von DxO Labs."

Quelle: http://www.swpp.co.uk/professional_imagemaker/dxo-pro-v5-german.htm
 
Zuletzt bearbeitet:
Zumindest das Demosaicing ist doch eine unumgängliche Interpretation der RAW-Daten, die je nach Algorithmus und Sensor (z.b. Fujis Super CCD) unterschiedliche Ergebnisse liefern kann.
Danach sind die Daten nicht mehr "RAW". Gefragt war nach einer Möglichkeit, die am Sensor aufgenommenen Intensitätsinformationen direkt und ihne Wandlung in TIFF sichtbar zu machen. Klar ergibt das kein nett anzusehendes Bild, sondern eher so etwas wie ein Schachbrettmuster, bzw. Teilauszüge der R - G - G - B Felder, aber man kann immerhin so direkt als möglich visualisieren, was tatsächlich am Sensor gemessen wurde.
 
Danach sind die Daten nicht mehr "RAW". Gefragt war nach einer Möglichkeit, die am Sensor aufgenommenen Intensitätsinformationen direkt und ihne Wandlung in TIFF sichtbar zu machen. Klar ergibt das kein nett anzusehendes Bild, sondern eher so etwas wie ein Schachbrettmuster, bzw. Teilauszüge der R - G - G - B Felder, aber man kann immerhin so direkt als möglich visualisieren, was tatsächlich am Sensor gemessen wurde.

Wenn man es so versteht, in der Tat!
 
WERBUNG
Zurück
Oben Unten