• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

frechBengel

Themenersteller
Hallo miteinander!

Der Begriff "Dynamikumfang" hat bereits in vielen Threads zu Diskussionen und Verwirrungen geführt. Auch ich habe mich zu Fehlinterpreationen hinreissen lassen, indem ich mein Halbwissen logisch sortierte und das, was dann für mich logisch klang, als die Wahrheit ausgegeben. Inzwischen weiß ich, daß mein Verständnis dieses Begriffs - und wohl auch einiger damit zusammenhängender Begriffe - nicht richtig ist. Ich starte diesen Thread, um mit gezielten Fragen Stück für Stück Klarheit in die Sache zu bringen.

Vorab möchte ich alle Diskussionsteilnehmer darum bitten, einige Regeln einzuhalten; die ich mir besonders für dieses Vorhaben überlegt habe. Denn nur unter deren allgemeiner Beachtung kann es in einem Forum zum Erfolg führen, ein verwirrtes Thema zu entwirren.

1. Bevor man postet, sollte man sich die Zeit nehmen, den gesamten Thread zu lesen. Postings, die auf die schnelle gemacht sind, führen - wie schon unendlich oft gesehen - zu Verwirrungen und Wiederholungen.

2. Postet nur, wenn ihr etwas direkt zur Sache zu sagen oder zu fragen habt. Bitte verzichtet auf "es müßte doch eigentlich so sein, daß"-Spekulationen. "Ich muß jetzt doch mal kurz Off Topic", zählt auch nicht. "Jetzt ist es mir klar" werden hoffentlich viele schreiben können. Ich hoffe aber auch, daß sie es nicht alle mitteilen, so daß die Postings so gehalten werden, daß Punkt 1 zu befolgen keine Unmöglichkeit wird.

3. Wer etwas erklärt, sollte genau wissen wovon er spricht. Das heißt, daß er sich nicht nur sicher ist, daß er bestimmt Recht hat, sondern daß er sein Wissen über das Thema nicht aus Foren oder Wikipedia; schon gar nicht aus logischer Verknüpfung von Halbwissen bezogen hat. Quelle des Wissen sollte eine entsprechende Ausbildung im Fach sein. Insbesondere der Wikipedia-Artikel hat offenbar große Lücken und verleitet zu Fehlinterpretationen.

4. Seid - wie es sich gehört - höflich und konstruktiv an der Sache. Ignoriert Postings, bei denen ihr versucht seid, sie als "off Topic" zu kommentieren oder darauf hinzuweisen, vorm Posten, erst den Thread zu lesen.

So viel zur Einleitung.

Ich wünsche nun allen viel Spaß und diesem Thread viel Erfolg.

frechBengel
 
Zur Sache:

Wie ist der Begriff Dynamikumfang definiert und in welchem Verhältnis steht er zu dem Begriff der photographischen Blende?
 

Leider stehen da Dinge drin, die fuer die DSLR-Fotografie so nicht richtig oder zumindest irrefuehrend sind:

Dynamikumfang - Wikipedia schrieb:
Für digital vorliegende Bilder bezeichnet der Dynamikbereich den Quotienten aus größtem und kleinstem von 0 verschiedenem Helligkeitswert eines digitalen Bildes. In der Regel spricht man hier allerdings ebenfalls wie in der Fotografie von Kontrast und gibt diesen in Blenden an. Dadurch, dass in der Fotografie „eine Blende“ einer Verdopplung der Lichtmenge entspricht, und bei der Quantisierung ein Bit einer Verdopplung der Lichtmenge entspricht, kann aus der Bittiefe direkt die darstellbaren Blenden abgelesen werden.

Einerseits gibt es Bildformate, fuer die ein Bit nicht einer Verdoppelung der Lichtmenge entspricht.

Zweitens interessiert meist nicht der Kontrast im Ausgabemedium, sondern der Kontrast des Motivs, den die Kamera bewaeltigen muss. Das sind zwei verschiedene Dinge, da durch Kurven (in der Kamera oder bei der RAW-Umwandlung) die Helligkeitsbereiche verschoben werden koennen. So kann z.B. JPEG tatsaechlich nur 8 Blenden Dynamic Range darstellen, jedoch kann man mit Kameras mehr als 8 Blenden Dynamic Range erreichen, selbst im JPEG-Format: Bei der D300 sind es beispielsweise bis zu 9.2 EV.

Und drittens sind besonders bei Kameras Bittiefe und Dynamic Range nicht gleichzusetzen (dies wird immer wieder falsch gemacht). Wie schon im ersten Kommentar bemerkt, muss es nicht so sein, dass ein Bit der Verdoppelung der Lichtmenge entspricht (soweit ich weiss, ist das bei Kameras allerdings recht haeufig so :)confused:)). Wichtiger ist aber, dass auch 14-Bit-RAWs keine 14 Blenden Dynamikumfang haben, weil in den least significant bits (den letzten paar) keine sinnvolle Information, sondern oft nur noch Rauschen drinsteckt. Insofern ist (bei linearer Speicherung) die Bittiefe hoechstens eine obere Grenze fuer den Dynamikumfang, aber keine Garantie dafuer, dass der Dynamikumfang auch wirklich diese Werte erreicht. Meines Wissens gibt es momentan auch keine DSLR, die mehr als 11 EV Dynamikumfang erreichen wuerde (Fujis ausgenommen). Und auch dann: Mit nichtlinearer Speicherung kann man auch in 12 Bit 22 EV Dynamikumfang darstellen. Daher hier auch noch mal der wichtige Hinweis (da das immer wieder falsch interpretiert wird): Die Bittiefe hat nichts mit dem Dynamikumfang zu tun.
 
Der Wikipedia-Artikel ist in der Tat völlig irreführend und quasi "so falsch".

Er vermittelt den Eindruck, dass nur aus der Bittiefe (bspw. 8-Bit-JPEG) automatisch ein LDRI mit max. "8 Blenden Umfang" entsteht.

Das ist aber falsch. In einem Nebensatz wird auch erwähnt, dass die Zahl der je Quantisierung verwendeten Bits ausschlaggebend ist, und DAS ist im Prinzip auch der entscheidende Punkt.

Insbesondere ist aber auch entscheidend, das diese Quantisierung überhaupt nicht - wie in der Rechnung im Artikel angegeben - LINEAR erfolgt (und nur DANN kann man die dB und damit Blenden so berechnen), sondern im Gegenteil ja in der Kamera und auch im RAW-Konverter nach einem vergleichsweise komplexen Profil, schlimmstenfalls noch mit einer Tonwertkurve, Kontrastverstärkung je nach Einstellung der Kamera/Konverter - und natürlich vorher auch schon mit einer völlig unbekannten Verstärkerkurve im Sensor bzw. AD-Wandler der Kamera.

Richtig ist, dass ein 8-Bit-Bild bei LINEARER Quantisierung in genau DIESER Abstufung (die allerdings nicht mal der sRGB-Farbraum mit Gamma 2,2 vorliegt, selbst da schon falsch!) eben diese maximale Dynamik zwischen "schwarz" und "weiss" zulässt. Aber eben auch nur dann.

Mit dem, was in der Kamera passiert, und wieviel "fotografische Blenden" in einem JPEG wirklich *ankommen*, hat das alles schlicht überhaupt garnichts zu tun. Das steht da aber leider nicht - da steht nur "fotografische Blenden".

Leider habe ich nicht genug Zeit, mich hinreichend in die Materie einzuarbeiten, um einen fachlich absolut vertretbaren Absatz für Wikipedia zu schreiben, aber so wie's jetzt ist geht's garnicht (vgl. auch die Diskussion zum Wikipedia-Artikel!!)
 
Wozu dieser Thread da ist, und warum Wikipedia hier nicht als Quelle dienen soll hatte ich bereits in der Einleitung formuliert. Mit Hilfe von Char und LGW hat diese ohnehin vorausgesetzte Forderung noch ihre Begründung erhalten. Ich hoffe die "Was ist der Sinn dieses Threads"-Diskussion mit Einleitung-Nicht-Lesern wird uns in Zukunft erspart bleiben und nicht alle paar Postings wiederkehren.

Ich würde gern in kleinen Schritten vorangehen und wiederhole daher meine erste Frage zur Sache:

Wie ist der Begriff Dynamikumfang definiert und in welchem Verhältnis steht er zu dem Begriff der photographischen Blende?
 
In der Musik versteht man unter Dynamik das Verhältnis von größter zu kleinster Lautstärke. Übertragen auf die Optik:
Dynamik ist das Verhältnis von größter darstellbarer Helligkeit zur kleinsten.
Bei einem 12-Bit Wandler liegt das größte Signal unter 2^12 RAW-Einheiten, das kleinste über der sich aus Dunkelstrom+Rauschen+falscher Justierung des Signalverstärkers ergebenden unteren RAW-Einheiten-Grenze, z.B. bei 2^3 +1 RAW-Einheiten.
(2^12 - 1) / (2^3 + 1) = 455.
Da jede Blendenstufe einer Verdopplung der Helligkeit entspricht, ist die Dynamik in meinem Beispiel 8,8 Blendenstufe, denn
455 = 2^8,8
Dabei gehe ich davon aus, dass die Signalverstärkung linear ist und die RAW-Werte nicht manipuliert werden.
 
Zuletzt bearbeitet:
@ Stüssi

Deinem Beitrag entnehme ich, daß Du von der Bittiefe direkt auf die Dynamik des Sensors schließt. Da wird LGW, wenn ich es richtig verstanden habe, sicher etwas dazu zu sagen haben.

Der Begriff "RAW-Einheit" ist mir völlig neu. Ich lese ihn zum ersten mal. Was ist damit gemeint? RAW-Einheiten sind die Anzahl der mit 12 Bit darstellbaren unterschiedlichen Werte, nämlich 2^12?

zur Sache:

Das Verhältnis von größtem zum kleinsten geht sicher in die richtige Richtung. Zwingend ist hier aber noch, daß im Nenner niemals eine Null stehen darf. Es muß als das Verhältnis vom größten zum kleinsten und von Null verschiedenen Wert sein.
 
Dabei gehe ich davon aus, dass die Signalverstärkung linear ist und die RAW-Werte nicht manipuliert werden.

Und genau hier liegt glaube ich ein Fehler. Ein kleiner Disclaimer allerdings voraus: Ich arbeite mit ultraschnellen Kameras (Belichtungszeiten bis in zu 200 Picosekunden) und habe leider nur über diese Typen genaue Informationen.

Bei Digitalkameras finden ja sowohl CCD als auch CMOS Sensoren Anwendung. Vergleicht man diese bei gleicher Sensorauflösung und -größe, so haben CCD Sensoren eigentlich immer die größere aktive Fläche. Dies beeinflusst den Dynamikumfang spürbar, da 1) größere Fläche = mehr Photonen bei gegebener einfallender Lichtmenge --> besseres Signal/Rauschverhältnis 2) größere Fläche = mehr "Platz" für Ladungen --> spätere Sättigung. Bei gleicher Signalverarbeitung sind CCD-Sensoren ihren CMOS-Kollegen also in Sachen Dynamik ein Stück voraus. Nun haben letztere allerdings einen Trumpf im Ärmel - anders als bei CCD Sensoren können sie nicht nur linear betrieben werden (wohlgemerkt VOR der Wandlung!), sondern auch im log, oder lin/log Modus. Üblich ist vor allem letzterer, dieser Verhält sich bei geringen Intensitäten wie ein CCD, bei hohen Intensitäten tritt eine zunehmende Dämpfung auf. Damit wird nicht nur der Nachteil gegenüber CCD aufgeholt, sondern sogar ein größere Dynamik erzielt.

Wichtig hierbei: Der Versuch aus der Bittiefe auf die maximale Helligkeit zu schließen MUSS scheitern! Der Wandler gibt lediglich einen Hinweis darauf wie der Dynamikumfang im RAW-File aussehen wird. Welcher reale Dynamikumfang in diesen Adressraum gequetscht wird bleibt unbekannt.

Ich kann nur spekulieren, dass die CMOS-Sensoren z.B. in Canon-DSLR's im lin/log Betrieb arbeiten...alles andere würde mich aber sehr wundern, da CMOS-Chips sonst nur etwa 5 Blendenstufen abdecken können.

Es muß als das Verhältnis vom größten zum kleinsten und von Null verschiedenen Wert sein.
Nein, das wäre ja dann ne 1...Stüssi hat's schon richtig geschrieben - im Nenner steht das, was als minimal realisierbarer Wert halt rauskommt (Darkframe + weiteres Rauschen)
 
Zuletzt bearbeitet:
LGW beschafft sich erstmal Fachliteratur aus der Uni-Bibo (muss mich reinschmuggeln weil längst diplomiert, aber das wird schon :devilish: ) und liest sich klug. Sobald das geschehen ist, mischt er sich auch wieder ein... dann mit Quellenangabe, um dem Wirrwarr wirksam ein Ende zu bereiten.
 
In der Musik versteht man unter Dynamik das Verhältnis von größter zu kleinster Lautstärke. Übertragen auf die Optik:
Dynamik ist das Verhältnis von größter darstellbarer Helligkeit zur kleinsten.
Bei einem 12-Bit Wandler liegt das größte Signal unter 2^12 RAW-Einheiten, das kleinste über der sich aus Dunkelstrom+Rauschen+falscher Justierung des Signalverstärkers ergebenden unteren RAW-Einheiten-Grenze, z.B. bei 2^3 +1 RAW-Einheiten.
(2^12 - 1) / (2^3 + 1) = 455.
Da jede Blendenstufe einer Verdopplung der Helligkeit entspricht, ist die Dynamik in meinem Beispiel 8,8 Blendenstufe, denn
455 = 2^8,8
Dabei gehe ich davon aus, dass die Signalverstärkung linear ist und die RAW-Werte nicht manipuliert werden.


und der nächste, der Eingangs- und Ausgabekontrast nicht unterscheidet ...


Das Ganze beginnt schon bei der Optik, wieviel Streulicht hat die miteingefangen, wie "milchig" ist sie, welchen Kontrast kann sie übertragen...

Eine Optik die relativ flau ist, sorgt zB dafür, dass in unser Bild mehr Tonwertunterschiede eingehen können als bei einer hochkontrastigen Optik.

Dann kommt die Frage, wie denn der Sensor die Helligkeitsunterschiede speichert, wenn das Zeug dann endlich mal auf dem Sensor angekommen ist und abgespeichert wird, dann interessiert noch, welche Gradationskurve legt die jpg Engine an und wie knackig soll das Bild aussehen.

Viele, die gerne ein superkontrastreiches Bild haben wollen, wollen gleichzeitig viel Dynamik im Bild haben (wobei der Begriff Dynamik leider in mehreren Bedeutungen in unserer Sprache existiert ...) das wird schwierig :)


Der einfachste Trick in ein jpg viele Tonwerte zu packen ist, den Kontrast auf Low zu setzen, das reicht meistens schon vollkommen aus um ein Bild machen zu können, das angeblich unmöglich ist weil zuviel Kontrast ;)

Die Messungen erfolgen im Allgemeinen im jpg ... im RAW steckt sehr oft mehr drin, sehr oft ist auch der RAW Bearbeiter das begrenzende Element, das entscheidet ob etwas noch ins Bild kommt oder nicht.
Selbst wenn die Tonwerte alle in der Datei vorhanden sind, muss man sie erstmal per Gradationskurve auf den richtigen Helligkeitswert anheben oder absenken, das ist meiner Ansicht nach die grösste Hürde.
 
Zuletzt bearbeitet:
Wichtig hierbei: Der Versuch aus der Bittiefe auf die maximale Helligkeit zu schließen MUSS scheitern! Der Wandler gibt lediglich einen Hinweis darauf wie der Dynamikumfang im RAW-File aussehen wird. Welcher reale Dynamikumfang in diesen Adressraum gequetscht wird bleibt unbekannt.

Da stimme ich voll zu. Die Bittiefe spezifiziert allein die Ausgangsdynamik des A/D-Wandlers. Die Eingangsdynamik hat damit gar nichts zu tun und darf auch keinstenfalls in Bit angegeben werden, sondern in dB!
 
Und nochmal ich ;)

Für alle jene, die die Englische Sprache nicht abschreckt hier mal ein Artikel von Leuten, die wirklich wissen wovon sie reden: Hamamatsu Photonics ist Hersteller von allen möglichen Detektoren und Kameras - die Informationen, die ich vorhin versuchte zu vermitteln hatte ich von einem Vortrag eines Vetreters eben dieser Firma. Sie bieten ne Menge Artikel zu Sensoren und ähnlichem unter anderem auch einen zum Thema Dynamikumfang:

Klick
 
Die Crux ist glaube ich vor allem, das die "Dynamic Range" - der Dynamikumfang im Sinne eines "Rauschabstands" bzw. einer Signalqualität bzw. Signalbandbreite durcheinandergewürfelt wird mit einem Helligkeitsunterschied in der Natur, und zwar an der Stelle, wo "ein Bit einer fotografischen Blende" gleichgesetzt wird. Dann wird das Zonensystem reingeworfen, festgestellt "zwischen schwarz und weiss sind 9 Blenden, weil das ist da 2^9 mal so hell", und zack sagt einer, das geht nur mit mindestens 9 Bit, ist doch logisch, weil pro Bit eine Blende gleich doppelt so hell.

Dass das natürlich Käse ist, weil der Sensor resp. A/D-Wandler aus dem analogen Helligkeitsunterschied erstmal überhaupt ein digitales Signal machen muss, und eben genau an der Stelle durch die Quantisierung festgelegt wird, wie groß überhaupt die "Bandbreite in Blenden" ist, ist natürlich auch nicht ganz einfach zu verstehen, glaube ich - die Begriffe werden dafür viel zu holprig verwendet.

Dazu ist ja bspw. ein 80% "Grau" je nach Belichtung auch irgendwas zwischen 0% und 100% weiss. Das funktioniert so alles überhaupt nicht.

Ich muss da aber wirklich erst mal die Fachbegriffe aus der Vorlesung wieder gerade rücken, bevor ich mich völlig um Kopf und Kragen spekuliere.

Die Problematik wird sehr schön deutlich in der Gegenüberstellung der Bit-Tiefen in der zweiten Grafik hinter dem Link von chemischenk; Bit Depth and Gray Levels. Hier sieht man ganz eindeutig, dass es auch schon bei 2 Bit absolut ein "weiss" und ein "schwarz" gibt. Je nach Bildinhalt könnte das weiss die Sonne sein, und das schwarz ein dunkler Hund. Eine unterschiedliche *Helligkeit* von Objekten im Bild lässt sich - das sollte hier GANZ DEUTLICH klar werden - überhaupt nicht an der Bittiefe festmachen (im Grunde zeigt das Bild das Treppenbeispiel, die Treppe im Grunde flach von vorne fotografiert - 2 Bit sind höhere Stufen als 8 Bit, aber die Gesamthöhe der Treppe ist gleich).

Über den maximal möglichen Hell/Dunkelunterschied z.B. zwischen dunklem Boden und hellem Himmel in einem Foto sagt das Maß der "Dynamic Range" aber eben auch gar nichts aus!

Sonst könnte die Fuji ja in einem 8-Bit-JPEG auch gar nicht ihre 11 Blenden "unterbringen". Das gelingt letztlich, weil der obere und untere Teil der Tonwertkurve "gestaucht" werden. Nikon macht das gleiche beim Active-D-Lighting, übrigens, nur mit anderer "Datenquelle".
 
Zuletzt bearbeitet:
Nu muss ich doch nochmal:

Über den maximal möglichen Hell/Dunkelunterschied z.B. zwischen dunklem Boden und hellem Himmel in einem Foto sagt das Maß der "Dynamic Range" aber eben auch gar nichts aus!
Falsch! Die Dynamic Range sagt genau das aus - hat aber wie du ansonsten richtig ausführst nichts mit der Bittiefe zu tun.

Weil da die Zahlen so schön weit auseinander liegen nehm ich mal ein Beispiel aus meinem Arbeitsalltag:

Der A/D-Wandler meines Kamerasystems hat ne Bittiefe von 14 Bit. Das heißt das Ding spuckt am Ende Werte von 0 bis 16383 aus. Sagt uns das was über die Dynamik - nein! Ein angenehmer Punkt meiner Kamera ist die strenge Linearität zwischen Eingangs und Ausgangssignal (das nur um Mißverstännisse im folgenden zu vermeiden). Ich bekomme Rohdaten bei denen eine "10" x Ladungen und eine "50" 5x Ladungen auf dem Sensor entspricht. Um nun zur Dynamik zu kommen werfen wir nen Blick auf zwei verschiedene Messungen:

1) starkes Signal: Der Verstärkungsfaktor wird weit heruntergeregelt, so dass die hellsten Bereiche ungefähr bei 16000 liegen. Bei diesen Einstellungen wird nun das Objektiv abgedeckt und ein Bild aufgenommen - ich erhalte ein Rauschen mit einer mittleren Intensität von etwa 100. Der kleinste "glaubhafte" Wert bei der folgenden Belichtung ist also 100 und damit haben wir einen Dynamikbereich von etwas über 7 Blenden.

2) schwaches Signal: Die Verstärkung wird hochgedreht, so dass die hellsten Bereiche wieder bei ca 16000 liegen. Das "Dunkelbild" hat aber jetzt ein deutlich stärkeres Rauschen - sagen wir 1000 im Mittel. Nun ist der Dynamikumfang auf 4 Blenden geschrumpft.

Der in diesem Fall angenommene (und gegebene!) Fall einer linearen Ausgabe ist bei normalen Digicams nicht mal ansatzweise gegeben, also bitte das Beispiel nicht einfach übertragen!

Um es noch mal kurz zu fassen:

Dynamikumfang = Lichtmenge, die den Sensor gerade noch nicht sättigt / Lichtmenge, die gerade noch ein vom Rauschen unterscheidbares Signal hervorruft.

Bemerkt? Die die beiden eklatant unterschiedlichen Dynamikumfänge im obigen Beispiel werden jeweils mit 14 Bit codiert ;)
 
@ Stüssi

Deinem Beitrag entnehme ich, daß Du von der Bittiefe direkt auf die Dynamik des Sensors schließt. Da wird LGW, wenn ich es richtig verstanden habe, sicher etwas dazu zu sagen haben.

Der Begriff "RAW-Einheit" ist mir völlig neu. Ich lese ihn zum ersten mal. Was ist damit gemeint? RAW-Einheiten sind die Anzahl der mit 12 Bit darstellbaren unterschiedlichen Werte, nämlich 2^12?

zur Sache:

Das Verhältnis von größtem zum kleinsten geht sicher in die richtige Richtung. Zwingend ist hier aber noch, daß im Nenner niemals eine Null stehen darf. Es muß als das Verhältnis vom größten zum kleinsten und von Null verschiedenen Wert sein.

Die einzigen greifbaren Werte sind die in RAW-, TIFF oder JPEG-Files gespeicherten Werte,denn die Hersteller geben keine Angaben zu Linearität...
Die in TIFF- oder JPEG-Files gespeicherten Werte sind, wie ich es oben ausdrückte, manipuliert. Deshalb habe ich mich mal mit den Daten in RAW-Files beschäftigt. Als Kamera stand mir zu Verfügung eine Dynax 7D mit CCD-Sensor. Durch Probieren habe ich die Art der Speicherung der Daten herausbekommen, kann aus einem RAW-File gezielt die 12-Bit Werte für jedes Pixel lesen oder in das File schreiben. Diese Werte nenne ich RAW-Werte.
Im nächsten Schritt habe ich eine Vorlage mit unterschiedlicher Helligkeit beleuchtet und fotografiert. Die Beleuchtungsstärke wurde von Bild zu Bild in etwa verdoppelt. 100x100 Pixel habe ich dann ausgelesen, "rote", "grüne" und "blaue". Das Ergebnis steht in dieser Tabelle.
https://www.dslr-forum.de/attachment.php?attachmentid=574538&d=1218449516
Die RAW-Werte für "grün" in der ersten Zeile mit Angabe der Streuung:
22+/-4; 14 +/-4; 8 +/-4; 6 +/-4; 4 +/-4; 3 +/-3; 2 +/-3; 2 +/-3
in der 3. Zeile:
106 +/-8; 69 +/-7; 40 +/-6; 30 +/-5; 20 +/-5; 14 +/-5; 9 +/-4; 6 +/-4
Mit RSE habe ich aus den RAW-Files die den Zahlen unterlegten Grautafeln entwickelt.
Gruß,
Stuessi
 
Hi - stimme chemischenk zu, und ich gehe noch etwas weiter: Dynamikumfang macht eigentlich nur Sinn als Helligkeitunterschied der Bildszene - eine rein optische Angelegenheit. Wie der von Sensor & A/D-Wandlung sowie RAW-Konvertierung umgesetzt wird, ob linear oder logarithmisch, wieviele Bit dabei verwendet werden, ist dabei unerheblich. Daß gängige A/D-Wandler in der Regel linear arbeiten, ist rein technologisch bedingt.

Als technischen Dynamikumfang kann man dann wie geschildert noch den Rauschanteil des Sensors abziehen. Der ist dann aber von Eigenschaften des zugrundeliegenden Bildes zu unterscheiden.

Manfred
 
Letztlich ist es tatsächlich total simpel. Wenn - WENN! - die Quantisierung bei der Digitalisierung so angelegt ist, das sich die "gemessene Signalstärke" mit jedem Bit verdoppelt, lässt sich der Helligkeitsunterschied zwischen dunkel und hell tatsächlich in fotografischen Blenden einfach anhand der Bit-Tiefe berechnen.

Schade dass die Bibo Samstag zu hat :/

Das dies aber keine sinnvolle Rechnungs-Grundlage ist, zeigt zum Beispiel die Fuji S5, die auf geradezu "unerklärliche" Weise mehr Zeichnung in den Lichtern und Tiefen einer JPEG-Datei erzeugt, als "normale" Kameras. Wenn aber die "Dynamik" von der Bit-Tiefe abhinge, wäre dies gar nicht möglich.

Wahlweise erreichen unsere Kameras also keinen Dynamikumfang jenseits der 8 Blenden - was aber doch eigentlich von jeder Messung bestritten wird, denn 9-11 Blenden werden ja gängigerweise "ermittelt", als Kontrastumfang einer aktuellen DSLR (11 zugunsten der Fuji).

Wo liegt das Mißverständnis? Einfach in der stattfindenden Signalwandlung zwischen Sensor, AD-Wandler und dem Ergebnis als JPEG-Datei.

Nikon bspw. quantisiert sogar die RAW-Daten beim verlustbehafteten RAW-File (z.B. D50), um statt 12 Bit auf ca. 9,1 Bit pro Farbkanal und Pixel zu kommen; hierbei wird Ausgenutzt, dass das Auge Helligkeitsabstufungen in bestimmten Bereichen ohnehin kaum wahrnimmt. Das wird im Konverter dann wieder "zurückgerechnet".

Letztlich wird die Eingangsbedingung - das oben fett gedruckte WENN - wohl vielfach nicht verstanden.
 
Vielen Dank allen soweit für die konstruktiven und meinem Gefühl nach (das Fachwissen fehlt mir ja eben noch) fundierten Kommentaren. Mir scheint, daß bei vielen Einigkeit über den Sachverhalt besteht. Damit es mir klar wird, ist glaube ich erforderlich, etwas einfacher anzufangen.

1. Ich weiß, daß Dynamikumfang das Verhältnis von einem maximalen Signal zu einem minimalen Signal (praktisch für den Sensor gesehen das Rauschen) ist. Dynamik muß sich dabei auf ein bestimmtes Signal beziehen, so daß man unterscheiden muß, worauf man sich bezieht. So erklärte Char: Es "interessiert meist nicht der Kontrast im Ausgabemedium, sondern der Kontrast des Motivs, den die Kamera bewaeltigen muss."

2. Ich würde gern erstmal den Begriff Dynamikumfang in seiner Definition verstehen. Ich stelle mir dazu vor, ich sitze in meinem (relativ dunkeln) Zimmer und schaue aus dem Fesnter. Mir bietet sich also ein Bild mit relativ dunklen und relativ hellen Bereichen. Ich spreche jetzt nur vom Motiv.

Was für einen Dynamikumfang habe ich denn dann? (a) Woher kommen die Werte, mit denen ich das Verhältnis zwischen max und min ausrechne? (b) Müßte ich die Lichtmenge messen oder die Spannung einer Photozelle? (c) Hängt der Dynamikumfang des Motivs davon ab, wie ich ihn messe, indem verschiedene Messmethoden sicher verschiedene min und max-Werte ergeben werden?

Schönes WE allen
frechBengel
 
Hm, wir müssen das umgekehrt machen, eigentlich. Oder so ähnlich :ugly:

Erstmal müssen wir die Fragestellung präzisieren, und zwar wie folgt:

1. wir haben Licht, welches durch eine "optische Vorrichtung" einfachstenfalls Camera Obscura) auf eine Fläche projiziert wird, die erlaubt, die jeweils pro Teilfläche und Zeit auftreffende Lichtmenge zu messen ("Photonenzähler": Film, Sensor, ...)

2. pro Flächeneinheit A des Sensors sind wir rein technisch (!) nicht dazu in der Lage, eine beliebige Exaktheit der Messung der eingetroffenen zu erreichen, insbesondere was die Maximalzahl der gezählten Photonen angeht. Irgendwann "läuft" unser Zähler über (ob das nun Silberatome sind oder eine Photozelle), und liefert uns nur noch die Information "viele".

3. die Fragestellung ist also zunächst mal: wie viele Photonen kann unser Sensor zählen? Da die Antwort ne doofe, ziemlich hohe Zahl wäre, die uns auch photographisch nicht wirklich was sagt, gehen wir einen Schritt weiter

4. in der Fotografie können wir die Messzeit, Blende und Empfindlichkeit so "einstellen", das wir theoretisch im idealen Bereich des "Sensors" arbeiten können.

Hier führen wir zunächst mal einen Begriff ein:

Wikipedia schrieb:
Motivkontrast oder Objektumfang bezeichnet in der Fototechnik das Helligkeitsverhältnis zwischen den hellsten und dunkelsten bildrelevanten Partien eines Motivs. Der Motivkontrast resultiert einerseits aus den unterschiedlichen Reflexionseigenschaften einzelner Motivpartien, andererseits aus den Einflüssen einer in der Regel ungleichmäßigen Beleuchtung.
Der Kontrastumfang wird in Lichtwert- oder Blendenstufen angegeben. [...]
Übersteigt der Motivkontrast den Kopierumfang (Filmkontrast) des Filmes – das ist die Anzahl der Helligkeitsstufen, die ein Film insgesamt wiedergeben kann –, so werden helle oder dunkle Motivteile strukturlos wiedergegeben.

Gut, das heisst, offenbar ist der sog. Motivkontrast das, wonach wir erstmal fragen müssen, bzw. das, wonach Frechbengel hier fragt:

5. Was für einen Dynamikumfang habe ich denn dann?

Denn: wir müssen mit den Begrifflichkeiten *verdammt* aufpassen, zumal "dynamic range" und "Dynamikumfang höchstvermutlich etwas verschiedenes meinen. Also vergessen wir doch diese ominöse "Dynamik", die bei Wikipedia falsch definiert ist, und arbeiten erstmal mit dem was wir haben: dem Motivkontrast (und der ist ja fraglos als Definition so akzeptabel).

6. Dummerweise haben wir nun ausser Messvorrichtungen, die letztlich Photovoltaisch arbeitet, nix zur Verfügung, um eine Helligkeit zu messen; sei das nun direkt der fertige Sensor, oder ein Belichtungsmesser irgendeiner Art. Wir können aber eine Messvorrichtung einsetzen, die eine sehr, sehr große Bandbreite von Photonenzahlen sehr zuverlässig zählen kann, die also sehr spät überläuft. Ob man hier übrigens letztlich die Spannung einer Photozelle misst, oder die "Lichtmenge", spielt eigentlich keine Rolle, weil die Spannung der Photozelle einen direkte Rückschluss auf die Lichtmenge zulässt (nach "Eichung"). Wir messen also die Lichtmenge pro Fläche und Zeit. Nicht wundern: wir landen verdammt schnell bei etwas, das sich quasi ähnlich unserem bekannten CCD/CMOS-Sensor in der Kamera verhält! Deswegen kommt weiter unten genau das, was schon mehrfach für "Sensoren" ganz allgemein erklärt wurde.

Nehmen wir also mal an, wir messen mit einem Belichtungsmesser in Objektmessung eine komplette Szene aus; grundsätzlich bekommen wir dann ein Messergebnis á la:

"An dieser Stelle messe ich 1.123.431 Photonen in der eingestellten Vergleichszeit".

7. Das ist für einen Photographen eine völlig unbrauchbare Angabe. Daher hat man sich einen Kniff ausgedacht, und der ist wichtig um vom eigentlichen Photonenzählen zu photographischen Begriffen zu kommen, mit denen man dann praktisch was anfangen kann. Und zwar hat man die "Empfindlichkeit" des Mediums eingeführt. Die hilft uns, da wir direkt einen Vergleichswert berechnen können, "das hier ist Blende 3, das da hinten ist Blende 9". Die "Empfindlichkeit" des Mediums gibt an... tja, was gibt sie denn physikalisch korrekt an?

8. Hier kommt nämlich ein Problem ins Spiel: die Definition von hell. Wir nehmen so selbstverständlich an, dass man anhand der Empfindlichkeit ausrechnen kann, wie man bspw. einen 18%-Grauwert auf einem Film belichten kann. Letztlich entspricht dieser Grauwert dann einer bestimmten Zahl von Photonen pro Fläche, bei ISO 200 meinetwegen 100.0000, bei ISO 400 wären des entsprechend 50.000.

9. Aber was in Gottes Namen ist überhaupt ein "18%-Grauwert"? Die Zahl der Photonen pro Fläche und Zeit - das was wir messen wollen - hat doch gerade gar keine Begrenzung nach oben (fotografier mal in die Sonne!), wie kann man 18% von unendlich berechnen? Damit sind wir also agekommen bei etwas, was ich noch gar nicht betrachten wollte, nämlich beim oben schon genannten Kopierumfang bzw. Filmkontrast - und digital der Frage, welchen Dynamikumfang ich überhaupt mit meiner digitalen Datei wiedergeben kann. Aber das war doch gar nicht unsere Frage. Also spulen wir zurück! (Ich hatte gehofft, hier eine Abkürzung nehmen zu können, aber die tut nicht. Long way round!)

10. Wir vergessen die Empfindlichkeit, und leben erstmal mit unserem einfachen Photonenzähler und seiner etwas unhandlichen Angabe "hier sind's so und so viele Photonen pro Zeit und Fläche". Nur: was sagt uns das eigentlich?

11. Und hier wird es relativ knackig. Nehmen wir mal an, unser Sensor kann pro Zelle maximal 20.000 Photonen zählen, danach läuft er über. Dann könnte man sagen, hey, OK, dann machen wir's doch einfach immer so, das wir pro Fläche und Zeit maximal 20.000 Photonen haben, und alles ist gut. Wir können ja die Blende zumachen oder kurz belichten.

Memo: um eine Aussage treffen zu können, brauchen wir also diese "maximal messbare Zahl von Photonen"!

12. Diese eigentlich tolle Idee funktioniert leider nur begrenzt. Warum? Nun, weil die Natur einen sehr, sehr großen Kontrast anbietet (zwischen Dunkelrauschen des Universums und der Sonne. Ich bin zu schlecht in Thermodynamik, um "mal eben rasch" den Emissionsunterschied zwischen 2,7K und 180.000.000K auszurechnen, aber wenn man mal annimmt, das die Zahl der abgestrahlten Photonen (Helligkeit) so ungefähr linear zunimmt, sind das in fotografischen Blenden (also jeweils Verdopplungsstufen) ausgedrückt 180.000.000/2,7=2^x => x=25.99 (der TI-92 rechnet sowas ja fix aus). Wäre natürlich hübsch, die gesamte thermodynamische Spannbreite des Universums in ein Foto zu bringen, und würde uns viel Gefrickel ersparen.

12.a. Hinweis: fotografische Blende, was meint das? Ganz einfach: "eine Blende" entspricht einer Verdopplung der Lichtmenge. Das ist in sofern praktisch, weil das Verhältnis für uns sonst sone große Zahl ist, nämlich 1:2^26=1:67.108.864. Da wird dann auch das Rechnen lästig, halb so hell, doppelt so hell - immer so riesige Zahlen? Näh. Lieber einfach mit 2^x rechnen, das spart Zeit (das hat NICHTS mit digitalen Bits zu tun, bei denen ganz ähnlich gerechnet wird, das ist einfach eine praktische Vereinbarung, bei der *rein zufällig* auch ne 2^ drinsteht!)

12.b. Warum eigentlich überhaupt Verdopplung? So tickt der Mensch. "Die Kerze ist doppelt so hell wie die andere". "Die Lampe leuchtet bestimmt zweimal so hell wie der Mond". In der Fotografie wurde das dann an allen Ecken und Enden übernommen - also rechnen wir damit, denn es ist praktisch. Unser Auge+Gehirn nimmt Licht eben so wahr.

13. Aber, 26 Blenden, was bedeutet denn das für unseren Sensor? Es bedeutet, dass die kleinste Zahl, die wir messen können *müssten*, um wirklich "das ganze Universum" abzulichten (wenigstens in meiner Schätzung mit 25.99 Blenden Helligkeitsdifferenz) ist 20.000/2^26=0,0003.

Ohje. Das ist aber schlecht, weil Photonen in der Regel nur als "ganzes" auftauchen :eek:

14. Aber: das lässt eine neue Betrachtung zu. Wenn nicht "alles" geht, was geht denn dann. Das Minimum wäre doch wohl 1 Photon, das Maximum haben wir definiert mit 20.000 Photonen. Da bekommen wir satte 14.28 Blenden (Verdopplungsstufen). Das reicht offenbar noch nicht ganz für das Universum, aber schon ziemlich weit hin.

15. Unsere Sensoren sind leider nicht soooo exakt. Wir haben bei kleinen Messwerten einen nicht zu vernachlässigenden Rauschanteil, der uns ein paar Verdopplungsstufen auffrisst. Sagen wir mal, unsere Sensorzellen würden uns immer, selbst im Stockdustern, einen beliebigen Wert zwischen 0 und 20 liefern. Damit ist eine Messung von 21 eigentlich auch eher "belanglos", weil wir nicht wissen, ob der richtige Wert 21 ist (Rauschen=0) oder 1 (Rauschen=20). Können wir also AUCH nichts mit anfangen. Wir müssen uns - Achtung - entscheiden, wie groß die Ungenauigkeit durch das Rauschen max. sein darf verglichen mit dem echten Messwert, so dass sie uns nicht mehr stört. Und das ist VERDAMMT schwer zu sagen, weil das auch vom "Charakter" des Rauschens abhängt - wenn wir jedenfalls ein Bild betrachten, und keine physikalische Messapparatur!

16. minimaler Signal/Rauschabstand revisited. Nehmen wir einfach mal an, unser Signal ist "OK", wenn unser Signalstärke mindestens 5 mal so groß ist wie das Rauschen. Alles darunter betrachten wir kurzerhand als "hoffentlich so schwarz, das man eh nix sieht im Bild". Also haben wir 100 Photonen als minimales Signal.

Memo: um eine Aussage treffen zu können, brauchen wir also diese "minimal brauchbare Signalstärke"!

17. Nach dieser Definition könnte man erneut rechnen, unser Beispielsensor mit einer minimal brauchbaren Signalstärke von 100 und maximaler Messmöglichkeit für 20.000 Photonen kann also 7.6 Blenden wiedergeben. W00t! Wir können also längst nicht das ganze Universum in ein Bild kriegen, aber wenigstens eine Kerze und eine 500W-Lampe, sofern die gemessene Lichtmengendifferenz zwischen beiden (Motivkontrast - vergleiche ganz oben!!) 7.6 Verdopplungsstufen nicht übersteigt.

18. Wir sehen: wir haben kein einziges mal mit einem "Bit" gerechnet. Warum nicht? Weil wir jede Form von A/D-Wandlung und Digitaltechnik ignoriert haben. Die hat uns einfach nicht interessiert, weil wir erstmal beim Zählen der Photonen sind, und noch gar nicht bei der Darstellung dieser Zahl - zum Beispiel für ein Ausgabemedium (Kopierkontrast!)

19. Und wie verdammich noch mal kann ich das für meine Nikon 5Dsmax*istDL nun ausmessen? Dazu kommen wir nach der nächsten Maus. Nein, nach dem Frühstück. Oder nach dem Fotoausflug, das Wetter ist genial... mal schauen.

Ich hoffe auf diese Weise erstmal gezeigt zu haben, dass die "Bittiefe" erstmal nix mit der Fähigkeit eines Photonenzählers zu tun hat, einen bestimmten Motivkontrast korrekt zu ermitteln, bzw. wo die Grenzen dieses Zählers liegen.

Hey, warte mal, LGW, du hast gar nicht von "Dynamik" gesprochen!!1111!!?

Das ist richtig. Das hat auch seinen Grund: ich habe keine Ahnung, was "Dynamik" im fotografischen Sinne oder bezogen auf "Licht in einem Motiv" so genau sein soll. Ich habe mich deswegen an bestehende, fest definierte Begriffe gehalten, weil die Bibo wie gesagt heute zu hat, aber es mich drängt, mein Gehirn zu entlee/hren.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten