• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Hmmm, und ich dachte eine Quantisierungstufe (dE) wäre immer nur das was man mit einem +1 in Verbindung bringt ????


Ja, im Prinzip sind wir uns einig, dass Dynamik als Begriff nur im Kontext der Messtechnik einen Sinn hat. D.h. für so etwas abstraktes wie TIFF oder JPEG muß man entweder nach Vorne schauen (Farbraum + Gamma + Monitor) oder nach Hinten (Leuchtichte + Antwortkurve des Sensors + ev. Tonwertspreitzung, etc) um überhaupt etwas wie Dynamik zu definieren.
Du schaust nach vorne, ich schaue nach Hinten, weil ich mich da eben besser auskenne.
Für die rein abstrakte Betrachtung gibt es keine Definition von Dynamik, dennoch hat die Fehler(intervall)rechung/Numerki auch ür solche Dinge Begriffe ... fragt mich aber nicht in dieser Vorlesung habe ich immer gschlafen.


[Wie Schwarz ist dein schwärzestes Schwarz?]

Wir sind uns einig das die Definition Dynamik nur in einem Kontext stettfinden kann. Und ich befürchte die Bettung in diesen Kontext ist essentiell um eine "vernünftige" definition von Dynamik zu bekommen.

Ich zeihe hier wieder den Erwartungwert aus dem Ärmel. Wenn ich diese Farbraumgeschichte mal als lineare Blackbox ansehe, und vorraussetzte das Weiß Weiß bleibt, dann heißt das dass im 8 Bit Fall für Null den Farbwert Schwarz 256 = ( 2^16 / 2^8 = 2^(16 - 8) ) Stufen Schwarz des 16 Bit Falls in Frage Kommen.
Also für das 16 Bit Null kommt sowas wie (auf einer rein imaginären Ansteuerungsstäkre für den Monitor):
0 .. 1
in Frage. (Weiß hat dann sowas wie 65536 als Ansteuerung)

Dann kommt für 8 Bit Null sowas eine ganze Spanne an Werten in Frage, da ja 256 Stufen des 16 Bit wertes zusammen Fallen. Also sowas wie
0, 1, 2, .... 256 * 1
in Frage. Sonst wäre das Weiß (256) bei linear nicht die Ansteuerungsstärke 65536

(Haben wir diesen Zusammenhang nicht beschnieden wir die 16 Bit in ihrer Dynamik)

Um das in einen Erwartungswert zu packen (da wir ja nicht wissen für was sich das System beim Darstellen von 8Bit-Schwarz entscheidet und wir einfach z.B. den Mittelwert annehmen kommt wieder sowas raus wie
E(0_8bit) = 1/256 E(0_16bit)


Aber mal etwas Generelles:

Wenn man sich mal das ganze anschaut, dann basiert unsere Definition auf den quantisierten Werten
[D = max/min]
auf der stillen Annahmen das sich das System linear verhält denn wir gehen davon aus das unser System sich in D Schritte unterteilen lässt und
D * min = max
gilt. D.h. das Singnal wird an jeder Stelle gleich gut aufgelöst. Nämlich mit dem Quantisierungsintervall von dE = min.
Für reine Sensordaten kann man ja gerade so noch davon ausgehen - besser wäre es die Kennline des Systems zu verwenden um wieder linear zu werden (vgl. Debevec, Robertson et al.)
Aber durch eine Farbraum und durch Gamma ist das auf der Seite hinzu Darstellung garnicht mehr gegeben.

Damit könnte man das hier wie jede gute Physikvorlesung abschließen und sagen: Das oben genannte gilt nur in einem sehr speziellen Fall (der Linearität), der aber in der Natur so nicht vorkommt. Damit können sie das ganze geschrieben getrost vergessen oder höchstens als Pi-mal-Daumen Regel betrachten.
Danke.

Für mich persönlich klingt das schon komisch. Vielleicht sollte man dazu übergehen und differenzieren zwischen sowie maximaler Auflösung und minimalen quantiserbaren Wert.
Sowas würde aber die Definition wie wir sie benutzen unbrauchbar machen.

(Um ehrlich zu sein habe ich die Definition wie wir sie Anwenden - auf die Schnelle - auch nicht gefunden - eben nur irgendwo mal im einem Audioforum gehört.)

criz.

bewußt mal als Riesenquote.

Hallo Crizmess, das mag ja alles stimmen, oder auch nicht. Mein Vorschlag: Schreib am Anfang oder Ende eine Zusammenfassung, eine Schlußfolgerung, die sich aus Deinen Ausführungen ergibt. So weiß ich einfach nicht, was Du mir sagen willst.

Christian
 
...Vorher ist es nur einen Menge von Zahlen und diese Mengen haben keinen Dynamikumfang. Oder würdest Du der Menge M={3,7,11} den Dynamikumfang D=11/3 zuordnen?

Vorsicht. {11, 7, 3} ist nicht linear. Zum anderen fehlt bei {11, 7, 3} die messtechnische Interpretation - würde man den Werten eine entsprechende (linearen) Meßgrößen zuordnen sähe das anders aus. Ungefähr so: f(11) / f(3)

Ich möchte jetzt nicht bestreiten, daß die Farbwerte einen Bedeutung haben. Aber sie sagen nicht genug, um etwas über die Dynamik auszusagen. Sie Bedeutungen und zwar folgende:

255 heißt in einem 8bit-Farb-Modell: maximale Helligkeit
254 heißt dunkeler als 255, heller als 253.
253 heißt dunkeler als 254, heller als 252
usw.

65536 heißt in einem 16bit-Farb-Modell: maximale Helligkeit
65535 heißt dunkler als 65536, heller als 65534
usw.

Aber nur im Farbraum steht WIE hell. Der Wert 255 sagt nichts drüber aus, wie viel heller er als 1 ist.

Naja, das ganze bekommt wieder eine Form wenn man einen linearen Zusammenhang zu einer Messgröße oder deren Erwartungswert herstellt. Und dann gilt das 256 ziemlich genau 256 mal so hell sein muß als 1.
Diese gesamte Dynamiksache hat nur dann einen Sinn wenn wir den Werten eine Interpretaion zuweisen.

@crizmess

Jetzt verstehe ich zumidnest, was Du in Post 111 sagen wolltest. - Ich kann soweit nur antworten, daß es mich verwirrt.
Hmm, ich befürchte abundzu ist das nicht so didaktisch optimal was ich schreibe :D

criz.
 
bewußt mal als Riesenquote.

Hallo Crizmess, das mag ja alles stimmen, oder auch nicht. Mein Vorschlag: Schreib am Anfang oder Ende eine Zusammenfassung, eine Schlußfolgerung, die sich aus Deinen Ausführungen ergibt. So weiß ich einfach nicht, was Du mir sagen willst.

Christian

Nö. Da könnte ich ja dann gleich ein Paper schreiben.
Und wenn ich mich kurzfasse verstehen es die Leute erst recht nicht (siehe #111).

criz.
 
@_CAT_, Post 120

Ich würde Dir darin zustimmen, daß ein JPEG-Bild (mit bestimmtem Farb-Raum) eine Dynamik hat, da durch den Farbraum exakt definiert ist, wie hell oder dunkel jeder Punkt zu sein hat, wenn wir es auf Monitor oder Drucker ausgeben. Diese Dynamik beieht sich wieder auf cd/m^2 und eine - wenn auch nur mögliche, aber so doch empirische - Darstellung in der realen Welt.

Meiner Meinung liegt der Punkt da begraben, wo gesagt wird, daß aus der höheren Bittiefe einen höhere Dynamik folgt und einfach gerechnet wird Dynamik=1:2^8 bei 8bit und Dynamik=1:2^16 bei 16bit.

Ein sehr geringfügiger Dynamikgewinn folgt (evtl. - bin mir nicht sicher) lediglich daraus, daß bei 16bit Darstellung der kleinste von Null verschiedene Wert eben kleiner ist als bei 8bit-Darstellung. (Vgl LGW, Post 110)

Gruß
frechBengel
 
@Hafer

Du widersprichst mit Deinem Post dem Stand der Diskussion.

Ja, insofern Dynamikumfang hier oft als Abstand zwischen minimaler und maximaler Helligkeit verstanden wird.

Du folgerst über mögliche Helligkeitsabstufen (entsprechend der Bittiefe) direkt auf einen Dynamikumfang.

Ja, wie hier bereits beschrieben: Der Dynamikumfang eines Bildes ist das Verhältnis zwischen dem kleinsten noch wahrnehmbaren Helligkeitsunterschied zum größten Helligkeitsunterschied.
Allerdings ist der Bezug zur Bittiefe nur zulässig, wenn die bits Kontrastschritte kodifizieren, wie ich es beschrieben habe.

Lassen wie Du gefordert hast Farben aus dem Spiel. Deiner Meinung nach ist der hellste Grauwert von 255 genau 255 mal so hell wie dunkelste und von Nullverschiedene Grauwert 1.

Fast. Der Kontrast zwischen hellstem Grauwert (nämlich weiß) und dunkelsten Grauwert (nämlich schwarz) ist 256mal größer als der kleinste wahrnehmbare Helligkeitsunterschied. BTW ist der in meinem Beispiel zwischen allen Helligkeitsnachbarn gleich - aber das ist Folge bit-orientierter Dateiformate: die ziehen den Zustandsraum äquidistant auf.
Farben sind übrigens völlig unproblematisch, wenn du sie als RGB-Tripel auffasst, die du während unserer Betrachtung immer gleich behandelst.

Sobald Du dann aber 16bit einführst, ändern sich gemäßt Deiner Scihtweise nicht die Anzahl der Abstufungen, sondern der hellste Wert wird plötzlich heller oder der dunkelste Wert dunkler. Das sogar um den Faktor 256, so daß man dann plötzlich ein entsprechend höheren Dynamikumfang hat.

Nö. Ich hatte ja explizit in Folgerung No. 3 festgehalten, dass der Dynamikumfang sogar dann wachsen kann, wenn schwarz nicht schwärzer und weiß nicht weißer wird. Oder, um wiederum mit Christian Bloch zu sprechen:
"Der Dynamikumfang [hängt] stets von zwei Faktoren [ab]: dem gesamten Belichtungsumfang und der kleinsten Kontraststufe".

Und deshalb sind deine Aussagen ...

255 heißt in einem 8bit-Farb-Modell: maximale Helligkeit
254 heißt dunkeler als 255, heller als 253.
253 heißt dunkeler als 254, heller als 252
usw.

65536 heißt in einem 16bit-Farb-Modell: maximale Helligkeit
65535 heißt dunkler als 65536, heller als 65534
usw.

vollkommen richtig und somit sind mit 16bit schlicht mehr Unterscheidungen treffbar, als mit 8bit. Und damit hast du mit obiger Definition einen größeren Dynamikumfang. That's all :top:
 
@crizmess
Ich kann nicht behaupten, dass ich Deinen letzten Post 100%-ig verstanden habe. :)
Ich wollte lediglich aufzeigen, dass ein 1bit Sensor niemals ein gedithertes (gibt es das Wort überhaupt?) Bild liefern kann, sondern so eins wie in Deinem letzten Post. Ich hoffe wir sind uns da einig.

Nö. Naja nicht ganz ...
Ein Sensor an auf dem Maximum der Auflösung (ein Photon pro Photosite) wird ein gedithertes Bild liefern. Die Photonen schlagen ja nicht irgendwie geordnet auf den Sensor, sondern in einem Zufälligen Prozess.

criz.
 
vollkommen richtig und somit sind mit 16bit schlicht mehr Unterscheidungen treffbar, als mit 8bit. Und damit hast du mit obiger Definition einen größeren Dynamikumfang. That's all :top:
Das ist falsch.
Es sind im gegebenen Dynamikbereich lediglich feiner aufgelöste Helligkeitsstufen darstellbar, eben 65536 statt 255. Inwiefern dabei durch das geringere Quantifizierungsrauschen ein besserer Rauschabstand und damit indirekt ein geringfügig größerer Dynamikumfang resultiert, müsste allerdings betrachtet werden.
Grüße
losch
 
Die Photonen schlagen ja nicht irgendwie geordnet auf den Sensor, sondern in einem Zufälligen Prozess.

Dem kann ich nicht zustimmen. Durch die Optik der Kamera werden die Photonen schon geordnet, sonst hätte man nur ein unscharfes Bild. D.h dass ein Bereich des Motivs, der auf ein bestimmtes Pixel abgebildet wird, eine Menge X von Photonen emitiert, ein Motivbereich für ein anderes Pixel die Menge Y (auf das Rauschen komme ich gleich zu sprechen). Während der Digitalisierung muss ich mich jetzt wenn ich nur 1 Bit zur Verfügung habe für eine Schwelle von Photonen entscheiden. Wenn die Anzahl der Photonen darunter liegt wird der Wert 0, sonst 1. Wir erhalten somit das letzte von Dir gepostete Bild.

Wenn wir nun das Rauschen dazu nehmen, so werden wir feststellen, dass manche Pixel bei einer Belichtung den Wert 0 erhalten, bei einer anderen den Wert 1. Dies trifft aber nur für die Pixel zu, die nahe unserem Schwellenwert sind. Damit das ganze Bild betroffen ist, müsste das Rauschen genauso groß sein wie die Information selbst.

Dithering ist jedoch etwas völlig anderes. Es betrifft das gesamte Bild, und ist meiner Meinung nach ein rein digitales Phänomen, aus Zeiten als Grafikkarten noch zu wenig Farben darstellen konnten. Um ein gedithertes Bild (mit einer niedrigen Farbtiefe) zu erstellen, brauche ich zunächst eines mit einer höheren Farbtiefe, aus dem ich das andere dann erstellen kann. Die einzige Art dies mit einem 1Bit Sensor zu erstellen, wäre die Erstellung von mehreren Belichtungen mit unterschiedlichen Schwellen/Belichtungswerten, was einem DRI entspricht.
 
Ein Sensor an auf dem Maximum der Auflösung (ein Photon pro Photosite) wird ein gedithertes Bild liefern.

Hab gerade diesen Satz nochmal gelesen (und diesmal wie ich glaube auch verstanden :D). Ob Deine Folgerung diesbezüglich stimmt kann ich im Moment nicht sagen, ich bezweifle allerdings, dass sich so etwas auch nur theoretisch bauen lässt. Für "normale" Sensoren gelten meine Ausführungen vom letzten Post.

EDIT:
Ich habe nochmals darüber nachgedacht, und bin zu dem Schluss gekommen, das so ein Sensor nicht möglich ist. Egal wie hoch die Auflösung des Sensors ist, Du kannst nicht verhindern, dass mehrere Photonen pro Photosite auftreffen wenn die Belichtungszeit verlängert wird. Es wird schon unmöglich überhaupt eine Belichtungszeit vorzugeben, die dies verhindert.
 
Zuletzt bearbeitet von einem Moderator:
Das ist falsch.
Es sind im gegebenen Dynamikbereich lediglich feiner aufgelöste Helligkeitsstufen darstellbar, eben 65536 statt 255.

Falsch ist meine obige Aussage dann, wenn ich die hier gängige Definition "Dynamikumfang ist der Abstand zwischen hellster und dunkelster Stelle" heranziehe. Das genau mache ich aber gerade nicht. ;)
 
Falsch ist meine obige Aussage dann, wenn ich die hier gängige Definition "Dynamikumfang ist der Abstand zwischen hellster und dunkelster Stelle" heranziehe. Das genau mache ich aber gerade nicht. ;)

Ich glaube, das Problem dass wir haben, sind die verschiedenen Definitionen für Dynamik. Vielleicht sollten wir zuerst die richtige bestimmen, und dann über deren Anwendung auf Fotografie diskutieren.
 
Ich glaube, das Problem dass wir haben, sind die verschiedenen Definitionen für Dynamik. Vielleicht sollten wir zuerst die richtige bestimmen, und dann über deren Anwendung auf Fotografie diskutieren.

Somit sind wir von einer etwas kontroverse Startphase über eine sehr interessante Diskussion am Ende bei der Behandlung der Interpretation digitaler Daten angelangt und müssen also wieder zur ersten Seite zurückspringen...:(

Ich sehe folgende Kontroverse: es wird versucht, eine Dynamik in rein digitale Daten zu interpretieren. Dazu wird die Bittiefe als dynamikentscheidender Parameter betrachtet.
Ich sehe das so: digitale Daten besitzen keinerlei Dynamik. Eine Dynamik kann ich nur von einer Messgröße bestimmen. Bits oder Bytes sind rein abstrakte Werte, die erst Interpretiert werden müssen. Was unterscheidet ein 8 Bit JPEG von einer 8 Bit ASCII-Datei? Erstmal gar nichts! Erst die Interpretation als Luminanzmatrix (wobei bei JPEG sogar nach eine Kosinus-Transformation durchgeführt werden muss..., Bitmaps sind da anschaulicher...) erlaubt die Darstellung als Bild. Ein Byte eines JPEGs lässt sich also als Luminanzwert interpretieren, ein Byte einer ASCII-Datei als Zeichen. Niemand würde auf die Idee kommen, einer ASCII-Datei eine maximale Dynamik zuzusprechen...:ugly:
Erst wenn ich das JPEG als Bild interpretiere und Ausgebe, kann ich eine Dynamik messen. Denn dann habe ich ja mit der Leuchtdichte eine Messgröße erzeugt.
Der JPEG-Datei eine intrinsische Dynamik zuzusprechen macht also keinen Sinn, da zur Erzeugung der Messgröße recht viele Schritte stehen, z.B. Überlagerung mit dem Farbprofil, Interpretation der Grafikkarte, Darstellung des Bildes auf dem Ausgabegerät (sehr grob vereinfacht!). Und was passiert erst mit der Dynamik des angezeigten JPEGs, wenn die Sonne auf das Display scheint...:eek:

Mein Fazit: wenn man über Dynamik reden will, muss man digitale Daten außen vor lassen. Man kann über Motivdynamik, Eingangsdynamik des Sensors, Ausgangsdynamik des Sensors, Eingangsdynamik des Analogverstärkes, Ausgangsdynamik des Analogverstärkers und Eingangsdynamik des A/D-Wandlers. Der Ausgang des A/D-Wandlers besteht bereits aus digitalen Daten und kann nur noch in Bittiefe beschrieben werden. Erst mit Anzeige des Bildes auf dem Ausgabegerät wird wieder eine Dynamik erzeugt...

Und ansonsten ist Dynamik recht eindeutig definiert: der Quotient aus größtem zu kleinstem, vom Rauschen unterscheidbaren Wert einer Messgröße.
 
Jo, ich sehe das auch so wie UnclePat. Den digitalen Daten an sich kann man keine Dynamik mehr zusprechen, sie ist quasi frei skalierbar und verschiebbar (Offset).

Wenn ich z.B. 1 und 50 habe so wäre die Dynamik 1:50, verschiebe ich das ganz um 30, dann habe 31:80, also nur noch ~1:2.6, wende ich Gradationskurven an wird das ganze nicht mehr nachvollziehbar, von lokalen Kontrastverbesserungen ganz zu schweigen. Rein von den her Daten hat sich aber nicht geändert, ich interpretiere sie nur anders.

Wir haben also eine Eingangsdynamik die das Motiv vorgibt, absolutes schwarz im eigentlich Sinne währe dann die Hintergrundstrahlung (3 Kelvin oder so), beim Motiv selber wird das nicht vorkommen, dort wird das "schwarz" bereits einem Offset unterliegen (ist motivabhängig), "weiß" mit den hellsten Punkt gleichgesetzt.

Dann haben wir den Dynamikbereich den ein Sensor erfassen kann und hier entscheidet man dann per Belichtungsparameter und Bildausschnitt welchen Dynamikbereich letztendlich im Bild verewigt wird, wobei hier "weiß" nicht unbedingt der hellste Punkt des Motiven sein muß, bei "schwarz" entsprechen nicht unbedingt der dunkelste - Beispiel wäre ein mittlerer Ausschnitt aus einem Grauverlauf, niemand käme auf die Idee 64 mit 0 und 196 mit 255 gleichzusetzen, das würde zu einem völlig verfälschten Bildergebnis führen. Dennoch könnte genau dies in durch die Kameraelektronik gemacht werden, um eben die feinen Abstufungen möglich Detailreich erfassen zu können, ein entsprechendes Profil sorgt dann für die Ausgabe.
 
Falsch ist meine obige Aussage dann, wenn ich die hier gängige Definition "Dynamikumfang ist der Abstand zwischen hellster und dunkelster Stelle" heranziehe. Das genau mache ich aber gerade nicht. ;)

Die hier gängige Definition von Dynamik ist nicht der Abstand, sondern der Quotient. UnclePat hat das nochmal geschrieben.

Gruß
frechBengel
 
Vergleich ASCII-Datei und JPEG

Ich finde diesen Vergleich (UnclePat; Post 132) sehr gelungen; und dieser Vergleich schlägt mit anderen Worten in die gleiche Richtung wie ich es immer mit dem Bezug auf den Farbraum versuche. Zeigt er doch, daß die Bits einer Datei der Interpretation bedürfen.

Erst wenn ich sage, daß diese Bits ein Pixel beschreiben (und über Farbraum etc) festgelegt ist, welche Bedeutung die Bits für Farbe und Helligkeit dieses Punktes haben, dann kann ich wieder von Dynamik sprechen, weil die Meßgröße der Dynamik dann die Leuchtdichte an dieser Stelle ist.

Insofern versteht Hafer in seinem Post 125 meine Erklärung, die er für richtig hält, völlig falsch. Er zitiert meine Aufstellung von "255 ist heller als 254" (Vgl. frechBengel; Post 118) und übersieht aber die Pointe darunter: "Aber nur im Farbraum steht WIE hell. Der Wert 255 sagt nichts drüber aus, wie viel heller er als 1 ist." Ich ergänze: "heller" sagt eben nicht "wie hell" und um über Dynamik zu sprechen ist das "wie hell" erforderlich. Darauf kam es mir hier an. Erst wenn durch den Farbraum festgelegt ist, wie hell diese Punkte auf einem Bild in der realen Welt zu leuchten haben, ist festgelegt, wie (!!) hell ein Wert von z. B. 230 ist.

Ich möchte versuchen das an einem Beispiel zu erläutern und hoffe, daß es dadurch verständlicher wird: Ich definiere dazu einen Farbraum, der lediglich Grautöne enthält. Ich nenne ihn fbG (frechBengelGrau-FarmRaum). Ich definiere die untere Schranke dieses Farmraumes: Das dunkelste Grau leuchtet mit 1cd/m^2. Ich definiere die obere Schranke des Farbraumes: Das hellste Grau leutet mit 100cd/m^2.

Das beutet für die Interpretation von fbG in 8bit:
0 bedeutet 1 cd/m^2
255 bedeutet 100 cd/m^2

Das bedeutet für die Interpretation von fbG in 16bit:
0 bedeutet 1 cd/m^2
65536 bedeutet 100 cd/m^2

Zur Dynamik: Angenommen ich habe nun das gleiche Bild zweimal. Einmal in 8bit fbG und einmal in 16bit fbG. Im den Bildaten des 8bit fbG kommen Werte zwischen 0 und 255 vor. In dem Bild in 16bit fbG kommen Werte zwischen 0 und 65536 vor. - Ich habe damit in beiden Bildern die Dynamik des Farbraumes voll ausgeschöpft. Ich habe in beiden Fällen eine Dynamik von D=(100 cd/m^2) / (1 cd/m^2)= 100:1.

Schlußfolgerungen

1. Durch die Bittiefe hat sich an der Dynamik nichts geändert. (Der maximale Dynamikumfang eines digitalenBildes ist durch den Farbraum bestimmt. In diesem Beispiel wurde er vollständig ausgeschöpft.)

2. Ohne die Interpretation für das Erscheinen der Bits in der realen Welt, die der Farbraum gibt, sagen die Bits höchtens "heller" oder "dunkler"; aber nicht wie hell.

3. Dynamik mißt den Helligkeitsumfang (als Quoient, nicht als Abstand). Ohne Interpretation durch den Farbraum, haben die Pixel keine Helligkeit, aus der sich eine Dynamik ergeben könnte.

4. Es spielt dabei überhaupt keinen Rolle, welchen Wertebereich, die Pixel haben, sprich ob sie durch 8 oder 16 Bit dargestellt werden. Die bloßen Werte eines Bildes haben keine Dynamik.

LiebenGruß
frechBengel
 
...
Ich möchte versuchen das an einem Beispiel zu erläutern und hoffe, daß es dadurch verständlicher wird: Ich definiere dazu einen Farbraum, der lediglich Grautöne enthält. Ich nenne ihn fbG (frechBengelGrau-FarmRaum). Ich definiere die untere Schranke dieses Farmraumes: Das dunkelste Grau leuchtet mit 1cd/m^2. Ich definiere die obere Schranke des Farbraumes: Das hellste Grau leutet mit 100cd/m^2.

Das beutet für die Interpretation von fbG in 8bit:
0 bedeutet 1 cd/m^2
255 bedeutet 100 cd/m^2

Das bedeutet für die Interpretation von fbG in 16bit:
0 bedeutet 1 cd/m^2
65536 bedeutet 100 cd/m^2

Zur Dynamik: Angenommen ich habe nun das gleiche Bild zweimal. Einmal in 8bit fbG und einmal in 16bit fbG. Im den Bildaten des 8bit fbG kommen Werte zwischen 0 und 255 vor. In dem Bild in 16bit fbG kommen Werte zwischen 0 und 65536 vor. - Ich habe damit in beiden Bildern die Dynamik des Farbraumes voll ausgeschöpft. Ich habe in beiden Fällen eine Dynamik von D=(100 cd/m^2) / (1 cd/m^2)= 100:1.

Waren wir nicht schon vor ca. 3 Seiten soweit?
Ich habe immer darauf hingewiesen das ohne meßtechnischen Interpretation der Werte man Dynamik nicht sinnvoll anwenden kann (BTW: ein Offset c wie mariane es vorschlägt ändert nichts an der Interpretaion der Werte nur die Werte selbst) _und_ (was eigentlich noch viel wichtiger ist) das wir eine Lineraität in einer gewissen Form haben müssen (für die Vergleich Bittiefen vs Bittiefen brauchen wir eine lineare Interpretation, ansonsten brauchen wir immer einen lineare "Quantelung" der Messwerte für die Dynamik selbst). Mathematisch sieht das dann so aus für eine Interpretation f der Werte x gilt:
f(x * n) = n* f(x)
für beliebige n.

Der 2. Punkt (den hab ich sicher auch schon erwähnt) ist das in realen Systemen (z.B. nach Vorne Farbraum mit Gamma, Kennline des Monitors, etc) solch eine Linearität niemals vorkommt, d.h. unsere ganze Betrachtung in der Praxis eigentlich Null Bedeutung hat.

Das was du oben machst gehorcht ebenfalls nicht diesem linearen Zusammenhang.

Schlußfolgerungen

Um das ganze mit Bittiefen und Interpretationen noch ein bisschen mehr zu verwirren noch eine Frage zum Schluß:
Was für eine Dynamik hat dann das (pixar) TIFF-Format LogLUV (die Luminanz wird mit 15 Bit (+ 1 Bit Vorzeichen) kodiert, z.B. Hier)?

criz.
 
Aber (Achtung, auf die fehlende 1 achten):

Bei 256 Bit ist der kleinste darstellbare Grauwert dann (mal linear zur Veranschaulichung):

100 cd/m^2 / 256 = 0,390625 cd/m^2

bei 16 Bit:

100 cd/m^2 / 65536 = 0,00152587891

Das ist ein Faktor von 256 (logisch), und somit ist der kleinste noch von 0 unterscheidbare Grauwert bei 16 Bit etwa 8 "fotografische Blenden" (;)) dunkler als der kleinste "mögliche" Wert bei 8 Bit.

Bei unserem fotografischen Sensor hätten wir das als "großen Gewinn an Dynamik" gefeiert, wenn es sich nicht um eine Vorgabe der Binärdarstellung, sondern um den "kleinsten verwendbaren Wert über dem Rauschen" gehandelt hätte!

Welche fehlende 1? Nun:

100 cd/m^2 / 256 +1 = 1,390625 cd/m^2
100 cd/m^2 / 65536 +1 = 1,00152587891 cd/m^2

Allerdings ist Schwarz in fast jedem Farbraum als 0 cd/m^2 definiert, wenn mich nicht alles täuscht. Erreicht natürlich kein Wiedergabemedium.
 
Was ich halt überlege ist folgendes:

wir sind ja auf der einen Seite beschränkt durch die 8 Bit, auf der anderen Seite durch eine Auswahl vorgegebener Farbräume/Farbprofile, beispielsweise sRGB oder AdobeRGB. Natürlich könnten wir je nach Bedarf ein eigenes Farbprofil erstellen, welches optimal zu unserem Bild passen würde, aber das tun wir ja nicht; wir halten uns an eine Vorgabe.

Unter dieser Vorbedingung dürfte es doch tatsächlich so sein, das es eine Beschränkung des Quotienten max/min gibt bei min gegen 0, eben vorgegeben durch die kleinstmögliche darstellbare Zahl (so ähnlich wie das Rauschen den Sensor nach unten "beschränkt".

Sprich: ich habe ein Foto mit 10 "fotografischen Blenden Dynamik". Oder, in Leuchtdichten ausgedrückt:

max = 100 cd/m^2
min = 100 cd/m^2 / 2^10 = 0,09765625

Wenn wir das jetzt mal "1:1" umsetzen in ein Bild (ich weiss, normalerweise passiert da noch viel, aber nehmen wir das mal eben so an), nach dem Motto 100 cd/m^2 soll "weiss" sein, haben wir bei 8 Bit schon ein "Problem":

100 cd/m^2 => 256

=> 0,09765625 cd/m^2 => 0,25

Die kleinste darstellbare Zahl wäre aber "1", nicht "0,25" - wir verlieren also offenbar einen Bereich der "Zeichnung" zwischen der 0 und der 1, die vom Sensor her gekommen ist. Und zwar - logischerweise - genau unsere 2 Blenden, die "mehr" da waren als die 8 "Blenden" die ins JPEG passen (2^2 = 4 => 0,25*4=1).

Man muss sich jetzt aber HÜTEN, aus dieser Beschränkung abzuleiten, dass man mit einem 8-Bit-JPEG "nur 8 fotografische Blenden" darstellen kann, denn DAS ist eben eine falschaussage - da wir ja noch bspw. mit einer Tonwertkurve die Möglichkeit hätten, die Zeichnung ins JPEG zu retten - somit sehen wir dann "mehr" fotografische Blenden, als eigentlich "möglich". Fuji macht das bei jedem JPEG mit "400% Dynamik", Nikon bei (Active) D-Lighting, ...

Alles ganz schön wirr. Zumal es soweit ich weiss kein TFT-Panel gibt, das überhaupt eine LUT>12 Bit hat...
 
Vergleich ASCII-Datei und JPEG

Ich finde diesen Vergleich (UnclePat; Post 132) sehr gelungen;

Ich nicht. Ich (und vermutlich die meisten Anderen) bin davon ausgegangen das sowohl die 8bit als auch 16bit Zahlen Helligkeitswerte darstellen. Eine Diskussion, wie diese Werte abhängig vom Dateiformat abgelegt werden, ist eine völlig andere Fragestellung und bringt uns in der Dynamikdiskussion gar nicht weiter. Außerdem ist ASCII kein Dateiformat sondern eine Zeichencodiereung. Und genau genommen speichert ein JPEG keine 8bit RGB Helligkeitwerte. Aber, wie gesagt, das ist eine ganz andere Diskussion.

Jo, ich sehe das auch so wie UnclePat. Den digitalen Daten an sich kann man keine Dynamik mehr zusprechen, sie ist quasi frei skalierbar und verschiebbar (Offset).

Kann ich das mit einem ausgedruckten Bild nicht machen? Wenn ich das Licht ändere, bei dem ich das Bild betrache, ändert sich auch die von dem Bild reflektierte Lichtmenge.

Insofern versteht Hafer in seinem Post 125 meine Erklärung, die er für richtig hält, völlig falsch. Er zitiert meine Aufstellung von "255 ist heller als 254" (Vgl. frechBengel; Post 118) und übersieht aber die Pointe darunter: "Aber nur im Farbraum steht WIE hell. Der Wert 255 sagt nichts drüber aus, wie viel heller er als 1 ist." Ich ergänze: "heller" sagt eben nicht "wie hell" und um über Dynamik zu sprechen ist das "wie hell" erforderlich. Darauf kam es mir hier an. Erst wenn durch den Farbraum festgelegt ist, wie hell diese Punkte auf einem Bild in der realen Welt zu leuchten haben, ist festgelegt, wie (!!) hell ein Wert von z. B. 230 ist.

Zuerst dachte ich, das wäre der Knackpunkt. Aber ich sitze hier, wie auch wahrscheinlich die Mehrheit aller Computerbenutzer vor einem nicht kalibrierten Monitor. Da ist es ganz einfach definiert was 0 bzw 255 bedeutet. 0 ist die vom Monitor dunkelste darstellbare Helligkeit, 255 die hellste. Der Rest wird linear aufgeteilt. Wenn dies nicht so wäre, müssten wir bei jedem Bild das wir anzeigen wollen den Bildschirm neu einstellen.

Ist es überhaupt definiert wie ein Bild mit 16bit Helligkeitswerten auf einem Handelsüblichen Monitor angezeigt werden soll? Die einzige Verwendung von Helligkeitswerten >8bit, die ich kenne sind RAW Bilder, und da muss man einen RAW-Konverter bemühen, um ein 8bit Bild zu erzeugen, und dabei eventuell sogar den Dynamikbereich, der in der RAW-Datei vorhanden ist, zu beschneiden.

Natürlich könnten wir je nach Bedarf ein eigenes Farbprofil erstellen, welches optimal zu unserem Bild passen würde, aber das tun wir ja nicht; wir halten uns an eine Vorgabe.

Genau :).

Man muss sich jetzt aber HÜTEN, aus dieser Beschränkung abzuleiten, dass man mit einem 8-Bit-JPEG "nur 8 fotografische Blenden" darstellen kann, denn DAS ist eben eine falschaussage

Genau das gleiche trifft auch auf ein ausgedrucktes Bild zu, und da scheint keiner zu sagen, das es keine Dynamik hat. Ich habe bisher weder ein Blatt Papier noch einen Bildschirm gesehen, der so hell wie die Sonne strahlt, und beim Schwarzwert verhält es sich ähnlich. Es ist dennoch möglich ein Bild von einem Sonnenuntergang auszudrucken.
 
WERBUNG
Zurück
Oben Unten