• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2024.
    Thema: "Diagonale"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Ich kann verstehen, dass die Gleichsetzung von Bit und Blende irgendwie attraktiv erscheint (ist ja alles irgendwie was mit Basis 2 ) , falsch ist sie trotzdem!

Der Gedanke dahinter ist ja immer folgender:

1. beim Bild ist ein "doppelter Wert doppelt so hell", per Definition der Video-Ansteuerung (D/A-Wandler in Grafikkarte + Monitor). Das ist zwar schon als Grundlage falsch, wenn ein Gamma von 2,2 eingestellt ist, aber das kann man ja einfach mal wegignorieren

2. wird dann einfach gerechnet: "wenn 128 doppelt so hell ist wie 64, dann ist quasi b10000000 doppelt so hell wie b01000000, jedes "Bit" bringt somit gemäss 2^n eben doppelte Helligkeit"

3. und jetzt kommt der Fehler: "das entspricht dann also einer fotografischen Blenden(stufe)".

Und 3. ist eine zwar theoretisch "haltbare", praktisch jedoch völlig wertlose Aussage, weil die "fotografische Blendenstufe" in einem rein digitalen (nicht sichtbaren/angezeigten Bild) eigentlich keine Bedeutung hat.

Weil in die eine Richtung (bis hin zur physikalischen Blende) noch RAW-Entwickler, Tonwertkurve, und Sensorphysik kommen, und in die andere Richtung (bis hin zum wieder sichtbaren Bild) eben noch LUT von Grafikkarte und TFT, die Physik der Kathodenstrahlröhre und des Leuchtmediums, Papier und Reflektionsfähigkeit, und so weiter kommen.

Da der Begriff der "fotografischen Blende" beim Digitalbild eigentlich nichts zu suchen hat, von vielen aber erstens verwendet, und dann fatalerweise gleich noch zweitens in der Bedeutung gleichgesetzt wird mit "dem, was die Kamera in Tiefen und Lichtern an "Auflösung" resp. "Zeichnung" zu liefern vermag", entsteht diese völlige Verwirrung.

Da das Internet den Wikipedia-Artikel leider nicht vergessen wird, bleibt nix anderes als eine fundierte Gegenthese aufzustellen.
 
Wenn ich den realen Dynamikumfang wissen möchte und dazu unbedingt noch in Blendenstufen, dann nehme ich den Belichtungsmesser. OK, bei dem Mond hätte der auch versagt.

Dann misst Du aber den Dynamikumfang des Motivs, was bei Deinem S/W JPEG schwer moeglich sein duerfte.

Und: Natuerlich hat ein JPEG-Bild einen gewissen Dynamikumfang. Ich muesste die JPEG-Definition raussuchen, aber wenn da drin steht, dass der doppelte Wert der doppelten Helligkeit entspricht, dann kann man daraus den Dynamikumfang berechnen. Dass die Darstellung auf dem Monitor einen anderen Dynamikumfang hat oder haben kann, ist mir klar.
 
Und: Natuerlich hat ein JPEG-Bild einen gewissen Dynamikumfang. Ich muesste die JPEG-Definition raussuchen

Die wird dir da wenig weiterhelfen. Die Interpretation der Zahlenwerte in den Farbkanälen des JPEGs, inklusive der Luminanzinterpretation, hängt am Farbprofil :)
 
Dann misst Du aber den Dynamikumfang des Motivs, was bei Deinem S/W JPEG schwer moeglich sein duerfte.
Es ist überhaupt nicht möglich. Wobei ich nie vorhatte bei meinem JPG diesen überhaupt zu messen, ist übrigens kein S/W.

Weil ...
Und: Natuerlich hat ein JPEG-Bild einen gewissen Dynamikumfang. Ich muesste die JPEG-Definition raussuchen, aber wenn da drin steht, dass der doppelte Wert der doppelten Helligkeit entspricht, dann kann man daraus den Dynamikumfang berechnen. Dass die Darstellung auf dem Monitor einen anderen Dynamikumfang hat oder haben kann, ist mir klar.
... eben nicht, du kannst einem JPG maximal (Helligkeits-)Abstufungen beimessen, alles andere ist nicht sinnvoll.


Nochmal: Dynamikumfang Motiv -> Blackbox/Gamma/Tonemapping -> Bild ... Dynamikumfang? > Ausgabegerät ... Dynamikumfang?
 
Versuchen wir es nochmal:

Ein JPEG hat KEINEN Dynamikumfang! Es legt Abstufungen der Helligkeit fest, was heißt das?

Helligkeit = X * 2^N - X wenn N die Bittiefe ist. Was das X nun für einen Wert bekommt steckt in der JPEG Datei aber nicht drin, sondern hängt z.B. vom verwendeten Monitor ab.


Da der Maximalwert somit aber unbestimmt ist (genau wie der Minimalwert) können wir auch den Dynamikumfang an dieser Stelle nicht angeben.
 
Da der Maximalwert somit aber unbestimmt ist (genau wie der Minimalwert) können wir auch den Dynamikumfang an dieser Stelle nicht angeben.

Und bevor jetzt doch einer ausruft "kann man aber doch, weil das doch nur der Quotient ist und den kann man einfach berechnen *tipptipp*" - nein, kann man eben nicht.

Also, kann man schon, wenn die Helligkeitswerte resp. die vom "Standard vorgeschriebene Interpretation der Zahlen" ein lineares Verhalten zeigen würden.

Eben das tun sie aber insbesondere im sRGB mit Gamma 2,2 schon nicht - und das dürfte das "unkalibrierte Standard-Szenario" sein.
 
Sehr spannend was hier gesammelt wird!

Zur Definition der "Dynamik" kann ich nichts sagen.
Ich kann aber mal mit anderen Worten erklären, warum die Bittiefe nichts mit Dynamik zu tun haben kann/muss:

Zwischen "so hell" und "doppelt so hell" liegt eine sogenannte "Blendenstufe". Nun wird oft der Fehler gemacht und gesagt: "mit jedem Bit kann ich eine Blendenstufe mehr speichern".
Falsch!

Denn: zwischen "so hell" und "doppelt so hell" liegen ja auch, theoretisch, unendlich viele Zwischenstufen! Sollte ich nun entscheiden diese Zwischenstufen zu differenzieren und zu speichern, dann hängt die benötigte Bittiefe davon ab, wie fein ich jeweils eine Blendenstufe auflösen möchte!

Also nehmen wir mal 8 bit und betrachten nur hell/dunkel (also reines Grau):
- Bei 8 Bit kann ich genau 256 unterschiedliche Werte speichern. 256 unterschiedliche Grauwerte.
- Das bedeutet aber NICHT, dass eine "0" = schwarz ist und eine "255" = weiß! Es bedeutet, dass ich 256 verschiedene Grauwerte differenzieren kann.
- Das bedeutet: Es könnten auch 256 Grauwerte zwischen "blatt Papier weiß" und "Apple-keyboard weiß" sein. Oder 256 Abstufungen zwischen "mittelteil einer Lautsprechermembran schwarz" und "dem rand der Membran schwarz"

Man kann also 8 Bit durchaus verwenden um nur eine einzige "fotografische Blendenstufe" zu speichern und dennoch alle Werte voll auszureizen - einfach weil man diese eine Stufe möglichst differenziert aufgelöst haben möchte.

Sollte man sich tatsächlich dazu entschließen ganze 8 Blendenstufen zu speichern, dann kann man natürlich auch 8 Bit dazu verwenden... Aber WIE diese genutzt werden ist auch wieder davon abhängig wo man wie fein auflösen möchte... man könnte ganz linear für jede Blendenstufe 32 Werte nutzen (32*8 = 256). Oder man stuft es wirklich binär ab. Dann stünden für die helleren (wenn es so herum definiert wird; gemeint: die größeren Werte) mehr Abstufungen zur Verfügung als für die unteren Werte.

Also: Bittiefe hat nichts mit dem möglichen Dynamikumfang zu tun sondern nur damit, wie fein - wie differenziert - man eine mögliche (oder gewünschte) Dynamik digital gespeichert bekommt.
 
Ist das so? Dann hab ich auch wieder was gelernt...ich war bisher davon ausgegangen, dass im JPEG RGB Werte abgelegt sind und die laufen nun mal von 0,0,0 (Schwarz) bis 255,255,255 (weiß).
 
Ist das so? Dann hab ich auch wieder was gelernt...ich war bisher davon ausgegangen, dass im JPEG RGB Werte abgelegt sind und die laufen nun mal von 0,0,0 (Schwarz) bis 255,255,255 (weiß).

so einfach ist es halt nicht, da es von der Kontrastspreizung abhängt wie zB der Wert 5 definiert ist ... wenn ich aus dem RAW Bild ein jpg generiere in dem dunkelgrau zu 234 wird, dann ist der dunkelgraue Teil nicht mehr dunkelgrau sondern sieht fast weiss aus ...
 
255 ist der hellste Wert, aber ist halt alles sehr relativ.. Ist Mehl weiß? Ja, solange man kein Backpulver daneben hält. Und wenn die Sonne scheint wirds noch weisser.
 
Gamma 1,5 in der macwelt..

Der Mac ist neuerdings "Standard", was die weltweit benutzten Anzeigegeräte angeht? Ich hatte schon einen Grund, warum ich "unkalibriertes Standard-Szenario" geschrieben habe, und nicht "generell" oder "bei allen PCs" oder etwas ähnliches.

Ist das so? Dann hab ich auch wieder was gelernt...ich war bisher davon ausgegangen, dass im JPEG RGB Werte abgelegt sind und die laufen nun mal von 0,0,0 (Schwarz) bis 255,255,255 (weiß).

Korrekt. Aber wenn ich dich auf den Markt schicke, und sage "kauf mal 8,5 Mehl und 2 Milch" - was wirst du mich fragen?

Richtig, nach der Maßeinheit. Die Zahlen im JPEG sind quasi "dimensionslos". Erst wenn ein Farbprofil samt Gamma angegeben wird, bekommen sie eine Bedeutung als Farbe und Helligkeit. Was der Monitor dann noch daraus macht, und die Grafikkarte, und das Farbmanagement des Betriebssystems... da passiert einiges. Für die Bedeutung der Zahlen als "soll" jedoch spielt das Farbprofil (sofern vorhanden) eine Rolle. Falls nicht vorhanden, theoretisch eben sRGB mit nem Gamma von 1,8 oder 2,2 je nach Betriebssystem... :eek:
 
Dann will ich mal eine ganz provokante These in den Raum stellen:

Wenn ein JPEG (8 Bit) 8 Blendenstufen Dynamik besitzt, dann besitzt ein TIFF (16 Bit) 16 Blendenstufen Dynamik!?


Klingt eigentlich logisch, denn der "hellste" Wert im JPEG (dezimal 255) ist ja 8 dekadische Logarithmen kleiner als im TIFF (dezimal 65.536).

Jetzt sollte aber jedem klar sein, dass an der Argumentation da etwas nicht stimmen kann, denn das weiß im 16-Bit-TIFF ist ja genauso hell wie das weiß im 8-Bit-JPEG, und das schwarz ist auch gleich hell. Allerdings gibt es im TIFF um 8 Bit (d.h. 255mal) feinere Abstufungen zwischen schwarz und weiß.

Somit muss man zwingend Bittiefe und Dynamik unterscheiden, was ja viele Poster vor mir auch schon schrieben.
 
Ich hab das Gefühl wir reden aneinander vorbei...aber ich denke lieber noch mal ne Runde nach ehe ich hier unnötig Verwirrung stifte.

Können wir uns in der Zwischenzeit darauf einigen, dass der Gammawert die Gradation in verschiedenen Helligkeitsbereichen beeinflusst, aber nichts mit der Dynamik zu tun hat?
 
Dann will ich mal eine ganz provokante These in den Raum stellen:

Wenn ein JPEG (8 Bit) 8 Blendenstufen Dynamik besitzt, dann besitzt ein TIFF (16 Bit) 16 Blendenstufen Dynamik!?
Darf ich da noch einen draufsetzen?

Was passiert eigentlich mit der Dynamik, wenn das Motiv einen geringeren Kontrastumfang hat, als die Kamera, bzw. der Sensor einfangen könnte?


Wird die überschüssige Dynamik dann abgeschnitten oder zusammengequetscht?
 
Was passiert eigentlich mit der Dynamik, wenn das Motiv einen geringeren Kontrastumfang hat, als die Kamera, bzw. der Sensor einfangen könnte?

Wird die überschüssige Dynamik dann abgeschnitten oder zusammengequetscht?

Genau so! Sieht man schön im Histogramm - einfach mal an einem nebligen Tag losziehen ;)
 
Genau so! Sieht man schön im Histogramm - einfach mal an einem nebligen Tag losziehen ;)
Ja, was denn nun? Zusammengequetscht oder beschnitten? Dann könnte man daraus doch den Schluss ziehen, dass die Ausgabedynamik (der Bildkontrast) in keinem direkten Zusammenhang zur Eingangsdynamik (Dynamikumfang des Sensors) steht? Außer dass die Eingangsdynamik die Grenzen der Ausgangsdynamik vorgibt, natürlich. Dummerweise läßt das Histogramm auch nur Rückschlüsse auf die Ausgangsdynamik, bzw. das fertig verarbeitete Bild zu. Man könnte sich auch eine spezielle Nebelwetter-Gradationskurve schreiben und in die Kamera laden, den Dynamikumfang der Kamerahardware würde das aber nicht verändern, nur den Output (den Bildkontrast).
 
Ja, was denn nun? Zusammengequetscht oder beschnitten?
Im Prinzip wird die Dynamik des Motivs immer zusammengequetscht UND beschnitten. Nicht nur im Nebel.

Dann könnte man daraus doch den Schluss ziehen, dass die Ausgabedynamik (der Bildkontrast) in keinem direkten Zusammenhang zur Eingangsdynamik (Dynamikumfang des Sensors) steht?
Genau den Schluss ziehe ich auch!(y)

Außer dass die Eingangsdynamik die Grenzen der Ausgangsdynamik vorgibt, natürlich.
Noch nicht mal das. Schau dir als Beispiel mal ein Dia in hochqualitativer Projektion an. Da kann der Ausgabekontrast sogar höher sein als die Eingangsdynamik.

Dummerweise läßt das Histogramm auch nur Rückschlüsse auf die Ausgangsdynamik, bzw. das fertig verarbeitete Bild zu.
Genaugenommen auch nicht auf die Ausgangsdynamik (die ist ja als letzter Schritt im "Anzeigeworkflow" vom Anzeigemedium abhängig), sondern auf die Tonwertverteilung. Von der Tonwertverteilung könnte man aber durch eine Kalibration (bei gleichen Bearbeitungsparametern, wie PictureStyles oder RAW-Parameter) auf die Motivdynamik schließen, sofern diese in die Dynamik des Sensors passt.

Man könnte sich auch eine spezielle Nebelwetter-Gradationskurve schreiben und in die Kamera laden, den Dynamikumfang der Kamerahardware würde das aber nicht verändern, nur den Output (den Bildkontrast).
Ja, man muss nur den Kontrast hochdrehen, und schon sieht man den Effekt...
 
Ansonsten glaube ich nicht, dass irgendjemand noch was sinnvolles mit diesem verkopften Thread anfangen kann, wenn er vor dem Problem steht ein Bild zu machen ... sorry

Das mit dem "verkopft" ist immer so eine Sache. Ich weiß halt gern wie Dinge funktionieren. Dann muß ich mich nicht an das gewünschte Ergebnis herantasten. Dadurch ist man im Zweifelsfalle wesentlich schneller, und das hilft nun wirklich beim Bilder machen, auch wenn das Herantasten heute nicht mehr mit Fotoplattenwechsel im Dunkelzelt verbunden ist. "Eine gute Theorie ist die beste Praxis." (Max Planck, glaube ich).
 
WERBUNG
Zurück
Oben Unten