• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Das Post
Wenn ein JPEG (8 Bit) 8 Blendenstufen Dynamik besitzt, dann besitzt ein TIFF (16 Bit) 16 Blendenstufen Dynamik!?


Klingt eigentlich logisch, denn der "hellste" Wert im JPEG (dezimal 255) ist ja 8 dekadische Logarithmen kleiner als im TIFF (dezimal 65.536).

Jetzt sollte aber jedem klar sein, dass an der Argumentation da etwas nicht stimmen kann, denn das weiß im 16-Bit-TIFF ist ja genauso hell wie das weiß im 8-Bit-JPEG, und das schwarz ist auch gleich hell. Allerdings gibt es im TIFF um 8 Bit (d.h. 255mal) feinere Abstufungen zwischen schwarz und weiß.
Möchte ich (mal abgeshen von dem doch suspekten Wort "dekadische Logarithmen") noch mal zum Anlass nehmen auf einen kleinen und subtilen Zusammenhang hinzuweisen:

Man darf bei dem Wort Dynamik nicht absolut denken, es ist ja ein Quotient. Damit einher geht das (bei linearem Zusammenhang) höhere Dynamik auch höhere Auflösung bedeuten kann - und genau das ist bei dem Vergleich 8 Bit JPEG vs. 16 Bit TIFF gegeben. Genau das passier bei dem Vergleich - die hellste Stelle beleibt gleich, die Auflösung ändert sich.

Die Frage die jetzt kommt kann ich mir denken:
Wo ist dann die "Dynamik" beim 16 Bit TIFF hingegangen, wenn Weiß = Weiß?

Tja. Schauen wir uns das mal genauer an:
Mal ganz einfach linear gedacht (Kinder, macht das bloß nicht zuhause :D) hängt der Bildwert x mit einer "gedachten" Leuchtdichte E so zusammen dass das der kontinuierliche Wert E in diskrete Schritte dE eingeteilt wird.

Somit fällen die Werte [1 * dE ... 2*dE) auf x = 1 zusammen, analog geht das bis zum maximalen Bildwert x_max, welcher alle Werte oberhalb x_max * dE vereinigt.

Was ist bei Null?
Für x = 0 ergibt sich das Intervall [0 .. dE) damit ist der Erwartungswert E(x=0) mit nichten 0 sondern irgendetwas bei dE/2. Wir teilen also beim berechnen der Dynamik nicht durch 0.

Was war mit 16 Bit.
Wenn wir nun das Intervall für E nicht in 255 äquidistante Teile teilt sondern in 65535 Teile, dann ist dE auch nur noch 256tel so groß. Der Erwartungswert für (x=0) sinkt also auf ein 256tel.

Daher kann man bei gleichbleibender Helligkeit und einem linearen Zusammenhang mit 16 Bit eben doch mehr Dynamik erfassen. Dunkel wird eben dunkler - nicht Hell heller.

Ich hoffe das hat jetzt nicht zuviel Verwirrung gestiftet.

criz.
 
Ich hoffe das hat jetzt nicht zuviel Verwirrung gestiftet.

criz.

Doch hat es. Das ist keine gute Erklärung, weil sie verworren und verschwurbelt ist. Gute Erklärungen sind immer einleuchtend und intuitiv fassbar.

Dynamik ist vom Dateiformat unabhängig, Dynamik ist einfach eine Definition für in unserem Fall Helligkeitsverhalten. In welcher Präzision ich dann abspeichere, ob in 4 8 16 oder 32 Bit Pro Kanal bestimmt die Präzision der Zwischenabstufungen. >> Klar: Ein 24-Bit bild (3x8 Bit Pro Kanal) auf 16 Farben gerechnet büßt Qualität ein.
 
Zuletzt bearbeitet:
Mal von mir ein Versuch. Keine Ahnung wie intuitiv das nun ist...

Dynamik ist ganz allgemein das Verhältnis von Minimal- zu Maximalwert.
(--> Maximalwert / Minimalwert = Dynamik.)

Bei optischen Sensoren für Digitalkameras z.B. bezeichnet Dynamik das Verhältnis von maximal aufnehmbarer zu minimal wahrnehmbarer Lichtmenge, die Dynamik in der Akustik in einem Audio-System z.B. gibt das Verhältnis des lautesten und leisesten Tons an.

Die Dynamik der Sonne oder jeder Anderer Lichtquelle ist das Verhältnis von Maximalenergie zu Minimalenergie. Da eine Lichtquelle auch mal nicht sichtbar sein kann ist klar daß die abgebbare minimalmenge 1 Photon ist.

Da ein Fotosensor nur einen Teil dieser Werte aufnehmen kann, ist die fototechnisch interessante Dynamik ist damit zuerst die des Kamerasensors. Diese wird in Blendenstufen, also in Dopplungen oder Halbierungen der Lichtmenge angegeben.

Und Dynamik bei Druckern gibt das Verältnis vom hellst- zu dunkelstdruckbaren Wert an.

Dynamik ist also einfach ein Wertebereich, den ein bestimmter Prozeß (z.B. Lichtenergie- / Wärmeproduktion) oder ein technisches Gerät haben kann.

Christian
 
Doch hat es. Das ist keine gute Erklärung, weil sie verworren und verschwurbelt ist. Gute Erklärungen sind immer einleuchtend und intuitiv fassbar.
Danke.

Dynamik ist vom Dateiformat unabhängig, Dynamik ist einfach eine Definition für in unserem Fall Helligkeitsverhalten. In welcher Präzision ich dann abspeichere, ob in 4 8 16 oder 32 Bit Pro Kanal bestimmt die Präzision der Zwischenabstufungen. >> Klar: Ein 24-Bit bild (3x8 Bit Pro Kanal) auf 16 Farben gerechnet büßt Qualität ein.
Aufpassen, das in meinem letzten Post gesagte gilt nur im Falle eines (unübersehbar in Fett) linearen Zussammenhangs.
Eine Umwandlung in Palettenfarben, so wie du sie gerade vorschlägst ist alles andere, nur nicht linear.

Der Punkt auf den ich oben hinaus wolle ist einfach der, dass man bei Dynamik nicht immer nur an den Maximalwert denken darf, auch der Minimalwert kann sich ändern.

criz.
 
@crizmess: man nennt das übrigens auch die Anzahl der pro Quantisierungsstufe verwendeten Bits. Bei JPEG ist das üblicherweise ein Bit, bei 16 Bit TIFF sind's 2 Bit pro Quantisierungsstufe.

War doch ganz einfach und kurz zu erklären :)
 
Zusammenfassung des Gelernten bisher

Ich versuche mal zusammen zu bringen, was ich bisher durch wiederholtes Lesen gelernt zu haben meine. Ich bitte um Korrektur, wenn etwas falsch ist.

Spricht man über Dynamik, so muß man genau dazu sagen, die Dynamik von was man meint. Zu unterscheiden sind hier zuerst die Dynamik eines Motivs und die eines Sensors. Die Dynamik eines Motivs mißt sich im Verhältnis der in ihm befindlichen Leuchtdichten. Die Dynamik des Motivs ist somit das Verhältnis von größter Leuchtdichte kleinsten. Die Dynamik eines Sensors ist das Verhältnis der maximalen Anzahl von Elektronen, die er bei Sättigung aufnehmen kann, zu der Anzahl von Elektronen, die gerade noch als Signal anzuerkennen sind. Letzteres hat die Schwierigkeit, daß der Begriff "erkennbares Signal" einer gewissen Willkürlichkeit unterliegt, da ein vielleicht technisch noch erkennbares Signal noch lange kein Signal ist, welches selbst dem Anspruch an ein "superhighiso Bild" genügen würde.

Die Betrachtung der Dynamik des Sensors bezieht sich dabei natürlich immer auf RAW-Daten. Das heißt, daß sich Bereich als überstehlt gilt, wenn im RAW-Konverter durch reduzieren der Helligkeit und Verändern der Gradiation (um einen evtl. vorhandenen Kontrast auf dem Monitor sichtbar zu machen) aus diesem Bereich kein Kontrast mehr herausholen läßt, so daß die weiße Fläche höchstens grau wird.

Einem Bild, sofern unter Bild binären Bild-Daten eines JPGs verstanden werden, läßt sich keine Dynamik zuordnen. Der Begriff der Dynamik macht hier gar keinen Sinn. Einen Sinn erhält erhält der Begriff der Dynamik nur im Bezug auf die reale Welt. - (ich gehe hier über das Gesagte hinaus) Inwiefern ein Bild diesen Bezug hat, ist mir nicht ganz klar geworden. Einerseits kann man den Bits jeden Bezug zu einer Realität absprechen, andererseits ist in einem Bild durch den Farbraum festgelegt, wie es in einem Ausgabemedium auszusehen hätte. Da die Bits damit auf ihre Realität hin bestimmt sind, haben die Pixel wiederum eine Leuchtdichte, über die sich - unabhängig von der Sinnhaftigkeit eines solchen Wertes - aber ein Wert für die Dynamik angeben ließe. Beschränkt wäre diese Angabe der Dynamik stets durch den verwendeten Farbraum.

Der Begriff der "photographischen Blendenstufe" dient dazu, die physikalischen Größen für die photographische Praxis einfacher handhabbar zu machen. Eine Stufe entspricht der Verdoppelung bzw. Halbierung der Lichtmenge.

Man kann die Dynamik eines Sensors in Blendenstufen leicht selber messen. (Stüssis Versuche, deren Sinn und Bedeutung mich lange rätseln ließen) Man muß dafür natürlich wiederum die RAW-Daten heranziehen, die die Differenz zwischen der Sättigung und dem minimalen Signal herauszufinden. Dabei ist zu bachten, daß man über die Dynamik des Sensors spricht, und nicht über die Dynamik des wie auch immer resultierenden Bildes.

Allen schonmal einen guten Wochenausklang
frechBengel
 
zu Crizmess; Post 101

Die von Dir befürchtete Verwirrung (Zitat: "Ich hoffe das hat jetzt nicht zuviel Verwirrung gestiftet.") entspringt meiner Ansicht nach der Crux um die Realität eines Bildes. Unter dem Terminus "Realiät" ist hierbei zu verstehen, daß Werte oder Wörter eine reale Entsprechung haben. Ich kann Wörter erfinden, die nichts bedeuten. Sie haben keinen Realität. Ein Wort wie"Stuhl" hat - auch ohne daß ich einen bestimmten Stuhl meine - hingegen einen Realität, da ich jederzeit die emprische Anschauung zur Hand habe und auf einen Stuhl zeigen kann.

Die Werte eines JPGs oder TIFFs haben nur dann eine Realität, wenn sie - LGW hat auf diesen Umstand scon hingewiesen - auf einen bestimmten Farbraum bezogen sind. Hierdurch kann man - ohne daß es etwas mit Bits gleich Blendenstufe zu tun hat!! - unter Umständen sagen, daß ein 18bit TIFF mehr Dynamik hat als ein 8bit JPG.

Die Bedingung hierfür ist, daß der Farbram auf die Werte bezogen sind, dem Wert Null auch ein absolutes Schwarz zuordnet, denn Dynamik muß sich immer auf den realen Wert der Leuchtdichte beziehen. Sie hat bezogen auf die bloßen Bits keine Bedeutung. Die Dynamik errechnet sich demnach aus dem kleinsten von Null verschiedenen Wert und da dieser durch die feinere Abstufung bei 16bit kleiner ist als bei 8bit, erhalte ich einen kleineren Nenner und somit eine höhere Dynamik.

Die Aussage von Post 101 gilt demnach NICHT, wenn die untere Grenze des Farbraums kein reines Schwarz ist. Denn dann wären für die Dynamik die realen Entsprechungen für den Wert 0 relevant. Da aber der dunkelste Werte per Definition des Farbraumes in 8bit und 16bit gleich ist, wäre dann auch die Dynamik gleich.

PS: Arg abgehoben, aber wenn das jetzt richtig sit, dann habe ich eine Menge verstanden.

Gruß
frechBengel
 
@crizmess:... bei 16 Bit TIFF sind's 2 Bit pro Quantisierungsstufe.

Hmmm, und ich dachte eine Quantisierungstufe (dE) wäre immer nur das was man mit einem +1 in Verbindung bringt ????

zu Crizmess; Post 101
Die von Dir befürchtete Verwirrung (Zitat: "Ich hoffe das hat jetzt nicht zuviel Verwirrung gestiftet.") entspringt meiner Ansicht nach der Crux um die Realität eines Bildes. Unter dem Terminus "Realiät" ist hierbei zu verstehen, daß Werte oder Wörter eine reale Entsprechung haben.
Ja, im Prinzip sind wir uns einig, dass Dynamik als Begriff nur im Kontext der Messtechnik einen Sinn hat. D.h. für so etwas abstraktes wie TIFF oder JPEG muß man entweder nach Vorne schauen (Farbraum + Gamma + Monitor) oder nach Hinten (Leuchtichte + Antwortkurve des Sensors + ev. Tonwertspreitzung, etc) um überhaupt etwas wie Dynamik zu definieren.
Du schaust nach vorne, ich schaue nach Hinten, weil ich mich da eben besser auskenne.
Für die rein abstrakte Betrachtung gibt es keine Definition von Dynamik, dennoch hat die Fehler(intervall)rechung/Numerki auch ür solche Dinge Begriffe ... fragt mich aber nicht in dieser Vorlesung habe ich immer gschlafen.

...
Die Bedingung hierfür ist, daß der Farbram auf die Werte bezogen sind, dem Wert Null auch ein absolutes Schwarz zuordnet, denn Dynamik muß sich immer auf den realen Wert der Leuchtdichte beziehen. Sie hat bezogen auf die bloßen Bits keine Bedeutung. Die Dynamik errechnet sich demnach aus dem kleinsten von Null verschiedenen Wert und da dieser durch die feinere Abstufung bei 16bit kleiner ist als bei 8bit, erhalte ich einen kleineren Nenner und somit eine höhere Dynamik.

Die Aussage von Post 101 gilt demnach NICHT, wenn die untere Grenze des Farbraums kein reines Schwarz ist. Denn dann wären für die Dynamik die realen Entsprechungen für den Wert 0 relevant. Da aber der dunkelste Werte per Definition des Farbraumes in 8bit und 16bit gleich ist, wäre dann auch die Dynamik gleich.
[Wie Schwarz ist dein schwärzestes Schwarz?]

Wir sind uns einig das die Definition Dynamik nur in einem Kontext stettfinden kann. Und ich befürchte die Bettung in diesen Kontext ist essentiell um eine "vernünftige" definition von Dynamik zu bekommen.

Ich zeihe hier wieder den Erwartungwert aus dem Ärmel. Wenn ich diese Farbraumgeschichte mal als lineare Blackbox ansehe, und vorraussetzte das Weiß Weiß bleibt, dann heißt das dass im 8 Bit Fall für Null den Farbwert Schwarz 256 = ( 2^16 / 2^8 = 2^(16 - 8) ) Stufen Schwarz des 16 Bit Falls in Frage Kommen.
Also für das 16 Bit Null kommt sowas wie (auf einer rein imaginären Ansteuerungsstäkre für den Monitor):
0 .. 1
in Frage. (Weiß hat dann sowas wie 65536 als Ansteuerung)

Dann kommt für 8 Bit Null sowas eine ganze Spanne an Werten in Frage, da ja 256 Stufen des 16 Bit wertes zusammen Fallen. Also sowas wie
0, 1, 2, .... 256 * 1
in Frage. Sonst wäre das Weiß (256) bei linear nicht die Ansteuerungsstärke 65536

(Haben wir diesen Zusammenhang nicht beschnieden wir die 16 Bit in ihrer Dynamik)

Um das in einen Erwartungswert zu packen (da wir ja nicht wissen für was sich das System beim Darstellen von 8Bit-Schwarz entscheidet und wir einfach z.B. den Mittelwert annehmen kommt wieder sowas raus wie
E(0_8bit) = 1/256 E(0_16bit)


Aber mal etwas Generelles:

Wenn man sich mal das ganze anschaut, dann basiert unsere Definition auf den quantisierten Werten
[D = max/min]
auf der stillen Annahmen das sich das System linear verhält denn wir gehen davon aus das unser System sich in D Schritte unterteilen lässt und
D * min = max
gilt. D.h. das Singnal wird an jeder Stelle gleich gut aufgelöst. Nämlich mit dem Quantisierungsintervall von dE = min.
Für reine Sensordaten kann man ja gerade so noch davon ausgehen - besser wäre es die Kennline des Systems zu verwenden um wieder linear zu werden (vgl. Debevec, Robertson et al.)
Aber durch eine Farbraum und durch Gamma ist das auf der Seite hinzu Darstellung garnicht mehr gegeben.

Damit könnte man das hier wie jede gute Physikvorlesung abschließen und sagen: Das oben genannte gilt nur in einem sehr speziellen Fall (der Linearität), der aber in der Natur so nicht vorkommt. Damit können sie das ganze geschrieben getrost vergessen oder höchstens als Pi-mal-Daumen Regel betrachten.
Danke.

Für mich persönlich klingt das schon komisch. Vielleicht sollte man dazu übergehen und differenzieren zwischen sowie maximaler Auflösung und minimalen quantiserbaren Wert.
Sowas würde aber die Definition wie wir sie benutzen unbrauchbar machen.

(Um ehrlich zu sein habe ich die Definition wie wir sie Anwenden - auf die Schnelle - auch nicht gefunden - eben nur irgendwo mal im einem Audioforum gehört.)

criz.
 
Ob es bei einem digitalen Format wissenschaftlich überhaupt eine "Dynamik" gibt, rein aus der mathematischen "Zahlenlogik" heraus, ist ja auch immer noch umstritten.

Das Problem ist, wenn man den Null-Wert (schwarz) und die obere Grenze (weiss) vergleicht, so ist diese "Differenz" an Helligkeit natürlich immer gleich groß.

Unterschiede gibt es aber, wenn man den kleinsten möglichen darstellbaren Wert >0 vergleicht; wenn man das mal in eine Dezimaldarstellung umrechnet, ist der bei 8 Bit ja

1/256 = 0,00390625

und bei 16 Bit:

1/65536 = 0,00001525879

Man sieht deutlich, mit dem 16-Bit-Tiff ist ein "dunklerer" Wert darstellbar als mit dem 8-Bit-Tiff/JPEG - sogar relativ unabhängig davon, ob das ganze jetzt linear ist oder nicht, denn die beiden Werte werden wohl immer unterschiedlich "schwarz" sein!

Nun wirkt das zwar auf den ersten Blick wegen der 1-Bit-Grafik mit "schwarz" und "weiss" unplausibel, aber wenn wir genauso rechnen, wie wir es zuvor beim Sensor getan haben, nämlich mit Maximalwert und Minimal darstellbarem Wert, dann ergibt sich tatsächlich trotz der Tatsache, das schwarz schwarz ist und weiss weiss ist bei 16 Bit eine größere "Dynamik".

Das aber auch nur, wenn unsere Definition von "Dynamik" so überhaupt Sinn macht. Mehr dazu nach der nächsten Maus *kopfkratz*
 
@crizmess
Das was Du da als 1bit Graustufenbild angehängt hast, ist kein 1bit Graustufenbild der Szene aus dem anderen Bild. Du hast Dithering eingeschaltet, das die fehlenden Graustufen simuliert. Wenn Du wirklich das passende 1bit Graustufenbild haben möchtest, musst du das Dithering abschalten.
 
@crizmess
Das was Du da als 1bit Graustufenbild angehängt hast, ist kein 1bit Graustufenbild der Szene aus dem anderen Bild. Du hast Dithering eingeschaltet, das die fehlenden Graustufen simuliert. Wenn Du wirklich das passende 1bit Graustufenbild haben möchtest, musst du das Dithering abschalten.

Gutes Argument ... die Frage ist aber: Wieso?

criz.
 
Ob es bei einem digitalen Format wissenschaftlich überhaupt eine "Dynamik" gibt, rein aus der mathematischen "Zahlenlogik" heraus, ist ja auch immer noch umstritten.

"Dynamik" vielleicht nicht, aber ein maximaler Dynamikumfang wird dennoch fixiert:

Lassen wir mal Farben aus dem Spiel und betrachten nur Helligkeitswerte. Dann wird ein Dateiformat für die Repräsentation der Helligkeitswerte der Pixel Speicher vorsehen.
Umfasst der Speicher 8bit, so sind damit 2^8=256 unterschiedliche Helligkeitswerte - ich sag' jetzt absichtlich - benenn- und damit unterscheidbar. Welche Werte das sind, hängt vom mapping der Speicherwerte (der "Namen") auf tatsächliche Helligkeiten ab (das macht dann die Definition des Farbraumes).

So kann "0" für eine Helligkeit, die wir als schwarz empfinden stehen und "255" für die Helligkeit, die wir als weiß empfinden. Die übrigen 254 "Namen" verteilen wir gleichmäßig irgendwo dazwischen. Zack haben wir einen hübschen Graukeil von schwarz nach weiß in 256 Schritten. Macht mit der hier angegebenen Definition des Begriffs Dynamikumfang einen Umfang von 1:256

Und jetzt erleben wir eine Revolution: der Speicher wird billiger, das neue Datenformat sieht jetzt statt 8bit 16bit für die Repräsentation der Helligkeitswerte der Pixel vor. So sind jetzt 2^16=65536 unterschiedliche Helligkeitswerte benenn- und unterscheidbar.
Jetzt kann "0" für eine Helligkeit, die wir als schwarz empfinden stehen und "65535" für die Helligkeit, die wir als weiß empfinden. Die übrigen 65534 "Namen" verteilen wir gleichmäßig irgendwo dazwischen. Und jetzt haben wir einen hübschen Graukeil von schwarz nach weiß in 65536 Schritten. Ergibt einen Dynamikumfang von 1:65536

Huch !?

Wir stellen fest:
1.) Mit 16bit Dateiformaten sind größere Dynamikumfänge repräsentierbar, als mit 8bit
2.) Ob zur Repräsentation eines Motivs ein Dateiformat ausreicht, hängt davon ab, ob der Dynamikumfang des Motivs größer als der des Formates ist.
3.) Der repräsentierbare Dynamikumfang ist mit mehr bits gewachsen, und das sogar ohne Anwachsen des Unterschieds zwischen kleinstem und größten Helligkeitswert.
 
Gutes Argument ... die Frage ist aber: Wieso?

Weil das Dithering, das du benutzt hast, erstens als Grundlage ein Bild mit höherer Graustufen-Auflösung benutzt, und zweitens sich die Eigenschaft des menschlichen Auges zunutze macht das Bild wieder in Graustufen umzuwandeln, wenn die für das Dithering benutzten Pixel klein genug sind.

Wenn die Kamera einfach ein 1bit Bild statt einem 8bit Bild liefern würde, würden die Werte von 0 bis 127 zu 0, und die von 128 bis 255 zu 1.

Dithering ist für mich in diesem Zusammenhang so etwas wie Schummeln. Du tauscht die vorhandene Auflösung (auf Breite und Höhe bezogen) in eine vorgetäuschte Graustufenauflösung.
 
Weil das Dithering, das du benutzt hast, erstens als Grundlage ein Bild mit höherer Graustufen-Auflösung benutzt, und zweitens sich die Eigenschaft des menschlichen Auges zunutze macht das Bild wieder in Graustufen umzuwandeln, wenn die für das Dithering benutzten Pixel klein genug sind.
Nicht nur die Fähigkeit des Auges. Auch unser Sensor in der Kamera macht aus einem stochatisch auftretende Ereigniss (Photon schlägt ein Elektron in das LeiterBand des Halbleiters) ein "diskretes" lineares Signal. Wir bilden sozusagen die Wahrscheinlichkeitsverteilung über einen stochastischen Prozess.

Am Rande: Ich mir nichtmal die Eigenschaft des Auges richtig zunutze gemacht ... ich habe den Wert nämlich linear auf die Anzahl der weißen Pixel umgerechnet .. das ist eigentlich entgegen unserem Sehverhalten.

Naja, who cares.

Wenn die Kamera einfach ein 1bit Bild statt einem 8bit Bild liefern würde, würden die Werte von 0 bis 127 zu 0, und die von 128 bis 255 zu 1.

Dithering ist für mich in diesem Zusammenhang so etwas wie Schummeln. Du tauscht die vorhandene Auflösung (auf Breite und Höhe bezogen) in eine vorgetäuschte Graustufenauflösung.

Exakt, das schöne an der Mathematik ist das man ungestraft an allen Parametern drehen darf. Das ist eben auch der Zusammenhang den ich zeigen wollte: Auflösung und Dynamik hängen wenn man das gesamte Bild betrachtet direkt zusammen. Man kann sozusagen Dynamik in uflösung oder Auflösung in Dynamik umtauschen (wenn wir uns darauf geeinigt haben was Dynamik eigentlich ist)

Das geht soweit das es sogar den Prozess des photographierens beeinflußt. Erhöht man die Auflösung eines Sensors, so macht man die Fläche der Photosies kleiner, damit aber auch die Zahl der beobachtbaren stochastischen Ereignisse einer Photosite - damit schwindet die mögliche Eingangsdynamik dahin und wird ersetzt durch Auflösung.

Im Prinzip könnte man einen (Schwarzweiß) Sensor konstruieren der die Orte (im Rahmen der Heisenbergschen Unschärfe) der einzelnen Ereignisse (Photon trifft auf) registriert. Seine Dynamik wäre wie das 1 Bit Bild: Photon da oder nicht da. Die gesamtdynamik würde sich aber nicht sonderlich von der heutiger Kameras unterscheiden (bei gleichen Belichtungszeiten).

Anbei übrigens deine angesprochene Schwellwertumwandlung - zwar nicht so wie du es meinst bei 128 sondern hier beim Median.

criz.
 
@Hafer

Du widersprichst mit Deinem Post dem Stand der Diskussion. Ich hoffe ich habe das soweit richtig verstanden. (?) Ich halte Deine Ansicht für falsch. Du folgerst über mögliche Helligkeitsabstufen (entsprechend der Bittiefe) direkt auf einen Dynamikumfang.

Lassen wie Du gefordert hast Farben aus dem Spiel. Deiner Meinung nach ist der hellste Grauwert von 255 genau 255 mal so hell wie dunkelste und von Nullverschiedene Grauwert 1.

Sobald Du dann aber 16bit einführst, ändern sich gemäßt Deiner Scihtweise nicht die Anzahl der Abstufungen, sondern der hellste Wert wird plötzlich heller oder der dunkelste Wert dunkler. Das sogar um den Faktor 256, so daß man dann plötzlich ein entsprechend höheren Dynamikumfang hat.

Hier sollte die Ungereimtheit klar werden: Durch mehr Bits wird hell nicht heller. Oder laß Dich fragen: Warum ist bei 16bit das hellste Weiß 65536mal heller als das dunkelste Grau, und bei 8bit nur 256fach so hell?

Wenn Du diese Frage mit Deinem Posting beanwortest und noch mal 2^8 und 2^16 vorrechnest, drehen wir uns im Kreis. - Die Helligkeit Deiner Werte hat erst druch einen Farbraum Bedeutung. Vorher ist es nur einen Menge von Zahlen und diese Mengen haben keinen Dynamikumfang. Oder würdest Du der Menge M={3,7,11} den Dynamikumfang D=11/3 zuordnen?

Ich möchte jetzt nicht bestreiten, daß die Farbwerte einen Bedeutung haben. Aber sie sagen nicht genug, um etwas über die Dynamik auszusagen. Sie Bedeutungen und zwar folgende:

255 heißt in einem 8bit-Farb-Modell: maximale Helligkeit
254 heißt dunkeler als 255, heller als 253.
253 heißt dunkeler als 254, heller als 252
usw.

65536 heißt in einem 16bit-Farb-Modell: maximale Helligkeit
65535 heißt dunkler als 65536, heller als 65534
usw.

Aber nur im Farbraum steht WIE hell. Der Wert 255 sagt nichts drüber aus, wie viel heller er als 1 ist.

Gruß
frechBengel
 
@crizmess

Jetzt verstehe ich zumidnest, was Du in Post 111 sagen wolltest. - Ich kann soweit nur antworten, daß es mich verwirrt.

Gruß
frechBengel
 
@crizmess
Ich kann nicht behaupten, dass ich Deinen letzten Post 100%-ig verstanden habe. :)
Ich wollte lediglich aufzeigen, dass ein 1bit Sensor niemals ein gedithertes (gibt es das Wort überhaupt?) Bild liefern kann, sondern so eins wie in Deinem letzten Post. Ich hoffe wir sind uns da einig.

@ALL
Ich bin immer noch nicht überzeugt, dass ein 8 oder 16bit Bild keine Dynamik hat (ich bin allerdings auch nicht vom Gegenteil überzeugt). Was unterscheidet ein JPEG von einem ausgedrucktem Foto? Das JPEG ist genauso eine Darstellung des aufgenommenen Motivs wie auch das ausgedruckte Foto. Und die Helligkeitswerte im Ausdruck sind definitiv anders als die im Originalmotiv (genauso wie auf jedem Bildschirm, egal ob kalibriert oder nicht). Die Erklärung das das JPEG keine Dynamik hat, weil man es nicht direkt sehen kann, reicht mir nicht.

Was ist eigentlich, wenn ich mir das ausgedruckte Bild in einem Raum anschaue, der so Dunkel ist, dass mein Auge die Details in den dunklen Bereichen nicht mehr auflösen kann? Ändert sich dadurch die Dynamik des ausgedruckten Bildes?

Und inwiefern hat Dynamik etwas mit der Graufstufenauflösung zu tun, wie von crizmess angesprochen?
 
WERBUNG
Zurück
Oben Unten