• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Die Frage die sich für mich bisher nicht geklärt hat: Wie kann man das für einen Fuji SuperCCD übertragen?

Im Extremfall könnte ich ja sagen ich baue eine Kamera mit normalen Pixeln und einem zusätzlichen Sensor, der mir sagt ob der Sensor an einem bestimmten Pixel geschmolzen ist, aber nur mit einem bit pro Pixel: "geschmolzen" / "nicht geschmolzen" - was erst bei einem sehr hohen Signal passieren würde. An diesem Gedankenexperiment sieht man, dass es beim SuperCCD von Fuji eigentlich nicht fair ist, die Sättigung vom kleinen Pixel in ein Verhältnis zum Rauschen im großen Pixel zu setzen. Ein einzelnes Pixel, das das gleiche Rauschen und die gleiche Sättigungsgrenze hätte wäre ja überlegen.
Es stimmt schon, dass das kleine Pixel gröber quantisieren dürfte, als das große - zumindest wenn man die Gesamtkette aus Photonenzahl auf der summierten Gesamtpixelfläche (R+S) pro digitaler Nummer betrachtet. Da die Signale der kleinen Pixel aber ohnehin nur in den Lichtern hinzumoduliert werden, geschieht dies nur dann, wenn das Schrotrauschen (shot noise) ohnehin bereits die weitaus dominante Rauschkomponente ist. Zudem werden die aus den kleinen Pixeln gewonnenen Abstufungen auch noch untergewichtet, um ein weiches Abregeln der Gradationsfunktion in den Lichtern zu erzielen. Im Resultat wird daher eine gröbere Quantisierung des kleinen Pixels nicht erkennbar werden.

Es könnte sein, dass in Zukunft spezielle, nicht-linear arbeitende CMOS-Sensoren auch für die Fotografie an Bedeutung gewinnen. Spätestens dann ist der Dynamik-Begriff um Betrachtungen zu eben dieser nicht-Linearität zu erweitern.
 
Neben YCbCr-Jpgs gibt es auch noch CMYK-Jpgs, sind aber sehr unüblich.
Die Darstellung des Jpg-Algorithmus gefällt mir, aber was hat die Quantisierungstabelle mit der Dynamik zu tun? Die Dynamik bezieht sich doch auf Helligkeit, nicht Frequenzen?
Man könnte sagen, daß die Artefakte Rauschen hinzufügen und damit der Dynamikumfang sinkt.
Daß dei Quantisierungstabelle irgendwie an die Frequenz-Wahrnehmung des Auges angepasst wäre würde ich so auch nicht sagen, die Anpassung ans Auge steckt in der YCbCr-Umrechnung un dem Subsampling der beiden Farbkanäle. Die Qunatisierungstabelle wird eher doof hergeleitet, die sehen eigentlich immer so simpel wie das Snoop-Beispiel aus.
 
Neben YCbCr-Jpgs gibt es auch noch CMYK-Jpgs, sind aber sehr unüblich.
JFIF is compatible with Adobe Photoshop's JPEG "Information Resource Block" extensions, and IPTC Information Interchange Model metadata, since JFIF does not preclude other application segments, and the Photoshop extensions are not required to be the first in the file. However, Photoshop generally saves CMYK buffers as four-component "Adobe JPEGs" that are not conformant with JFIF. Since these files are not in a YCbCr color space, they are typically not decodable by Web browsers and other Internet software.
Die Darstellung des Jpg-Algorithmus gefällt mir, aber was hat die Quantisierungstabelle mit der Dynamik zu tun? Die Dynamik bezieht sich doch auf Helligkeit, nicht Frequenzen?
Man könnte sagen, daß die Artefakte Rauschen hinzufügen und damit der Dynamikumfang sinkt.
Das ist schon richtig, vielmehr hat aber anzahl der möglichen Helligkeitsabstufungen mit der Dynamik zu tun. Ein Element der Quantisierungsmatrix kann auch mehr als 8 Bit Auflösung haben, nur eben bei JPEG nicht.
Daß dei Quantisierungstabelle irgendwie an die Frequenz-Wahrnehmung des Auges angepasst wäre würde ich so auch nicht sagen, die Anpassung ans Auge steckt in der YCbCr-Umrechnung un dem Subsampling der beiden Farbkanäle. Die Qunatisierungstabelle wird eher doof hergeleitet, die sehen eigentlich immer so simpel wie das Snoop-Beispiel aus.
Natürlich ist die Umwandlung in YCbCr der erste Schritt zur Anpassung an das menschliche Sehvermögen, es ist prinzipiell aber erstmal nur eine andere Darstellungsweise, rein theoretisch (also bei ohne Rundungsfehler) hat man dadurch erstmal keine Verluste. Aber du hast durch den YCbCr Farbraum die relevanten Komponenten so getrennt, dass du sie entsprechend der Emfpindlichkeit es Auges getrennt verarbeiten und optimieren kannst. Bei Jpeg eben in der Form, dass das Auge erstmal die meisten Informationen aus den Helligkeitsabstufungen gewinnt. Demnach wird der Helligkeitsanteil Y nicht unterabgetastet. Die Farben hingegen sind weniger relevant, also kann man sie, ohne dass man es wirklich merkt, mit geringerer Auflösung speichern. Weiterhin kann das Auge bestimmte Farbabstufungen nicht mehr Wahrnehmen, also werden Farbverläufe z.B. anstatt mit 20 Abstufungen z.B. nur durch 10 Farbabstufungen ersetzt, ohne dass man es sieht. Wenn die Komprimierung jedoch höher wird, werden die Abstufungen noch weniger, das wiederum hat Farbabrisse zu Folge, die man z.B. bei einem Foto eines Himmels sieht.
Du kannst ja mal ein RAW nehmen und die Anzahl der tatsächlich genutzten Farben zählen lassen. Dann wandelst du das Bild mal in JPEG um, einmal mit 100%, dann mit 80% usw. Du wirst jedes mal Feststellen, dass die Farben immer weniger werden. Und zwar in der Form, dass zunächst "feine Farben" gröber dargestellt, denn die höher frequenten Anteile werden als erstes mit geringerer Farbauflösung gespeichert.
Genau der gleiche Grundgedanke ist es auch gewesen, als vor Dekaden die PAL-Übertragung erfunden wurde. Auch hier wird ein ähnlicher Farbraum verwendet: YUV. Auch hier werden Hellgikeits- und Farbinformation getrennt übertragen und der Farbanteil nur in halber Auflösung.
Bei RGB-Bildern ist der Helligkeitsanteil nicht getrennt gespeichert sondern er befindet sich in jedem einzelnen RGB-Tupel, darum würde es sich nicht so optimal komprimieren lassen. Hier greift man dann eher zu Entropiekodierung wie z.B. bei PNG (aber auch hier werden zuvor erst die Differenzen ermittelt, da diese Werte sich besser komprimieren lassen). Zudem ist es dann auch verlustlos.
 
Zuletzt bearbeitet:
Mal ein Beispiel:
- 16-Bit Tiff (aus Raw)
- JPEG (aus dem Tiff, etwas getrickst, maximale Qualität)
beide um 6EV gepusht.

Ich seh keine nennenswerten Differenzen im Dynamikumfang. Auch keine Tonwertabrisse. Im JPEG sind lediglich allerfeinste Details (eher als Rauschen zu bewerten) verlorengegangen.

Allerdings muss ich dafür im JPEG einen höheren Gamma-Wert verwenden als in sRGB vorgesehen. Damit gehen in den hellen Bereichen Abstufungen verloren:
Im Beispiel waren im JPEG noch 37 statt der bei sRGB üblichen 68 Abstufungen für die Helligkeitswerte über 50% verwendet. Für mich aber ebenfalls nicht sichtbar. Ich kann die beiden bei 100%-Ansicht nur durch minimal reduzierte Schärfe nicht aber bei den Farb-/Helligkeitsabstufungen unterscheiden.

Wenn die Dynamik beschränkt wird, dann durch den Farbraum (i.d.R. sRGB) in Verbindung mit 8-Bit. Die Verluste durch JPEG (bei max. Qualität allerdings ohne Chroma-Subsampling) sind eher vernachlässigbar.
 
ohne jetzt auf die vorherige Diskusion einzugehen:

Dynamik ist keine Frage der Speicherung (JPG, RAW) sondern der Interpredation (Farbraum) durch die Software. Man kann mit einem Bit eine beliebige Dynamik speichern. Ein normaler Lichtschalter hat die Information von einem Bit. Welche Dynamik ich habe hängt eigenlich nur davon ab welcche Glühbirne ich schalte.
 
Natürlich ist es so, dass die minimale und maximale Helligkeit im JPEG und RAW gleich ist. Denn auch wenn ein Bild 32 Bit/Farbe auflösung hat, so ist immer ein Schwarz (alle Farbwerte = 0) und immer ein Weiß (alle Farbwerte = 2^Farbtiefe) vorhanden. Nur die zwischen Abstufungen sind unterschiedlich. Jpeg hat eben nur 8 Bit und RAW 10, 12 oder 16 Bit. Diese Farbabrisse sind natürlich nicht immer zu sehen, sondern besonders dann, wenn der Farbverlauf sehr gleichmäßig/geradlinig ist. Bei deiner Blume ist es ja so, dass sie Struktur aufweist und somit der Farbverlauf eine Art "natürliches Dithering" hat, wodurch die Farbabrisse nicht mehr so stark auffallen (Dithering wird ja z.B. auch dann verwendet, wenn man ein 24 Bit Bild in ein 8Bit Gif umwandelt)
Ich habe mal ein etwas besseres Beispiel rausgesucht. Im folgenden Bild kann man es ganz gut sehen. Rechts RAW, Links JPEG mit 100% Qualität (kein Subsampling). Das ganze ist 200% vergrößert und der Tonwertumfang ist reduziert damit man es erkennen kann und natürlich auch deswegen damit man es nach der Umwandlung in JPEG hier für das Forum noch erkennt, nun sind ja beide Varianten der JPEG-Komprimierung unterworfen. Mann kann sehr schön sehen, dass die JPEG Version wesentlich weniger Farbabstufungen enthält.
Wenn ich von dem Ausgangsbild das RAW Bild in ein 24 Bit TIF speichere (also 8 Bit pro Farbe), und dann die Farben Zähle komme ich auf ~400000 Farben. Wenn ich die Farben aus dem in 100% Qualität gespeichertem JPEG zähle habe ich gerade mal 174000 Farben. Ich habe also alleine durch die Jpeg Kompression einen Farbverlust von 57%. Das macht aber praktisch nichts, weil unser Auge diese feinen Abstufungen eh nicht wahrnehmen würde, erst wenn es um die nachträgliche Bildbearbeitung geht macht sich das bemerkbar, eben z.B. beim Aufhellen/Abdunkeln, Kontrasterhöhung etc. Aber es ist ja auch der Hintergedanke des JPEG-Formats, nur das Speichern, was auch wirklich nötig ist.
 
Zuletzt bearbeitet:
Das ist schon richtig, vielmehr hat aber anzahl der möglichen Helligkeitsabstufungen mit der Dynamik zu tun.
Oh, ich hab irgendwann mal aus der Diskussion in einem Thread für mich mitgenommen, daß der Dynamikumfang unabhängig von der Anzahl der Stufen ist. Man kann ihn nur sinnvoll angegeben, wenn man die Werte für die Berechnung mit einer Maßeinheit versehen und so in eine physikalische Größe umrechnen kann. Für ein 8Bit-Bild würde man den Dynamikumfang sonst als 255/1=255 (höchster Wert / kleinster vom Rauschen unterscheidbarer Wert) berechnen, völlig unabhängig davon, ob man ein Bild mit einem Helligkeitsumfang von 1 Blende per TWK aufgeblasen oder ein DRI mit 15 Blenden zusammengequetscht hat. Vielleicht war das dieser Thread hier, keine Ahnung, ist schon länger her... Eine Einigung auf eine Definition von Dynamikumfang gab es jedenfalls am Ende nicht :) Wikipedia spricht auch davon, daß die Einhit "Bits" für den Dyamikumfang etwas "Kitzlig" ist.
Weiterhin kann das Auge bestimmte Farbabstufungen nicht mehr Wahrnehmen, also werden Farbverläufe z.B. anstatt mit 20 Abstufungen z.B. nur durch 10 Farbabstufungen ersetzt, ohne dass man es sieht. Wenn die Komprimierung jedoch höher wird, werden die Abstufungen noch weniger, das wiederum hat Farbabrisse zu Folge, die man z.B. bei einem Foto eines Himmels sieht.
Hm, ich meine Jpg reduziert keine Farbabstufungen, zumindest nicht absichtlich. Wäre ja auch komisch, wenn beim Überlagern von niedrigen Frequenzen plötzlich starke Sprünge auftauchen könnten. Bei so langen Verläufen mit so tiefen, "flachen" Frequenzen wie in einem Himmel passiert es aber schnell, daß nach Anwendung der Quantisierungsmatrix nichts erhaltenswertes übrig bleibt. Nur der Durchschnitt des 8*8-Blocks bleibt übrig, und es bilden sich grobe Farbabstufungen an Klötzchengrenze.

Aber wie auch immer, ich meine, die Quantisierungstabelle verändert den Dynamikumfang nicht - vom Rauschen durch Jpg-Artefakte mal abgesehen.
 
Zuletzt bearbeitet von einem Moderator:
Oh, ich hab irgendwann mal aus der Diskussion in einem Thread für mich mitgenommen, daß der Dynamikumfang unabhängig von der Anzahl der Stufen ist. Man kann ihn nur sinnvoll angegeben, wenn man die Werte für die Berechnung mit einer Maßeinheit versehen und so in eine physikalische Größe umrechnen kann. Für ein 8Bit-Bild würde man den Dynamikumfang sonst als 255/1=255 (höchster Wert / kleinster vom Rauschen unterscheidbarer Wert) berechnen, völlig unabhängig davon, ob man ein Bild mit einem Helligkeitsumfang von 1 Blende per TWK aufgeblasen oder ein DRI mit 15 Blenden zusammengequetscht hat. Vielleicht war das dieser Thread hier, keine Ahnung, ist schon länger her... Eine Einigung auf eine Definition von Dynamikumfang gab es jedenfalls am Ende nicht :) Wikipedia spricht auch davon, daß die Einhit "Bits" für den Dyamikumfang etwas "Kitzlig" ist.
Gut vielleicht drücken wir es mal so aus: der praktisch nutzbare Dynamikumgfang ist geringer.
Hm, ich meine Jpg reduziert keine Farbabstufungen, zumindest nicht absichtlich.
Doch tut es, aber nur in dem Ausmaß wie es die Quantisierungsmatrix vorgibt. Ich habe mal ein Bild angehängt, dass ich einfach nur in 8 Bit/Farbe umgewandelt habe, da sind noch mehr Farbabstufungen übrig. Sieht fast so aus wie das RAW. Weiterhin ist mehr Dithering übrig, es also sieht sanfter aus weil feine Details (hohe Frequenzen) nicht "rausoptimiert" wurden.
Wäre ja auch komisch, wenn beim Überlagern von niedrigen Frequenzen plötzlich starke Sprünge auftauchen könnten. Bei so langen Verläufen mit so tiefen, "flachen" Frequenzen wie in einem Himmel passiert es aber schnell, daß nach Anwendung der Quantisierungsmatrix nichts erhaltenswertes übrig bleibt. Nur der Durchschnitt des 8*8-Blocks bleibt übrig, und es bilden sich grobe Farbabstufungen an Klötzchengrenze.
Das Problem ist folgendes. Bei sanften Farbverläufen sind wieder hohe Frequenzanteile vorhanden, da sich quasi alle paar Pixel der Farbwert ändert (sonst wäre der Farbverlauf ja nicht sanft). Folglich werden diese bei der Umwandlung geringer Aufgelöst es entstehen also "Farbsprünge". Aber wie gesagt, die feinen Abstufungen kann das Auge eigentlich nicht auflösen und deswegen können sie auch reduziert gespeichert werden ohne dass man es eigentlich sieht. Besonders auffällig ist dies immer dann, wenn der Farbverlauf sehr Rot oder sehr Blau ist, da hier dann die Quantisierungsmatrix für den Rotanteil (Cr) oder den Blauanteil (Cb) fast alleine zum tragen kommt. Bei einem sehr grünen Farbverlauf fällt das nicht so auf, da hier die Cr und Cb Quantisierungsmatrizen praktisch zu gleichen Anteilen überlagert werden.
Aber die haben doch beide den gleichen Dynamikumfang?
Ich wollte damit zeigen, dass es Farbabrisse gibt, weil stephan2807 in seinem Bild keine sehen konnte.
 
Zuletzt bearbeitet:
Nochmal ein kleines Extrembeispiel hinterher.
Bild 1 ist das Ausgangsbild. Ich habe die Kompression bei Bild 2 nun sehr hoch gestellt damit der Unterschied etwas deutlicher zum Vorschein tritt. Beim Himmel sieht man bereits die Farbabrisse.
Ich habe jetzt einmal das JPEG (Bild 3) und einmal das original TIF (Bild 4) um 5 Ev überbelichtet. Beim JPEG sieht man wie stark die Details sowohl in Helligkeit als auch in Farbe reduziert sind. Die Reduktion ist jetzt natürlich extrem weil ich wie gesagt die Komprimierung sehr hoch gedreht habe. Der rein Theoretische Dynamikumfang mag vielleicht gleich sein, aber der praktisch nutzbare ist es nicht, oder würde jemand Bild 3 noch als Brauchbar bezeichnen? (Bild 2 sieht ja auf den ersten Blick noch ganz Ok aus)
Diese Reduktion findet bei JPEG immer statt, in welchem Ausmaß wird eben durch die Quantisierungsmatrizen bestimmt.
 
Wie machst Du das denn, daß das Bild anschließend noch normal angesehen werden kann? Packst Du dann ein Farbprofil mit rein oder wie geht das?

Farbprofil wäre der richtige Weg. Ich hab aber zum probieren einfach ne zusätzliche Gammakorrektur von 2 verwendet aund dann als JPEG gespeichert. Dann JPEG wieder geöffnet und mit Gammakorrektur 0,5 wieder in sRGB "konvertiert".
Außer das gespeicherte JPEG muss das natürlich alles in 16-Bit gemacht werden.

Ich wollte damit zeigen, dass es Farbabrisse gibt, weil stephan2807 in seinem Bild keine sehen konnte.

Ohne die zusätzliche Gammakorrektur hatte ich auch Farbabrisse. Ist aber eben eine Sache des Farbprofils.

Der gute Frank Klemm hat uns hier mal vorgerechnet, dass für das RAW einer 40D bei ISO200 8 Bit fast (303 Codes) reichen würden um die Informationen ohne signifikanten Verlust zu speichern.
Wenn ich noch dazu nehme, dass die obersten 1-2 Blenden dann immer noch mehr Informationen (Abstufungen) enthalten als vom Auge wahrnehmbar und der Bereich bei der "Entwicklung" i.d.R. durch die Tonwertkurve nochmal stark komprimiert wird lässt sich da auch noch einiges an Daten entsorgen. Relevant aber eigentlich nur für Grün, Rot und Blau nutzen bei normalen Licht den Bereich eh nicht voll aus.

Wenn das Raw aber in 8 Bit passt, warum dann nicht auch das fertige Bild?
 
Nochmal ein kleines Extrembeispiel hinterher.
Naja, ich kann jedes Bild "kaputtkomprimieren".
Wenn jemand ein Bild derart komprimiert, dann wohl mit Grund. Und wenn die Software das Bild immer so komprimiert, dann ist sie einfach schlecht.

Die Kombi JPEG - sRGB - 8Bit ist ja auch nicht dafür gedacht viel Reserven für die Bearbeitung zu erhalten, sondern ein fertiges Bild effizient zu speichern.

Hier mal ein künstliches Beispiel für ein JPEG mit unterschiedlichem Gamma:
- Standard (ca. 2,2)
- Eigenes Gamma (3,0)
- "Spezial" (ca. 3,5)
Jeweils im Vergleich mit dem Original-Tiff und um 3 EV gepusht.

Spätestens beim letzten würden die "Farbabrisse" im Rauschen der Kamera untergehen.
 
Was hat Dynamikumfang mit der Farbanzahl zu tun :confused::grumble:
Der Definition nach nichts - wenn ich mich nicht Irre.

Für sinnvoll nutzbare Dynamik will ich aber haben, dass der "wahrnehmbare" Informationsgehalt mit steigendem Signal sich nie verschlechtert (bis zur Sättigung).

Wenn ich die Signale 0-1-2-3-5-8-11-...-1000 wahrnehmen kann,
mein Sensor mir aber nur die 4 Werte 0-1-30-1000 liefert,
dann liegt der nutzbare Dynamikumfang in meinen Augen nicht bei 1:1000.
Sogar 1:30 kommt mir da zu hoch vor. Ist nur noch ein Schätzeisen...

Genauso ists mit den Farben. Wenn das Ergebnis komisch wird, dann ist der Dynamikbereich nicht mehr nutzbar. Auf dem Papier mag die Dynamik natürlich noch da sein.
 
Der Dynamikumfang von CCD/CMOS Sensoren wird ausschließlich durch das Rauschen begrenzt (Quantisierungsrauschen vom ADC, analoges Rauschen vom Sensor).
Nö, das Full-well-Signal ist ebenso daran beteiligt.

Beispiel: 10bit ADC. Bei voller Aussteuerung beträgt das Quantisierungsrauschen 1/1024, das SNR also 60.2dB. Pro Blendenstufe weniger Licht verringert sich das SNR um 6dB, bei 10 Blendenstufen hat man dann ein SNR von 0. Mit einem Pixel sind also 10 Blendenstufen machbar, wobei die letzte Blendenstufe unbrauchbar ist, bei 0dB SNR sieht man nicht mehr viel.
Du vergisst, dass man vor dem ADC noch eine analoge Gainstufe hat, mit deren Hilfe das Ausleserauschen reduziert werden kann. Wäre dem nicht so, so könnten wir die Kameras stets auf "basis-ISO" eingestellt lassen und alles digital push-entwickeln.

Ach ja, eine Ergänzung: Die Angaben zu den Kameras beziehen sich immer auf die kleinste ISO Einstellung. Je höher man die dreht desto mehr rauscht die Sache, und entsprechend verkleinert sich der Dynamikumfang.
Der Dynamikumfang verkleinert sich zum Glück nicht "entsprechend", sondern deutlich weniger, als es bei rein digitalem Pushen der Fall wäre. Daher wurde ja die volle Bandbreite an ISO-Werten bei den Analysen von DxoMark geprüft und dargestellt.

Was bei der Betrachtung fehlt ist das Analoge Rauschen, durch das verliert man nochmal ein bisschen. Wenn das (bezogen auf die Quantisierungsstufe) zB. 5dB beträgt, verliert man nochmal eine Blendenstufe usw.
Was meinst Du genau mit dem "analogen Rauschen"?

Warum eine Betrachtung ohne Rauschen keinen Sinn macht: Benutze ich zB. Pixel-Binning und fasse 10MPix einer Kamera zu einem einzigen Pixel zusammen, vergrößert sich der Dynamikumfang beträchtlich! Das Rauschen verringert sich dann nämlich um den Faktor sqrt(10e6)~3.1e3=70dB.
So werden aus 60dB plötzlich 130dB, und es lassen sich über 20 Blendenstufen darstellen. Aber es gibt halt nur einen einzigen Helligkeitswert, was ein bisschen wenig ist.
Du meinst wohl eher, dass aus exakt diesem Grund eine Betrachtung ohne Berücksichtigung der Nutzauflösung keinen Sinn macht? Daher zumindest auch die rechnerische Adaptierung der Sensoren auf eine Referenz-Pixelzahl bei DxoMark.

Es hilft schon wenn man ein Bild runterskaliert und man gewinnt SNR. Halbe Breite und halbe Höhe, also aus 4px mach 1px, erhöht den SNR um 6dB. Man gewinnt eine Blendenstufe.
Ja, idealerweise sollte es so sein. Das Problem aber: wenn kameraintern (mittlerweile leider auch schon oft in "RAW"!) bereits vorgefiltert wurde, dann wird das Rauschen nicht entsprechend geringer, sondern nur feinschlägiger. Dem entsprechend steigt dann auch der SNR nicht ganz um die erwarteten 6 dB.
 
Naja, ich kann jedes Bild "kaputtkomprimieren".
Wenn jemand ein Bild derart komprimiert, dann wohl mit Grund. Und wenn die Software das Bild immer so komprimiert, dann ist sie einfach schlecht.
Darum gings mir auch nicht, ich habe durch die starke Komprimierung nur den Unterschied stärker sichtbar machen wollen. Das Prinzip ist ja immer das gleiche: Hohe Frequenzen werden geringer aufgelöst als niedrige. Wenn ich die Komprimierung verringere fallen diese Effekte natürlich weniger stark auf, aber sie sind dennoch da. Hätte ich die Kompression jetzt etwas vermindert, dann wäre in meinem Beispiel z.B. etwas mehr Detail im helleren Rasenteil übrig geblieben, noch etwas verringert und es kommen immer mehr Details im dunkleren Teil zum Vorschein. Aber selbst bei 100% Qualtität ist eben ein Verlust da, auch wenn man ihn auf den ersten Blick nicht sieht, JPEG halt. Es wird erst da begonnen zu Reduzieren wo es am wenigsten auffällt.

Der Definition nach nichts - wenn ich mich nicht Irre.

Für sinnvoll nutzbare Dynamik will ich aber haben, dass der "wahrnehmbare" Informationsgehalt mit steigendem Signal sich nie verschlechtert (bis zur Sättigung).
Richtig die Farben haben damit nichts zu tun, sondern die Helligkeitsabstufungen. Bei RGB-Bildern ist der Helligkeitswert quasi farbgebunden gespeichert, nämlich im RGB-Tupel. Bei JPEG ist die Helligkeit getrennt gespeichert, nämlich in der Luminanzkomponente. Bei RGB-Bildern könnte man daher schon sagen, dass der Dynamikumfang von der Farbtiefe abhängt, denn mit der Reduktion der Farbtiefe reduziert man gleichzeitig auch die möglichen Helligkeitsabstufungen. Rein theoretisch kann man bei bei einem auf den YCrCb-Farbraum basierende Bildkompression die Helligkeitskomponente auch mit 16 Bit auflösen und die Farbkomponenten nur mit 4 oder 8 Bit. Aber auch wenn man durch die Reduktion der Farbauflösung eigentlich nicht den Dynamikumfang verändert, so hat ändert man trotzdem den nutzbaren Dynamikumfang weil eben in gewissen Teilen des Bildes dann aufeinmal unschöne Effekte zum Vorschein kommen, wenn man es aufhellt oder abdunkelt.

Wenn ich die Signale 0-1-2-3-5-8-11-...-1000 wahrnehmen kann,
mein Sensor mir aber nur die 4 Werte 0-1-30-1000 liefert,
dann liegt der nutzbare Dynamikumfang in meinen Augen nicht bei 1:1000.
Sogar 1:30 kommt mir da zu hoch vor. Ist nur noch ein Schätzeisen...

Genauso ists mit den Farben. Wenn das Ergebnis komisch wird, dann ist der Dynamikbereich nicht mehr nutzbar. Auf dem Papier mag die Dynamik natürlich noch da sein.
Genau das versuche ich ja die ganze Zeit zu sagen. Auch wenn rein von den Zahlen her der Dynamikbereich beliebig groß sein kann, dann bedeutet es noch lange nicht, dass man den Dynamikbereich auch als sinnvoll nutzbar ist. Gammakorrektur hin oder her, durch die Gammakorrektur änderst du auch den Farbumfang. Man mag durch die Gammakorrektur gewisse Teile des Bildes derart optimieren können, dass an einer bestimmten Stelle keine Farbabrisse entstehen, aber auf der anderen Seite hat man dadurch an anderen Stellen den Farbumfang reduziert und dann eben da Farbabrisse.
 
Zuletzt bearbeitet:
Ich denke das aus dem 1. Satz: "analoge Rauschen vom Sensor", sprich Ausleserauschen und Verstärkerrauschen.
Das fehlt in seiner Beispielrechnung (10-Bit-ADC = 10 Blendenstufen Dynamik).
OK; bei aktuellen Kameras ist das Quantisierungsrauschen gegenüber dem Grsamt-Ausleserauschen eher vernachlässigbar. Tatsächlich schliessen die üblichen Testverfahren des Ausleserauschens (Differenz zweier kurzer Dunkelexpositionen) das Digitalisierungsrauschen bereits mit ein.
 
Es ging mir um eine Darstellung für die die sich noch nicht damit beschäftigt haben, die entsprechend einfach verständlich ist und die Sache im Kern trotzdem trifft.
Du musst dich nicht profilieren indem du jetzt sämtliche kleinen Haken suchst...

Nö, das Full-well-Signal ist ebenso daran beteiligt.

Ich geh zur Vereinfachung davon aus, dass full well der maximalen ADC Spannung entspricht. Damit gibt nur noch dessen Auflösung die (digitalen) Grenzen vor. Man muss es nicht komplizierter als nötig darstellen, kein Hersteller wird nur 10% vom ADC Spannungsbereich benutzen.

Du vergisst, dass man vor dem ADC noch eine analoge Gainstufe hat, mit deren Hilfe das Ausleserauschen reduziert werden kann. Wäre dem nicht so, so könnten wir die Kameras stets auf "basis-ISO" eingestellt lassen und alles digital push-entwickeln.

Nein, das tue ich nicht. Lies nochmal - es geht um Pixel allgemein, die mitunter im selben Bild liegen. Wenn du sagst wie ich meiner Kamera beibringe helle Szenen mit ISO100 und dunkle mit ISO400 zu "belichten" (auszulesen) mach ich das gern...

Der Dynamikumfang verkleinert sich zum Glück nicht "entsprechend", sondern deutlich weniger, als es bei rein digitalem Pushen der Fall wäre. Daher wurde ja die volle Bandbreite an ISO-Werten bei den Analysen von DxoMark geprüft und dargestellt.

Das "entsprechend" bezog sich darauf, dass mehr Rauschen entsprechend einen kleineren Dynamikumfang bedeutet.


Du meinst wohl eher, dass aus exakt diesem Grund eine Betrachtung ohne Berücksichtigung der Nutzauflösung keinen Sinn macht? Daher zumindest auch die rechnerische Adaptierung der Sensoren auf eine Referenz-Pixelzahl bei DxoMark.

Nein, ich meine das was ich geschrieben habe. Bei dxomark wird meines Wissens nix adaptiert, ein Pixel bleibt ein Pixel. Die Anzahl ist auch weniger entscheidend als die Fläche.

Du meinst wohl eher, dass aus exakt diesem Grund eine Betrachtung ohne Berücksichtigung der Nutzauflösung keinen Sinn macht? Daher zumindest auch die rechnerische Adaptierung der Sensoren auf eine Referenz-Pixelzahl bei DxoMark.

Ja, das ist eine andere Sache. Man kann das Bild auch runterskalieren und wieder hochrechnen, dann gewinnt man genau garnix mehr.
 
WERBUNG
Zurück
Oben Unten