• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Hab den Thread mit dem oben zitierten zusammengeführt. Würde empfehlen von anfang an zu lesen.

LG
 
AW: Dynamikumfang JPEG vs. RAW

Die 6 Blendenstufen habe ich nicht aus der Bittiefe von 8 Bit pro Farbe abgeleitet, sondern dieser Wert entspricht etwa dem eines Jpeg Bildes.
:confused:
Wie schon mal gesagt:
Ein JPG/RAW hat überhaupt gar keinen Dynamikumfang.
Du kannst auch einen Dynamikumfang von 20 Blendenstufen mit einem JPG abbilden.
Es ist dann nur etwas komprimierter.
 
AW: Dynamikumfang JPEG vs. RAW

OK...
Ein JPG/RAW hat überhaupt gar keinen Dynamikumfang.
mmh..
Du kannst auch einen Dynamikumfang von 20 Blendenstufen mit einem JPG abbilden.
Ja was denn nun.
Zeig mir mal ein Motiv mit einem Dynamikumfang von 20 Blenden. Bei RAW kannst du ungefähr 3 Blendenstufen nachträglich über oder unterbelichten und man hat noch keine großartigen Farbabrisse. Bei Jpeg vielleicht +-0,5 Ev. Wenn man den Dynamikunfang eines Dias mit ~6 Blendenstufen ansetzt hat man RAW also ca. 6 EV + 2*3Ev ca. 10 Blendenstufen um bei JPEG mit etwas Glück 7 Blendenstufen
 
Zuletzt bearbeitet:
Ihr werft da viel durcheinander.
Man muß Eingangsdynamik und ausgabedynamik unterscheiden.
Wenn ich eine Eingangsdynamk von 20 Blenden (Hausnummer) (ZB. Schweißer in stockdunkler Nacht) habe und ein DRI mache bringe ich es problemlos auf die geschätzten 8 Blenden eines Monitors.

über oder unterbelichten und man hat noch keine großartigen Farbabrisse. Bei Jpeg vielleicht 1 Ev.

Die Farbabrisse haben aber absolut nichts mit dem Dynamikumfang zu tun sondern nur mit der feinheit der Rasterung beim Digitalisieren.
 
wieso 256? machst du deiner bilder nur in rot grün oder blau? es sind mehr als 65tsd abstufungen die man hat.


8bit*3=24bit bei einem rgb bild
 
wieso 256? machst du deiner bilder nur in rot grün oder blau? es sind mehr als 65tsd abstufungen die man hat.


8bit*3=24bit bei einem rgb bild
Jpeg wird im YCbCr Farbraum verarbeitet. Dabei ist Y die Helligkeit, Cb die Farbdifferenz und Cr die Chrominanz. Jedes der Elemente hat eine Auflösung von 8 Bit. Es geht ja um die absolute Helligkeit und nicht um die Helligkeit eines jeden Farbtons.
 
Zuletzt bearbeitet:
AW: Dynamikumfang JPEG vs. RAW

Das habe ich auch so nicht gesagt, aber die Bittiefe trägt zum Dynamikunfang bei. Ohne Farbabstufung gibts nunmal keinen Dynamikumfang.
Aber das ein Bild xy Blenden Dynamikumfang hat kann man eben nicht pauschal sagen. Farbabstufungen haben damit auch nichts zu tun und letzendlich würden 2 Bit ausreichen um eine hohe Dynamik zu beweisen.
 
AW: dynamikumfang jpeg vs. raw

2^8 pro Farbe.
Ein Jpeg hat etwa 6 Blendenstufen Dynamikumfang, ein RAW etwa 10 Blendenstufen.

JPEG an sich ist erst mal nur ein Dateiformat. Der Dynamikumfang ergibt sich erst in Verbindung mit dem Farbprofil.
Auch die Kompression in JPEG muss nicht verlustbehaftet sein (in der Regel ist sie es aber).

Bei JPEG (8 Bit) und linearem Profil ist der Dynamikumfang 8 Blendenstufen (oder sinds sogar 8,3 weil nur Quantisierungsrauschen? :confused::confused:).

JPEG im sRGB-Farbraum hat 3,7 Blendenstufen mehr weil in sRGB die unteren Bits höher aufgelöst gespeichert werden. Macht dann 11,5-12 Blenden Dynamikumfang.
Bei einem Farbprofil noch höherem Gamma lässt sich der Dynamikbereich nach Lust und Laune verändern.

Bei Fotos werden regelmäßig auch noch die hellen Bereiche deutlich komprimiert. Das wäre dann noch zusätzlich etwa eine Blende, der angehobene Mitteltonkontrast macht das aber wieder zunichte.

Das sind die theoretischen Möglichkeiten.
Ein reales JPEG (sRGB) kann durchaus mit Rauschreduzierung, Tonwertkorrekturen und Kompression soweit versaut sein, dass nur noch 8 Blenden sinnvoll nutzbar sind.
Das liegt dann aber an der Software, dem Gerät oder dem Nutzer und nicht an JPEG.
 
Der Dynamikumfang von CCD/CMOS Sensoren wird ausschließlich durch das Rauschen begrenzt (Quantisierungsrauschen vom ADC, analoges Rauschen vom Sensor).

Beispiel: 10bit ADC. Bei voller Aussteuerung beträgt das Quantisierungsrauschen 1/1024, das SNR also 60.2dB. Pro Blendenstufe weniger Licht verringert sich das SNR um 6dB, bei 10 Blendenstufen hat man dann ein SNR von 0. Mit einem Pixel sind also 10 Blendenstufen machbar, wobei die letzte Blendenstufe unbrauchbar ist, bei 0dB SNR sieht man nicht mehr viel.

Definiert man eine sinnvolle Untergrenze, bei der man auch noch was erkennt (zB. 32dB), dann sind es plötzlich nur noch ~5 Blendenstufen.


Ach ja, eine Ergänzung: Die Angaben zu den Kameras beziehen sich immer auf die kleinste ISO Einstellung. Je höher man die dreht desto mehr rauscht die Sache, und entsprechend verkleinert sich der Dynamikumfang.

Was bei der Betrachtung fehlt ist das Analoge Rauschen, durch das verliert man nochmal ein bisschen. Wenn das (bezogen auf die Quantisierungsstufe) zB. 5dB beträgt, verliert man nochmal eine Blendenstufe usw.


Warum eine Betrachtung ohne Rauschen keinen Sinn macht: Benutze ich zB. Pixel-Binning und fasse 10MPix einer Kamera zu einem einzigen Pixel zusammen, vergrößert sich der Dynamikumfang beträchtlich! Das Rauschen verringert sich dann nämlich um den Faktor sqrt(10e6)~3.1e3=70dB.
So werden aus 60dB plötzlich 130dB, und es lassen sich über 20 Blendenstufen darstellen. Aber es gibt halt nur einen einzigen Helligkeitswert, was ein bisschen wenig ist.

Es hilft schon wenn man ein Bild runterskaliert und man gewinnt SNR. Halbe Breite und halbe Höhe, also aus 4px mach 1px, erhöht den SNR um 6dB. Man gewinnt eine Blendenstufe.
 
Zuletzt bearbeitet:
AW: Dynamikumfang JPEG vs. RAW

Nein, DAS ist völliger Quatsch!
1. Hat JPEG 24Bit nur sind die Farbabstufungen nicht linear sondern an die Farbentfindlichkeit des Auges angepasst. Dies muss aber nicht expotentiell sein (auch wenn es das meist ist) sondern es wird durch die Quantisierungsmatrix vorgegeben, wie die einzelnen Farbwerte zu codieren sind. Du kannst die Quantisierungsmatrix auch so machen, dass du eine lineare Gewichtung hast, das für die Komprimierung aber schlechter. Sprich die Komprimierung wird nicht optimal genutzt, weil die 2^24 Abstufungen so gewichtet werden sollten, dass da wo die Farbempfindlichkeit des menschlichen Auges am höchsten ist, die anzahl der Farbabstufungen größer ist. Darum sind bei JPEG die Farbabstufungen sehr dunklen und hellen Bereichen sehr gering weil das Auge das nicht mehr so gut unterscheiden kann. Wenn die Quantisierungsmatrix nicht optimal ist, weil z.B. eben auch der Komprimierungsgrad zu groß ist, dann hat man eben Farbabrisse, oft zu sehen in Farbverläufen z.B. beim Himmel oder Sonnenuntergang, sanfte Farbverläufe der Haut etc.
2. Bedeutet es nicht, dass du bei 24 Bit 2^24 Blendenstufen Dynamikumfang hast, ...
Hast du nicht verstanden, dass ich mit meinem "Extrembeispiel" nur einen
Denkanstoss geben wollte, wie leicht es möglich ist auch mit 8 Bit je Farbe
über die 10, 20 oder noch mehr Blendenstufen Dynamikumfang hinaus zu
kommen?

Dass JPGs in der Praxis keine 2^24 Dynamikstufen benötigen sollte doch
eigentlich klar sein...

BG
 
AW: Dynamikumfang JPEG vs. RAW

1. Hat JPEG 24Bit nur sind die Farbabstufungen nicht linear sondern an die Farbentfindlichkeit des Auges angepasst. Dies muss aber nicht expotentiell sein ...

Die Quantisierungskurve hat überhaupt nichts mit dem Auge, und schon gar nichts mit der Farbempfindlichkeit des Auges zu tun. Da geht es nur darum, wie man vernünftig eine bestimmte Eingangsdynamik quantisiert.
Das ist auch nicht exponentiell, sondern eine S-Kurve (siehe den Link von dprview) und diese S-Kurve ist angenähert dem Verhalten von Analogfilmen.
 
...Warum eine Betrachtung ohne Rauschen keinen Sinn macht: Benutze ich zB. Pixel-Binning und fasse 10MPix einer Kamera zu einem einzigen Pixel zusammen, vergrößert sich der Dynamikumfang beträchtlich! Das Rauschen verringert sich dann nämlich um den Faktor sqrt(10e6)~3.1e3=70dB.
So werden aus 60dB plötzlich 130dB, und es lassen sich über 20 Blendenstufen darstellen. Aber es gibt halt nur einen einzigen Helligkeitswert, was ein bisschen wenig ist.

Es hilft schon wenn man ein Bild runterskaliert und man gewinnt SNR. Halbe Breite und halbe Höhe, also aus 4px mach 1px, erhöht den SNR um 6dB. Man gewinnt eine Blendenstufe.

...deshalb sind auch die LowLight HD-Videos aus der 5DII so sensationell.

Gruß,

Karl-Heinz
 
AW: Dynamikumfang JPEG vs. RAW

Die Quantisierungskurve hat überhaupt nichts mit dem Auge, und schon gar nichts mit der Farbempfindlichkeit des Auges zu tun.
Ich habe ja auch von der Quantisierungsmatrix der JPEG-Komprimierung geredet, und die ist sehrwohl an die Farbempfindung des Auges bzw. ähnlich des DIAs angepasst, alles andere wäre verschwendeter Speicherplatz.
 
Zuletzt bearbeitet:
AW: Dynamikumfang JPEG vs. RAW

Das einzige, das an die "Farbempfindung" des Auges angepasst ist, ist die Wahl der Wellenlängen von RGB. Die stimmt überein mit den spektralen Empfindlichkeiten des Auges.
Ich muss dich leider enttäuschen, da liegst du falsch.
1. Das Bild wird von RGB in den YCbCr Farbraum umgerechnet. Alleine diese Umrechnung ist verlustbehaftet. Dabei ensteht ein Helligkeitsbild (mit voller Auflösung) und zwei Farbanteilen (Cb,Cr). Diese Umwandlung ist bereits durch Rundungsfehler verlusthaftet. Der YCbCr Farbraum ist übrigens schon angelehnt an das menschliche Sehvermögen. Das Auge kann mehr Helligkeitsinformationen wahrnehmen als Farbtöne.
"Nachts sind alle Katzen grau", Amateurastronomen sehen die Nebel auch nur in schwarz weiß wenn sie durch das Teleskop gucken, weil die Zapfen bei hoher Dunkelheit nur keine Farbe mehr wahrnehmen. Erst durch Langzeitbelichtungen kommen die Farben zum Vorschein. Von daher ist es natürlich naheliegend einen Farbraum zu wählen wo diese Bildkomponeten bereits getrennt vorliegen und auch unabhängig voneinander verarbeitet werden können.
2. Die beiden Farbanteile werden tiefpassgefiltert (unterabgetastet, meist die Hälfte der Auflösung). Das wird gemacht, weil das menschliche Auge mehr Details aus der Helligkeit als aus dem Farben gewinnt. Folglich ist hat dies für die Betrachtung kaum nachteile. Man kann aber auch das Subsampling ändern, bei PS wird glaub ich ab Qualitätsstufe 10 1x1 Subsampling verwendet (also volle Auflösung)
3. Nun wird das Bild in Macroblöcke (8x8px) unterteilt und der diskreten Cosinustransformation unterzogen. Farbinformationen werden dadurch in Frequenzen anstatt in einzelne pixelbezogene Farbinformationen umgewandelt.
4. Nun werden die aus der DCT gewonnenen DCT-Koeffizienten durch die Quantisierungsmatrix geteilt.
Die Quantisierungsmatrix ist dann optimal, wenn sie etwa die Empfindlichkeit des menschlichen Auges entspricht. Sprich: alle Informationen, die das menschliche Auge nicht sieht/wahrnimmt werden auch nicht gespeichert.
Das menschliche Auge nimmt z.B. mehr Informationen aus den groben Strukturen als aus den feinen. Das merkt man z.B. selber wenn man ein total unscharfes Bild einer bekannten Person sieht, obwohl man eigentlich kaum etwas erkennt reicht für uns die Information, wie Abstand zwischen den Augen, breite des Mundes, Kontraste etc. aus. Folglich werden die tiefen Frequenzanteile auch höher aufgelöst, die hohen Frequenzanteile niedriger.
Es ist natürlich auch möglich die Quantisierungsmatrix so zu wählen, dass sie nicht an das menschliche Auge angepasst ist, das hat jedoch Nachteile denn nun werden eigentlich unnötige Informationen gespeichert und es wird entweder die Datei größer, oder aber die Qualität des Bildes wird bei gleicher Dateigröße schlechter. DPP geht scheinbar so vor. In Summe werden die Bilder um gut 50% größer als z.B. durch PS.

5. Schließlich folgt noch eine Umsortierung der 64 Komponenten der DCT beginnent mit dem Gleichanteil (Frequenz = 0, die mittlere Helligkeit). Nun hat man eine Liste in der die Koeffizienten meist von groß nach klein sortiert sind. Dann erfolgt eine Differenzcodierung, wodurch die Koeffizienten immer als Differenz zum vorherigen Koeffizienten gespeichert werden.

Bei Mpeg 1 Layer 3 (mp3) wirds auch so gemacht. Es werden nur die Informationen gespeichert, die das menschliche Ohr wahrnimmt, bzw. das Gehirn verarbeiten kann.
1. Kanalkopplung zwischen links und rechts wird beachtet, nur die Differenz der beiden Kanäle wird gespeichert (Stereo, Joint-Stereo)
2. Tiefpassfilterung => Frequenzen oberhalb von 20 kHz werden entfernt (je nach Qualität gehts auch nur bis 16 kHz, aber auch mehr als 20 kHz sind möglich).
3. Bestimmte Töne, die gleichzeitig zu hören sind, kann das Gehirn nicht trennen (z.B. Bass + leiser Piepton), folglich wird auch diese Information verworfen
4. Entropiecodierung

Bei Mpeg Video wirds auch so gemacht. Bei H.264 wirds noch weiter getrieben mit Bidirektionalen Frames usw. (Bildinfomationen die vorher oder nachher bereits verwendet wurden/noch verwendet werden werden nur einmal gespeichert und in mehreren Frames bidirektional genutzt)

Jpeg, Mpeg Audio, Mpeg Video sind alles Datenformate die an das menschliche Wahrnehmungsvermögen angepasst sind. Nach dem Motto, sie viel wie nötig, so wenig wie möglich.

Lesestoff:
http://white.stanford.edu/~brian/psy221/reader/Wallace.JPEG.pdf
http://www.eecs.harvard.edu/~michaelm/CS222/jpega.pdf
 
Zuletzt bearbeitet:
Das ist schon alles richtig, was du da schreibst, hat aber nichts mit der Quantisierung von Sensorsignalen zu tun.

-Auch wenn das Motiv sehr dunkel ist, wird das Bild nicht katzengrau, sondern genau so quantisiert wie bei einem hellen Motiv.

- Die Kamera rechnet RAW in JPEG um, sonst nix, schon gar nicht in YCbCr

- Die einzelnen Quantisierungslevels sind in der Hardware vorgegeben und ändern sich weder mit der Helligkeit des Motivs noch mit der Kompressionsstufe.
 
Ein Versuch die ewige Verwirrung zu vergößern:

Für mich war Dynamikumfang immer das Verhältnis von Signal bei Sättigung des Sensors zum Signal bei dem das Rauschen gleich groß dem Signal wird.

Die Frage die sich für mich bisher nicht geklärt hat: Wie kann man das für einen Fuji SuperCCD übertragen?

Im Extremfall könnte ich ja sagen ich baue eine Kamera mit normalen Pixeln und einem zusätzlichen Sensor, der mir sagt ob der Sensor an einem bestimmten Pixel geschmolzen ist, aber nur mit einem bit pro Pixel: "geschmolzen" / "nicht geschmolzen" - was erst bei einem sehr hohen Signal passieren würde. An diesem Gedankenexperiment sieht man, dass es beim SuperCCD von Fuji eigentlich nicht fair ist, die Sättigung vom kleinen Pixel in ein Verhältnis zum Rauschen im großen Pixel zu setzen. Ein einzelnes Pixel, das das gleiche Rauschen und die gleiche Sättigungsgrenze hätte wäre ja überlegen.

Gibt es da jemanden der mir einen Tip geben kann, wo ich die entsprechende Mathematik finde? Vielleicht ist es ja trivial, wenn man erst den Dynamikumfang von beiden Pixeltypen einzeln misst, und dann deren empfindlichkeit auf eine Skala bringt? Ich glaube DXO hat es nach dem m.M. eigentlich ungültigem Ansatz gemacht.
 
-Auch wenn das Motiv sehr dunkel ist, wird das Bild nicht katzengrau, sondern genau so quantisiert wie bei einem hellen Motiv.
Richtig, weil die Kamera intern immer nur die gleiche Quantisierungstabelle verwendet und diese nicht ans Bild anpasst.
- Die Kamera rechnet RAW in JPEG um, sonst nix, schon gar nicht in YCbCr
Aber hallo tut sie das. Jpeg geht nur mit YCbCr. Die RGB-Werte kommen vom Sensor. Dann werden sie in YCbCr umgewandelt, damit sie dann in Jpeg umgewandelt werden können.
So sieht das Subsampling und Quantisierungsmatrizen von einem JPEG Out-Of-Cam aus:
Code:
*** Marker: DQT (xFFDB) ***
  Define a Quantization Table.
  OFFSET: 0x0000562C
  Table length = 132
  ----
  Precision=8 bits
  Destination ID=0 (Luminance)
    DQT, Row #0:   1   1   1   1   1   2   3   3 
    DQT, Row #1:   1   1   1   1   1   3   3   3 
    DQT, Row #2:   1   1   1   1   2   3   3   3 
    DQT, Row #3:   1   1   1   2   3   4   4   3 
    DQT, Row #4:   1   1   2   3   3   5   5   4 
    DQT, Row #5:   1   2   3   3   4   5   5   4 
    DQT, Row #6:   2   3   4   4   5   6   6   5 
    DQT, Row #7:   4   4   5   5   5   5   5   5 
    Approx quality factor = 97.29 (scaling=5.41 variance=1.48)
  ----
  Precision=8 bits
  Destination ID=1 (Chrominance)
    DQT, Row #0:   1   1   1   2   5   5   5   5 
    DQT, Row #1:   1   1   1   3   5   5   5   5 
    DQT, Row #2:   1   1   3   5   5   5   5   5 
    DQT, Row #3:   2   3   5   5   5   5   5   5 
    DQT, Row #4:   5   5   5   5   5   5   5   5 
    DQT, Row #5:   5   5   5   5   5   5   5   5 
    DQT, Row #6:   5   5   5   5   5   5   5   5 
    DQT, Row #7:   5   5   5   5   5   5   5   5 
    Approx quality factor = 97.51 (scaling=4.97 variance=0.11)
 
*** Marker: SOF0 (Baseline DCT) (xFFC0) ***
  OFFSET: 0x000056B2
  Frame header length = 17
  Precision = 8
  Number of Lines = 2848
  Samples per Line = 4272
  Image Size = 4272 x 2848
  Raw Image Orientation = Landscape
  Number of Img components = 3
    Component[1]: ID=0x01, Samp Fac=0x21 (Subsamp 1 x 1), Quant Tbl Sel=0x00 (Lum: Y)
    Component[2]: ID=0x02, Samp Fac=0x11 (Subsamp 2 x 1), Quant Tbl Sel=0x01 (Chrom: Cb)
    Component[3]: ID=0x03, Samp Fac=0x11 (Subsamp 2 x 1), Quant Tbl Sel=0x01 (Chrom: Cr)
Und du willst mir dann erzählen die Kamera wandelt nicht in YCbCr :ugly: Beschäftige dich erstmal mit der Thematik bevor du falsche Dinge erzählst.
Wie man sieht sind die Farbdifferenzanteile horizontal unterabgetastet (halbe Auflösung) und vertikal in voller Auflösung (das kann man machen weil das menschliche Auge vertikal mehr Details wahrnimmt als horizontal). Der Helligkeitskanal (Y) ist ebenfalls in voller Auflösung. Wie man weiterhin sieht werden die gröberen Details (niedrige Frequenzen) höher aufgelöst als die feinen Details (hohe Frequenzen, unten Rechts). Weiterhin sieht man, dass die Farben im Schnitt (also auch schon bei feineren Strukturen) schlechter aufgelöst werden.
- Die einzelnen Quantisierungslevels sind in der Hardware vorgegeben und ändern sich weder mit der Helligkeit des Motivs noch mit der Kompressionsstufe.
Richtig in der Kamera ist es so, aber es ging ja allgemein ums Prinzip.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten