• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Ausgelagert: Dynamikumfang der D3200

  • Themenersteller Themenersteller Gast_268204
  • Erstellt am Erstellt am
Status
Für weitere Antworten geschlossen.
Was passiert denn eigentlich mit den Daten, wenn ein Hersteller am unteren Ende einen Offset dazuzählt? In den RAWs der 5DIII z.B. gehts erst ab 2048 los, in den D800 NEFs gehts bei 0 los. Wenn man bei Canon die Tonwert Priorität einschaltet, ändert sich auch der Offset in den RAWs.

Wird da oben einfach abgeschnitten? Wäre bei 14 Bit und einem Offset von 2048 grad mal 1/4 EV am oberen Ende.

Gruß,

Karl-Heinz
 
Wird da oben einfach abgeschnitten? Wäre bei 14 Bit und einem Offset von 2048 grad mal 1/4 EV am oberen Ende.

Meines Wissens ja. Der nutzbare Wertebereich sinkt damit am oberen Ende von maximal 16383 auf maximal 14335, und das ist ein Verlust von nur 0,2EV.

Edit: Nein, sie addieren nicht digital 2048, sondern sie heben analog das Eingangssignal des A/D-Konverters an. Dadurch können "verrauschte" Signale <0 erfasst werden und das Rauschen kann (angeblich) besser rausgerechnet werden.


Gruß, Matthias
 
Zuletzt bearbeitet:
das Rauschen kann (angeblich) besser rausgerechnet werden.
Ein Vorteil davon dürfte sein, dass es auch am unteren Tonwertende negatives Rauschen gibt, was sozusagen "schwärzere Werte" als schwarz erzeugt. Damit kann das positive Rauschen, was das Bild aufhellt, beim Mitteln der Tonwerte/Entrauschen durch herunterskalieren ausgeglichen werden, so dass das Bild in den dunkelsten Bereichen weniger durch das Rauschen aufgehellt wird.
 
Ein Vorteil davon dürfte sein [...]

Schon klar! Die Klammer hatte einen anderen Grund. Es hatte aber, wenn ich mich richtig erinnere, auch irgendwas mit Kurvenanpassung zu tun. Na ja, so große Vorteile ziehen sie offenbar nicht draus.


Gruß, Matthias
 
Nein, genau da liegt der Denkfehler, wenn das Quantisierungsrauschen / der Quantisierungsfehler nicht mit einbezogen wird. Je kleiner die Auflösung, desto größer dieser Fehler. Das größte max. mögliche Eingangssignal ist von der Auflösung des ADCs unabhänging, nicht jedoch das kleinstmöglich, auflösbare Eingangssignal, welches 1/2^N des max. Eingangssignals beträgt (N: Auflösung des ADCs) und nicht kleiner als der Quantisierungsfehler werden kann.
Eine kurze Frage dazu:
Gilt dieser Fehler nur bei einer linearen Abstufung?

Und warum genau arbeitet man hier überhaupt linear? Gerade in solchen Fällen, wo man durch eine nicht lineare Abbildung doch so viel mehr "Kontrastumfang" in einem vorgegebenen Bit-Bereich unterbringen könnte?

Hat das technische Gründe, oder will man das nur einfach nicht, weil dann in bestimmten Bereich zu große "Stufen" entstehen würden?
 
Zuletzt bearbeitet:
Und warum genau arbeitet man hier überhaupt linear?

Gehen Sie zurück auf LOS, ziehen Sie nicht 2000€ ein:

Mit Ausnahme von Spezialsensoren sind alle "Massen"Sensoren in diesem Bereich linear. Warum? Weil es mit der derzeitigen Prozesstechnologie Sinn macht. Das kann sich in Zukunft ändern, wenn A/D Wandler mit programmierbarer Referenzspannung kommen.




Gruß, Matthias
 
Gehen Sie zurück auf LOS, ziehen Sie nicht 2000€ ein:

Hmm, heißt so viel wie: "Isso weil isso", oder? Es wird aktuell linear gearbeitet und man könnte es theoretisch anders machen, tut man im Moment aber nicht.
Ein "Für und Wider" in dieser Beziehung wäre wahrscheinlich doch zu kompliziert, weswegen ich mich jetzt mal damit zufrieden gebe ;)

Danke trotzdem ;)
 
Hmm, heißt so viel wie: "Isso weil isso", oder?

Offenbar ja. Und wenn ich's richtig sehe, werden auch die aktuellen komprimierten Raw-Dateien (zumindest bei Nikon) von einem linear arbeitenden A/D-Wandler erzeugt und erst nachträglich, vor der Speicherung, "ausgedünnt". Das ändert an Dynamik und Auflösung (am unteren Ende) nichts, spart aber Speicherplatz.


Gruß, Matthias
 
Und warum genau arbeitet man hier überhaupt linear? Gerade in solchen Fällen, wo man durch eine nicht lineare Abbildung doch so viel mehr "Kontrastumfang" in einem vorgegebenen Bit-Bereich unterbringen könnte?

Hat das technische Gründe, oder will man das nur einfach nicht, weil dann in bestimmten Bereich zu große "Stufen" entstehen würden?
Genau, das ist technisch bedingt. Die meisten Wandler werden bei den notwendigen Abtastraten / Ausleseraten nach dem Wägeverfahren arbeiten (SAR Wandler). Und das ist ein 2^N Verfahren.
 
Genau, das ist technisch bedingt. Die meisten Wandler werden bei den notwendigen Abtastraten / Ausleseraten nach dem Wägeverfahren arbeiten (SAR Wandler). Und das ist ein 2^N Verfahren.
Nach Auskunft meiner "Lieblingsseite" (Sig) gibt es diesen Quantization Error tatsächlich. Nur ist er in der Größe winzig gegen Read Noise. Das Beispiel,
1. Reduktion der Quantisierungstufen um Faktor 8
2. Wiederanheben des Ergebnisses
ist das, was "meine Fraktion" hier seit Kilobyte schreibt: Ohne Dynamikverlust die Auflösung der Dynamik, die der Sensor aufnimmt mit wenigen Bits. Es ist dann nämlich nichts Anderes als die Darstellung von
y = ax + b mit a ungleich 1.

Gruß, Wolfgang
 
Nach Auskunft meiner "Lieblingsseite" (Sig) gibt es diesen Quantization Error tatsächlich. Nur ist er in der Größe winzig gegen Read Noise.
Stimmt, das dieser ziemlich klein ist, hatte Frank ja schon gezeigt.
Das Beispiel,
1. Reduktion der Quantisierungstufen um Faktor 8
2. Wiederanheben des Ergebnisses
ist das, was "meine Fraktion" hier seit Kilobyte schreibt: Ohne Dynamikverlust die Auflösung der Dynamik, die der Sensor aufnimmt mit wenigen Bits.
Wo siehst du, dass es ohne Dynamikverlust stattfindet? Man verliert Dynamikumfang, es sei denn, der Dynamikumfang ist vorher schon klein genug, zB. wegen Ausleserauschen des Sensors.

Übrigens, Herr Martinec benutzt so ungefähr die gleiche Definition von Dynamic Range, wie ich sie für meine Rechnung verwende:
Dynamic range: The ratio between the largest recordable signal and the smallest detectable signal. For us, the signal will be the illumination level of a pixel.
 
Zuletzt bearbeitet:
Stimmt, das dieser ziemlich klein ist, hatte Frank ja schon gezeigt.

Wo siehst du, dass es ohne Dynamikverlust stattfindet? Man verliert Dynamikumfang, es sei denn, der Dynamikumfang ist vorher schon klein genug, zB. wegen Ausleserauschen des Sensors.

Übrigens, Herr Martinec benutzt so ungefähr die gleiche Definition von Dynamic Range, wie ich sie für meine Rechnung verwende:
Eine Reduktion des Zahlenbereichs um den Faktor 8 (=2^3) bedeutet nach meiner Gegenfraktion die Reduktion des dynamic dingsda eben auch um 3 EV. Das sind keine Peanuts.

Martinec macht das ganz geschickt, reduziert den Bereich der Zahlen im Ursprungsraw um Faktor 8 (wie hier im thread auch bei Bildbeispielen). Für das Histogramm erhöht Martinec erneut um Faktor 8, um die großen Stufen zu zeigen. Die gesamte Breite des Histogramms liegt weiter wie ursprünglich bei 8.

Für ein richtiges Foto bedeutet dies: Das dunkelste (hellste) von schwarz (weiß) unterscheidbare grau bleibt praktisch erhalten. Die Zahl der Graustufen dazwischen verringert sich um Faktor 8. Das Letztere hat hier Niemand bezweifelt.

Mit dem praktischen Erhalt des hellsten (dunkelsten) Grau bleibt der dynamic range (Verhältnis aus diesen) praktisch auch erhalten. Mit dem Verlust der Grauwerte dazwischen geht die Bildqualität insgesamt natürlich auch flöten, was aber nun wirklich Niemand je bezweifelte.

Noch'n Gruß, Wolfgang, jetzt wech... (Mist, kein Smiley für's Schlafen gehen da)
 
Für ein richtiges Foto bedeutet dies: Das dunkelste von schwarz unterscheidbare grau bleibt praktisch erhalten.
Nein, nicht allgemein. Es kann ungefähr erhalten bleiben, wenn entweder das Motiv oder der Sensor keine vollen 14 EV Dynamikumfang liefern. Denn tun sie dies, so hat das dunkelste, von schwarz unterscheidbare Grau im Raw den Wert 1. Dies würde bei der Reduktion auf 12 Bit eine 0 werden, ergo nicht mehr von schwarz unterscheidbar, bedeutet der Dynamikumfang wird kleiner.

Das Histogramm bleibt genauso breit, weil da ganz links der Wert 0 für schwarz eingezeichnet ist - für den Dynamikumfang relevant ist aber eben die Breite des Histogramms ausgenommen diesem Schwarzpunkt, und die wird geringer. Zumindest bei dem Fotobeispiel. Bei dem Quantisierungsfehlerbeispiel sind so dunkle Werte ja nicht vorhanden, die DR ist viel kleiner.

In der Praxis muss der Sensor (und die andere Elektronik) das natürlich erstmal liefern. Herr Martinec schreibt ja in seinem Artikel, dass seine getesteten Kameras aufgrund von Rauschen eben schlicht keine 14 EV Dynamikumfang liefern können, so dass man in der Praxis mit diesen Kameras keinen oder deutlich weniger als 2 EV Dynamikumfang verliert, wenn man 12 Bit Raws verwendet. Aber nicht, weil der Dynamikumfang unabhängig von der Bittiefe bei linearer Kodierung wäre.

Zudem ist das Leserauschen bei neueren Kameras schon wieder deutlich geringer als bei denen, die Herr Martinec getestet hat, wenn man zB. dieser Quelle trauen darf.
Wobei die Messungen auf gleicher Seite auch die D800 noch unter 12 EV DR zeigen, DxOMark zeigt die D800 aber bei 14,4 EV, die D300 im Vergleich bei 12 EV. Das scheint zu zeigen, dass man die möglichen 14 EV durch 14 Bit bei neuren Kameras tatsächlich nutzen kann.
 
Zuletzt bearbeitet:
Gut, mein Beispiel war vielleicht unglücklich gewählt. Letzter Versuch dazu.
Das Histogramm bleibt genauso breit, weil da ganz links der Wert 0 für schwarz eingezeichnet ist - für den Dynamikumfang relevant ist aber eben die Breite des Histogramms ausgenommen diesem Schwarzpunkt, und die wird geringer.
...
Dein ersten Satz ist nicht hinzunehmen. Bei einem richtigen Foto gibt es auf dem Raw die 0, und sie wird schwarz zugeordnet - später im Bild. Bei Erstellung des RAW durch diesen AD-Wandler entsprach diese 0 im Raw etwa der Zahl Ladungsträger gleich dem Read Noise oder weniger. Bislang hat hier Niemand (überlesen?) begründet, warum ein AD Wandler dies nicht können soll: einer endlichen Zahl im analogen Input der 0 im digitalen Output zuzuordnen.

Es gibt keinen sachlichen Grund dafür, auf diese 0 im Raw zu verzichten.

Ebenso ist der AD Wandler so zu entwerfen, dass der Sensorüberlauf, dem die höchste Zahl im Raw zuzuordnen ist, auch erreichbar ist.
 
Ja, ist Print Wert. Bei Screen sind es immer noch > 13EV. Gruß, Wolfgang
Ja - ich hab auf den ersten Blick die Vergleichswerte angeschaut und entweder gibts da kein "Print"/"Display" Button, oder ich habe ihn übersehen und gestern Nacht auch nicht mehr an die Problematik gedacht. Da hätte ich besser aufpassen sollen. :)
 
Bei Erstellung des RAW durch diesen AD-Wandler entsprach diese 0 im Raw etwa der Zahl Ladungsträger gleich dem Read Noise oder weniger. Bislang hat hier Niemand (überlesen?) begründet, warum ein AD Wandler dies nicht können soll: einer endlichen Zahl im analogen Input der 0 im digitalen Output zuzuordnen.
Das hört sich ja nach einem negativen Offset (von 1?) an, was du hier propagierst. Trotzdem wird das nicht helfen, denn der Wert 0 ist ja nicht ungenutzt, er kodiert Stellen im Bild, die so wenig Licht abgeben, das es quasi "nicht detektierbar" war.
Aber selbst wenn der Wert ungenutzt wäre, würde sich das quasi nicht auf den Dynamikumfang auswirken, denn:
Wie wir ja wissen, nimmt Canon einen positiven Offset und lässt daher quasi ~1000 Werte "ungenutzt". Da man bei der Berechnung des Dynamikumfangs am Ende diesen Offset aber eh wieder abziehen muss, und selbst die 1000 ungenutzen Werte von Canon sich kaum auf den Dynamikumfang auswirken (Der maximale Dynamikumfang verringert sich dadurch nur um ca. 0,09 EV), spielt nun nur ein ungenutzter Wert wirklich keine Rolle für diesen.

Wichtig ist nur, dass der Wert, der mit 0 kodiert wird, letztendlich nicht mehr von schwarz/"nichts erkennbar" unterscheidbar ist, ganz egal, wie hell dieser Wert im realen Motiv letztendlich war. Deswegen wird bei der Dynamikumfangberechnung eben der nächsthöhere Wert herangezogen, welcher im Raw ohne Offset dann mit 1 kodiert wird.

Edit: wirklich mehr Dynamikumfang in die gleiche Anzahl Bits bekommt man, wie schon gesagt, durch nichtlineare Kodierung oder Verwendung von Gleitkommazahlen. Nikon kann nichtlineare Kodierung mit lossy-compressed Raw immerhin nachträglich in Software, und wie Andy erwähnte, können dies vll. bald auch die A/D-Wandler in den Kameras direkt - momentan arbeiten sie aber noch linear.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten