• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Ausgelagert: Dynamikumfang der D3200

  • Themenersteller Themenersteller Gast_268204
  • Erstellt am Erstellt am
Status
Für weitere Antworten geschlossen.
3bit - Immer noch die ganze Dynamik nur mit starkem Banding in den Werten.

Dann solltest Du Dich nicht nur über Dynamik, sondern auch über Banding schlaulesen. :confused:



Gruß, Matthias
 
Die Frage ist doch im Grunde:

Nachdem die Sensorinformation mit einem 8 Bit A/D-Wandler erfasst wurde (und das ist definitiv möglich), sieht dann das Bild noch aus?

Ich würde sagen, nein, es sieht nicht mehr aus.

Ab etwa 14 Bit kann der Sensor dann aber beliebigen Blendenumfang haben, die Bilder sehen aus! Da werden dann halt HDRs draus.

Gruß,

Karl-Heinz
 
So vielleicht helfen ja ein paar Beispielbilder.

Jeweils das gleiche Bild nur mit:
8bit - 256 Stufen pro Farbkanal
4bit - 16 Stufen
2bit - 4 Stufen

Am Dynamikumfang des Bildes ändert sich nichts. Aber das Bild zeigt immer mehr Banding in den Zwischenstufen.
 
Am Dynamikumfang des Bildes ändert sich nichts. Aber das Bild zeigt immer mehr Banding in den Zwischenstufen.

Ich sage es ein letztes Mal: Guck nach, was Dynamik ist und guck nach, was Banding ist. Was Du hier "Banding" nennst, nenne ich Tonwertabrisse. Und woher kommen die? Na rate mal! Weil der Wertebereich zwischen "ganz schwarz" und "ganz weiß" nicht ausreichend aufgelöst ist. Und das ist ein Effekt der zu geringen darstellbaren Dynamik. Ich hoffe im übrigen ganz schwer, dass Du hier nicht die Bittife der JPG-Datei verringert hast, sondern die der linearen Daten aus der RAW-Datei.



Gruß, Matthias
 
Ab etwa 14 Bit kann der Sensor dann aber beliebigen Blendenumfang haben, die Bilder sehen aus! Da werden dann halt HDRs draus.
Ich versuch mal, das Pferd von hinten aufzuzäumen und stell mich ganz dumm (was mir ganz leicht fällt) und frage so:

Wie bestimme ich grob den Dynamikumfang meines Sensors, wenn ich nur die Kamera habe und evtl simple EBV?

Da der Sensor nur einen Dynamikumfang hat, bekomme ich die Antwort nicht dadurch, dass ich die Daten als 12, 14BIT RAW oder 8,16Bit Tif ausschreibe.

Nein, ich mache eine Belichtungsreihe von einer möglichst homogen grauen Fläche und nehme das Histogramm, welches bei guter Motivauswahl einen schmalen hohen Peak zeigt, als Messgerät. Dieses tolle Motiv fotografiere ich solange mit unterschiedlichen Belichtungen, bis ich weiß, bei welchen LW der Peak das Histogramm nach links bzw rechts verlässt.

Die Differenz dieser beiden Zahlen ist - nein nicht der Tonwertumfang - sondern: genau der Dynamikumfang hier in LW. Man kann auch bel oder sonst was nehmen...

Dem Ergebnis ist es übrigens egal, ob ich dei Bel.-reihe in 8,12,16Bit ausgebe.

Gruß, Wolfgang
 
Und das ist ein Effekt der zu geringen darstellbaren Dynamik.
Matthias, wie definierst du "Dynamikumfang"?

Nein, ich mache eine Belichtungsreihe von einer möglichst homogen grauen Fläche und nehme das Histogramm, welches bei guter Motivauswahl einen schmalen hohen Peak zeigt, als Messgerät. Dieses tolle Motiv fotografiere ich solange mit unterschiedlichen Belichtungen, bis ich weiß, bei welchen LW der Peak das Histogramm nach links bzw rechts verlässt.
So sehe ich das auch. Mit dem kleinen Zusatz dass sich der so festgestellte Dynamikumfang bei JPEG und Raw unterscheiden kann, weil gerade Nikon bei JPEG den Dynamikumfang der Hardware nicht voll ausnutzt.
 
Zuletzt bearbeitet:
Nach deiner Rechung hätte ich jetzt den Dynamikumfang um 1 EV gesteigert. Kann das sein?

#1 Wo hab ich etwas gerechnet!
#2 Wenn Du davon ausgehst dass dein Motiv wirklich Bereiche hat die null Licht reflektieren, dann ist es egal wie hell der hellste Bereich ist, dein Motivkontrast wird immer unendlich groß sein.
#3 Wenn Du davon ausgehst dass der dunkelste Bereich in deinem Motiv grösser null ist, dann kannst du ND Filter draufschrauben was Du willst, der Motivkontrast bleibt immer gleich egal ob vor oder hinter deinen Filtern.
#4 Wenn du davon ausgehst dass du dir das aufgenommene Bild anschaust, kann es schon vorkommen dass unter gewissen Voraussetzungen aufeinmal ne Blende mehr Bildkontrast vorhanden ist
#5
Das optische Äquivalent der von Euch propagierten 12 Bit Codierung des 14 Bit Signals, bei dem nur jedes 4.
Warum wollen manche von euch immer 14 bit in 12 bit quetschen? Das tut nichts zur Sache, ist ne ganz andere Baustelle.
#6
Aber ich merke ich komme nicht so Recht weiter hier.
Das ist auch gut so!

Gottseidank gibt es hier ein paar Leute die verstehen dass Dynamik nichts mit Auflösung zu tun hat.
 
Angenommen, in 10 Jahren haben wir einen Sensor zur Verfügung, der einen Blendenumfang von 32 EV hat. Von der dunkelsten Stelle bei Nacht bis zur hellsten Stelle in der LED-Straßenbeleuchtung kann er auf einem Bild alles darstellen.

Würde ich dazu dann 32 Bit brauchen? Nein, das ist natürlich Quatsch. Es funktioniert genauso mit den 12 oder 14 Bit der heutigen Kameras, das Bild muss dann halt einmal durch Photomatix durch.

Gruß,

karl-Heinz
 
Angenommen, Dein Sensor kann maximal den Wert 1024 erfassen und minimal den Wert 1. Und jetzt codier das mal in linear 3 bit und sag mir, wieviel der Dynamik des Sensors Du dann noch siehst. Und dann sag mal schnell, wieviele Bits Du bräuchtest, um die 1024:1 linear darzustellen.

Jetzt kapier' ich endlich was Du meinst.

Ist es nicht so, dass die Photodiode letztlich eine Spannung liefert?
Dieser gemessenen Spannung wird ein 12- oder 14-bittiger Wert zugewiesen?

Würde die Fotodiode einen "Wert" ausserhalb des mit 12 Bit darstellbaren Bereiches liefern, dann hättest natürlich Du Recht.

Aber ich auch SW, nicht HW.
 
Matthias, wie definierst du "Dynamikumfang"?

So wie E. Martinec es in Stempels Signatur-Link beschreibt. Hast Du Dir mittlerweile mal den Spaß gemacht? Andere definieren den Absolutwert anders (z.B. Bill Claff), aber das Prinzip ist immer das gleiche und auch die Dynamik-Differenzen verschiedener Sensoren sind gleich (wenn sie logarithmisch dargestellt ist). Und wenn man sich auf gleiche Ausgabegrößen bezieht, ist die Dynamik immer um eine feste Anzahl EV oder dB oder wie auch immer man sie darstellt, kleiner als die SNR. Um wieviel kleiner, ist dann Ansichtssache und macht den Unterschied zwischen bspw. DxOMark und Bill Claff aus. Der eine nennt ein gemessenes Signal "nutzbar", wenn es mindestens 25x größer als das Rauschen ist, der andere legt einen anderen Maßstab an. DxOMark scheint da den Faktor 1x anzunehmen. Siehe "Dynamic range":

Dynamic range is defined as the ratio between the highest and lowest gray luminance a sensor can capture. However, the lowest gray luminance makes sense only if it is not drowned by noise, thus this lower boundary is defined as the gray luminance for which the SNR is larger than 1.
(bei Bill Claff stünde dort "25")



Gruß, Matthias
 
Zuletzt bearbeitet:
Ich sage es ein letztes Mal: Guck nach, was Dynamik ist und guck nach, was Banding ist. Was Du hier "Banding" nennst, nenne ich Tonwertabrisse. Und woher kommen die? Na rate mal! Weil der Wertebereich zwischen "ganz schwarz" und "ganz weiß" nicht ausreichend aufgelöst ist. Und das ist ein Effekt der zu geringen darstellbaren Dynamik. Ich hoffe im übrigen ganz schwer, dass Du hier nicht die Bittife der JPG-Datei verringert hast, sondern die der linearen Daten aus der RAW-Datei.

Ich würde empfehlen, bevor die Emotionen zu hoch kochen, erst mal die Definition der Grundbegriffe zu klären.
Ich habe das Gefühl hier gibt's fundamentale Missverständnisse.
 
Gut, also:
highest gray luminance -> 1
lowest gray luminance -> 0
Mach die Abbildung des Dynamiksensors mit einem Bit
Wolfgang
PS: Ach ja, allen gray luminances dazwischen ordne ich auch 0 oder 1 zu, je nachdem auf welcher Seite der Mitte der gray luminances ich grade so bin.
 
Zuletzt bearbeitet:
Würde ich dazu dann 32 Bit brauchen? Nein, das ist natürlich Quatsch. Es funktioniert genauso mit den 12 oder 14 Bit der heutigen Kameras, das Bild muss dann halt einmal durch Photomatix durch.

Wenn Du es linear skalierst, brauchst Du selbstverständlich 32bit oder mehr. Dass man es bei nicht linearer Skalierung (z.B. JPG) auch mit weniger Bit schafft, hat nichts damit zu tun.

Angenommen Dein 32EV-Sensor kann als hellsten Wert knapp unter 2^32 = 4294967296 erfassen, und am dunklen Ende sogar zwischen den Werten 1 und 2 unterscheiden (wenn ich Ergebnisse nicht unterscheiden kann, kann ich sie auch nicht messen). Und jetzt zeig mir mal, wie Du das linear in 12 oder 14bit unterbringst und sich trotzdem die ursprünglichen 1 und 2 unterscheiden lassen.



Gruß, Matthias
 
Wenn Du es linear skalierst, brauchst Du selbstverständlich 32bit oder mehr. Dass man es bei nicht linearer Skalierung (z.B. JPG) auch mit weniger Bit schafft, hat nichts damit zu tun.

Angenommen Dein 32EV-Sensor kann als hellsten Wert knapp unter 2^32 = 4294967296 erfassen, und am dunklen Ende sogar zwischen den Werten 1 und 2 unterscheiden (wenn ich Ergebnisse nicht unterscheiden kann, kann ich sie auch nicht messen). Und jetzt zeig mir mal, wie Du das linear in 12 oder 14bit unterbringst und sich trotzdem die ursprünglichen 1 und 2 unterscheiden lassen.



Gruß, Matthias

Es kommt doch darauf an: Welche Auflösung bei der linearen Wandlung brauche ich für mein gedrucktes Bild? Da genügt mir auch bei 32 EV eine Auflösung von 14 Bit. Mehr seh ich ja eh nicht, wo denn auch? Am Papier, Fine Art Print? Noch weniger am PC-Bildschirm oder am Beamer.

Hat aber nichts mit dem Thread zu tun. Hier gehts ja darum, wieviele Bit ich brauche, um den Blendenumfang von 32 EV darzustellen. Und da reichen auch 12 Bit, um Kontur sowohl im Mond als auch in der LED-Lampe zu sehen.

Gruß,

karl-Heinz
 
Wenn Du es linear skalierst (und davon reden wir hier): Nein!



Gruß, Matthias

Nein, wir reden hier von der Darstellung sowohl der dunkelsten als auch der hellsten Stelle mit einer bestimmten Anzahl von Bit. Und da genügen 2 davon, eigentlich eines. Wies dazwischen aussieht, ist diesem Thread eigentlich egal.

Gruß,

Karl-Heinz
 
Angenommen Dein 32EV-Sensor kann als hellsten Wert knapp unter 2^32 = 4294967296 erfassen, und am dunklen Ende sogar zwischen den Werten 1 und 2 unterscheiden (wenn ich Ergebnisse nicht unterscheiden kann, kann ich sie auch nicht messen). Und jetzt zeig mir mal, wie Du das linear in 12 oder 14bit unterbringst und sich trotzdem die ursprünglichen 1 und 2 unterscheiden lassen.

Da liegt also der Hase begraben. Du meinst den Tonwertumfang und nicht den Dynamikumfang.

Der Sensor liefert übrigends weder 0 noch irgend eine andere Zahl, der liefert eine Spannung in einem Referenzbereich (z.B. 0-5V). Diese Spannung wird dann im AD-Wandler auf einen Zahlenbereich gemappt.
 
Nein, wir reden hier von der Darstellung sowohl der dunkelsten als auch der hellsten Stelle mit einer bestimmten Anzahl von Bit. Und da genügen 2 davon, eigentlich eines.

Im Titel dieser Diskussion steht was von "Dynamik" und über die rede ich. Wenn Du von was anderem reden möchtest, mach doch ein neues Thema auf.


Gruß, Matthias
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten