• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Ist doch das Gleiche:confused: Welchen maximalen Dynamikumfang hat denn ein Jpg? Man kann 20 Blenden reintun oder die 8Bit mit 2 Blenden ausreizen.

Ich weiß nicht, was du mit "Blenden reintun" meinst, und ich weiß auch nicht, wie JPG Helligkeitswerte repräsentiert, aber wenn es hierzu 8bit verwendet, dann sind das maximal 2^8 = 256 Helligkeitswerte, die du unterscheiden kannst - und das ist wenig. Fotografiere mal einen tollen Sonnenuntergang bei wolkenfreien Himmel als JPG, und schau dir den Farbverlauf des Himmels an, dann weißt du, wo Schicht im Schacht ist.
 
Ähhh, was bedeutet unter Verlust?

Ich habe mal einen radialen Gradient schwarz auf weißen Grund gezeichnet. Einmal mit 8bit/channel, einmal mit 16bit/channel.
Vergleiche mal die beiden in PS bei starker Vergrößerung.
Speichere dann das 16bit-Dings als JPG ab - oh geht nicht :)
Du must erst den Bildmodus auf 8bit/channel runtersetzen.
Jetzt nochmal angucken: aua ;)
 
Zuletzt bearbeitet:
Klar, ein Banding hat man sich schnell mal eingefangen.
Trotzdem hat doch die Anzahl der darstellbaren Zwischenstufen nichts mit dem Dynamik-Umfang zu tun?
 
Klar, ein Banding hat man sich schnell mal eingefangen.
Trotzdem hat doch die Anzahl der darstellbaren Zwischenstufen nichts mit dem Dynamik-Umfang zu tun?

Die Zwischenstufen sind für die Dynamik nicht von Bedeutung, aber durch größere Farbtiefe erhälts Du mehr Reserven in unterem (dunklerem) Bereich.

Siehe hier.
 
Ich habe mal einen radialen Gradient schwarz auf weißen Grund gezeichnet. Einmal mit 8bit/channel, einmal mit 16bit/channel.
Vergleiche ...
Hehe, einmomentmal!
Wurde nicht irgendwo gesagt digitale Daten können keinen Dynamikumfang haben? Wieviel Dynamikumfang haben denn die beiden Kreise?

Okay, aber mal den Spaß beiseite (ich weiß wie dein Post gemeint war):
Rein abstrakt können wir über alle (Daten-)Formate damit mal eine Halbordnung aufstellen, die besagt dass ein (Daten-)Format bei dem wir Information wärend dem Konvertieren verlieren - indem Werte (von wasweißichauchimmer) zusammenfallen - weniger Dynamikumfang hat.

criz.
 
#101 will mir nicht einleuchten.

Wären die Zahlenwerte z.B. auf Spannungsmeßgeräte bezogen, eines ohne Nachkommastellen (~8Bit), eines mit einer Nachkommastelle (~16Bit), dann OK. Das Gerät mit der Nachkomastelle hätte einen höheren Dynamikumfang, weil es untenrum mehr zu bieten hat.

Aber da es Dateiformate sind, mit deren Zahlen ich Messwerte abbilden will, passt das imho so nicht. Den kleinsten gemessenen Wert würde ich in der Datei als 1 darstellen, den größten Wert als 255 bzw. 65535, und schon ist der Dynamikumfang wieder der Gleiche. Das dE wäre in den beiden Dateien ein anderes.
 
Kommt aber von Dir ;), und ich fand wenigstens den letzten zusammenfassenden Satz einleuchtend.

Hehe.
Mal eine kleine Rekonstruktion eines semantischen Zusammenstoßes:

Die ursprüngliche Bedeuting von #101 war ja:
Bei einem linearen Zusammenhang kommen durch ein erhöhen der Dynamik auch sofort die feinern Abstufungen - beides ist irgendwie miteinander verbunden. Wir bekommen hier aber dann wieder das alte Problem mit was ist hell und was ist dunkel.

Auf der anderen Seite versuchen #225 und #222 dies einfach zu umgehen, wir drücken uns um die Bennenung von hell und dunkel herum und definieren Dynamik über den "Informationgehalt". (Und eine Halbordnung über den Informationverlust)

Danach schlägt die komprimierte Aussage zu #101 (von dir) dass die Abstufungen unwichtig sind - diese kommen ja aus dem linearen Verhältniss - auf.
Und schon kracht es irgendwo mittendrin.

criz.
 
Klar, ein Banding hat man sich schnell mal eingefangen.
Trotzdem hat doch die Anzahl der darstellbaren Zwischenstufen nichts mit dem Dynamik-Umfang zu tun?

Auf die Schnelle (muss zur Maloche): Stelle Dir Sensor A vor, der kann zwischen ganz wenig Licht und wirklich ganz viel Licht unterscheiden, dazwischen aber nicht. Stelle Dir Sensor B vor, der kann zwischen ganz wenig Licht und wirklich ganz viel Licht in 500 Stufen unterscheiden.

Abstand zwischen den beiden Werten ist bei A und B gleich. Ist aber der Dynamikumfang gleich? Nö.
 
Auf der anderen Seite versuchen #225 und #222 dies einfach zu umgehen, wir drücken uns um die Bennenung von hell und dunkel herum und definieren Dynamik über den "Informationgehalt". (Und eine Halbordnung über den Informationverlust)

Danach schlägt die komprimierte Aussage zu #101 (von dir) dass die Abstufungen unwichtig sind - diese kommen ja aus dem linearen Verhältniss - auf.
Und schon kracht es irgendwo mittendrin.

OK, Du hast Recht, die zusätzlichen Abstufungen sind doch nicht so unwichtig wie ich dachte. Sie sind es nämlich die ermöglichen, dass der Wert für Weiss (ich nenne es jetzt Einfachheithalber mal so) von 255 auf 65535 steigt (der zusätzliche Informationsgehalt). War etwas zu sehr auf die Definition und die min/max Werte fixiert.

Was ich aus Deinem Post herausgelesen zu glauben habe ist folgendes:

Laut der von Hafer Zitierten Definition (Verhältnis zwischen dem kleinstem und größten wahrnehmbaren Helligkeitsunterschied) ist die maximal darstellbare Dynamik in 8 Bit (255-0)/(1-0)=255. Nehmen wir nun an wir hätten ein Bild, dass den gesamten Dynamikbereich ausnutzt, d.h. es verwendet alle Werte von 0 bis 255. Wir wollen dieses Bild in ein 16 Bit Bild konvertieren und machen dies indem wir alle Werte mit 257 multiplizieren (Quotient aus 65535 und 255). Dann wird aus der 0 die 0, aus der 1 die 257, aus der 2 die 514, ... und aus der 255 die 65535. Berechnen wir jetzt die Dynamik für dieses Bild: (65535-0)/(257-0)=255. So weit so gut :), die Dynamik ist gleich. So sollte es auch sein, da wir keine neue Informationen in dem Bild abgelegt haben. Wenn wir jetzt durch Bildverarbeitung das Bild verändern und in dem Bereich von 257 bis 65535 bisher unbentzte Farbwerte hinzufügen, ändert sich nichts an der Dynamik des Bildes, das Verhältnis zwischen dem kleinstem und größten wahrnehmbaren Helligkeitsunterschied bleibt gleich. Wenn wir jedoch in dem Bereich von 0 bis 257 neue Farben hinzufügen, ändert sich der kleinste wahrnehmbare Helligkeitsunterschied, und somit auch die Dynamik.

Die neuen Farben zwischen 257 bis 65535 sind aber, anders als ich behauptet habe doch notwendig, um den Wert von Weiss soweit anwachsen zu lassen, dass ich den Platz von 0 bis 257 für zusätzliche Dynamik gewinne.
 
@Species:
Willst du denn nicht auch was zur allgemeinen Verwirrung beitragen?
Ach, man könnte die tatsächlich noch steigern?

Was ich in der Tat vermisse, ist jeder Zusammenhang von Dynamik und Sensorgröße. :evil: Ich wette, da ließe sich noch was machen.
Eher sollte man die 3 Eingangsdynamikumfänge gesondert betrachten.
Das ist doch schon mal ein guter Ansatz. Normalerweise geht man beim Dynamikumfang wohl immer von reinen Helligkeitsstufen, bzw. Schwarz-Weiss aus. Was aber, wenn plötzlich die Farben ins Spiel kommen? Bei der Bayer-Matrix gibt es ja doppelt so viele grüne Pixel wie rote und blaue - bedeutet das nun, dass der Dynamikumfang des roten und blauen Kanals nur jeweils halb so groß ist, wie der des grünen Kanals? :eek:

Und welchen Einfluss hat das auf die darstellbaren Helligkeitswerte? Die RGB Werte von 0-255 geben ja mitnichten immer die minimale bis maximale Luminanz wieder, sondern kodieren auch die Farbtöne. Dabei ist allerdings R=0/G=0/B=255 ein ziemlich dunkles Blau, R=0/G=255/B=0 ein ziemlich helles Grün. Ein helleres Blau erhält man nur durch Zumischen von Grün, ein dunkleres Grün nur, wenn man den Grünwert von 255 verkleinert, und damit die Dynamik für Grün deutlich reduziert. Mit anderen Worten, ein tiefblauer Himmel und ein dunkler Tannenwald können nicht so fein abgestuft dargestellt werden, wie ein Graustufenkeil im Labor. Aber solange wir die Dynamik abstrakt und völlig losgelöst von der Praxis betrachten, braucht uns das nicht groß tangieren.
 
Bei der Bayer-Matrix gibt es ja doppelt so viele grüne Pixel wie rote und blaue - bedeutet das nun, dass der Dynamikumfang des roten und blauen Kanals nur jeweils halb so groß ist, wie der des grünen Kanals?

Nein, nur die Ortsauflösung ist schlechter. Die Pixel sind ja alle einzeln zu betrachten, was die Fähigkeit zur "Helligkeitsauflösung" angeht.
 
Wirklich.

Du kannst ja jeden Pixel auch einzeln betrachten. Das Bayer-Pattern nimmt zwar die Informationen aus allen umliegenden Pixeln zusammen, ABER:

wenn bspw. die Pixel "Rot" alle "unterbelichtet" sind, dann sind sie ALLE unterbelichtet. Nur weil man drei statt einem hat, bekommt man hier nicht "mehr" Auflösung zusammen.

Wäre der rote Pixel größer, und würde einen entsprechend anderen Wertebereich und möglicherweise somit besseren Rauschabstand aufweisen, wäre das was anderes. Da es einfach nur mehr sind, und jeder einzelne für sich nicht besser arbeitet, aber nicht.
 
Was ich in der Tat vermisse, ist jeder Zusammenhang von Dynamik und Sensorgröße. :evil:

Größere Sensoren bedeuten verhältnismäßig weniger Rauschen, also ist der Quotient aus maximaler Sättigung und dem kleinsten vom Rauschen unterscheidbaren Signal größer. Somit größerer Dynamikumfang. Richtig?

Bei der Bayer-Matrix gibt es ja doppelt so viele grüne Pixel wie rote und blaue - bedeutet das nun, dass der Dynamikumfang des roten und blauen Kanals nur jeweils halb so groß ist, wie der des grünen Kanals? :eek:

Nicht der Dynamikumfang, sondern die Bildauflösung. AFAIK hängt das damit zusammen, dass das menschliche Auge die grüne Farbe wesentlich besser auflösen kann, als die anderen beiden. Außerdem hat das menschliche Auge viel mehr Rezeptoren zur Bestimmung der Helligkeit als für Farben. Darum ist der grüne Teil des Bayer-Pattern bestimmend für die Helligkeitsverteilung im Bild.

Ein helleres Blau erhält man nur durch Zumischen von Grün

Das wäre eigentlich kein Blau mehr sondern Cyan.
 
Nein, nur die Ortsauflösung ist schlechter. Die Pixel sind ja alle einzeln zu betrachten, was die Fähigkeit zur "Helligkeitsauflösung" angeht.
Ein einzelner Pixel kann nur einen einzigen Farb/Helligkeitswert darstellen. Abstufungen sind nur durch viele Pixel nebeneinander möglich, siehe den Beitrag von crizmess.
Wirklich.

Du kannst ja jeden Pixel auch einzeln betrachten. Das Bayer-Pattern nimmt zwar die Informationen aus allen umliegenden Pixeln zusammen, ABER:

wenn bspw. die Pixel "Rot" alle "unterbelichtet" sind, dann sind sie ALLE unterbelichtet. Nur weil man drei statt einem hat, bekommt man hier nicht "mehr" Auflösung zusammen.
In dem Fall, in dem alle Pixel von exakt derselben Lichtmenge getroffen werden, stimmt das. Das ist aber nur beim Ablichten einer homogenen Fläche, z.B. einer Graukarte, der Fall. Sobald aber ein Motiv Helligkeitsunterschiede aufweist, trifft nicht mehr auf alle Pixel dieselbe Lichtmenge. Je mehr Pixel, desto detaillierter kann das Motiv dargestellt werden, sowohl was Detailauflösung als auch Helligkeit/Farbabstufungen betrifft. Beispiel herkömmlicher Silberfilm: Je größer das Aufnahmeformat, desto mehr Informationen bei gleicher Korngröße, bzw. Korndichte.
 
Äh... ein Pixel kann sehr wohl einen Wert von 2, 5 ODER 20 haben. Darum geht's, und nicht, ob nebeneinanderliegende Pixel unterschiedliche Werte haben.

Ihr verwechselt hier Orts- und Helligkeitsauflösung. Gerade der zweite von dir beschriebene Fall - eine nicht homogene Fläche - betrifft die Ortsauflösung.

Das geht aber völlig am Ursprungsthema vorbei. Gratulation an denjenigen, der auch noch damit angefangen hat.
 

Nein.

Betrachten wir mal ein einfaches Demosaicing, dass half size demosaicing.
(Alle anderen Demosaic-Algorithmen machen im Prinzip das selbe nur eben ein bisschen komplizierter - es reicht dies aber an dem einfachsten Beispiel zu zeigen)

hsd halbiert die Auflösung, also fallen immer 4 Eingangspixel auf ein Ausgangspixel. Intelligenterweise fallen also ein R, ein B und 2 G Pixel der Bayermatrix auf ein (RGB) Ausgangspixel. Wir können also getrost R und B für die Farbkanäle des Ausgangspixel nehmen.
Was aber machen wir mit den 2 G Pixel? - Hier bildet hsd einfach den Mittelwert beider und genau hier wird es interessant:

Dadurch das wir einen Mittelwert bilden veringern wir das Rauschen im Grünkanal. Damit steigt - oh wunder - laut unserer bisherigen Definition der Dynamikumfang der Grünkanals (ziemlich genau um eine Blende - je nach Art des Rauschens).

Hmm...

Komisch oder?

criz.
 
Das wäre eigentlich kein Blau mehr sondern Cyan.
Irgendwann ja, aber anderes ist bei der additiven Farbmischung schwer denkbar.
Äh... ein Pixel kann sehr wohl einen Wert von 2, 5 ODER 20 haben.
Aber nur jeweils einen einzigen.
Ihr verwechselt hier Orts- und Helligkeitsauflösung. Gerade der zweite von dir beschriebene Fall - eine nicht homogene Fläche - betrifft die Ortsauflösung.
O.k., dann eben mal andersrum: Wir fotografieren eine völlig homogene Graukarte (um die Ortsauflösung völlig aus dem Beispiel herauszunehmen) mit verschiedenen Dynamikumfängen - worin bestehen nun jeweils die Unterschiede?

Ohne Ortsauflösung erscheint mir eine Helligkeitsauflösung schwer machbar, aber ich lasse mich gern eines anderen belehren.
 
WERBUNG
Zurück
Oben Unten