• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Im Prinzip macht der Kompressor das gleiche wie die Tonwertkurve beim Foto.
 
Im Prinzip macht der Kompressor das gleiche wie die Tonwertkurve beim Foto.

Stimmt. Warum bin ich da nicht selber draufgekommen?

Ist es überhaupt üblich, bei der Bildverarbietung nach dem A/D-Wandler noch von Dynamik zu sprechen? Oder nennt man das dann einfach Tonwertumfang oder Kontrast?

Markus
 
Weiss ich noch nicht. War noch nicht in der Bibo (vgl. Seite 1 :D)

Die Vorlesung Bildverarbeitung habe ich ehrlich gesagt meist geschwänzt, und dann einfach dank Vorwissen ne Klausur im 2er-Bereich abgeliefert... keine Lust gehabt auf das Geschwurbel. Tja, und jetzt bräuchte ich es :evil:
 
Im Audiobereich gibt es Dynamikkompressoren/-expander. Wie nennt man sowas denn im BIldbereich?

Tonerkorektur ... würd ich jetzt mal sagn. Damit kann man Spielent Kontraste etc wo anders hin legn oder Details weg waschen oder verstärken.
 
Das "Dynamik=Bittiefe"-Ungeheuer können wir aber sicher als erlegt betrachten.

Insofern wir akzeptieren, dass die Bittiefe die Dynamik eines Motivs begrenzt, ja ;-)

1. Dynamik ist der Quotient aus maximalen und miniamalem Wert

[...]

II. Dynamik von was?

Wenn du mir sagst, welchen "Wert" du in 1) meinst, dann sage ich dir, wovon wir in II sprechen :)

Ich versuch's mal:
Hier kann es nicht um Sensor-, Format-, oder Papierdynamiken gehen, denn die haben gar keine Dynamik. Es ist eine irreführende Floskel zu sagen, der Sensor habe diesen und jenen Dynamikumfang. Gemeint ist dann immer der maximale noch bewältigbare Dynamikumfang.
Und wo es ein Maximum gibt, reden wir über Grenzen: D.h. Sensoren, Formate oder Papiere begrenzen die Dynamik lediglich auf vielfältige Art und Weise.
Was aber begrenzen sie? Sie begrenzen sie das, was wir mit jedem Foto sammeln: Licht. Lasst uns also von Luminanzwerten sprechen.

III. Im Zusammenhang damit scheint mir zu stehen, was von "linear" gesagt wird. Ich habe die Vorraussetzung des linearen Zusammenhangs noch nicht verstanden.

Dies hängt damit zusammen, dass die menschliche Lichtwahrnehmung logarithmisch funktioniert: Doppelte Lichtmengen führen nicht dazu, dass wir etwas doppelt so hell wahrnehmen. Das gleiche gilt für andere menschliche Sensoren: doppelter Schalldruck führt nicht zu doppelt lauter Wahrnehmung - aber zu Gehörschäden ;)
Das bedeutet, dass "nach oben" die Lichtmenge des menschlichen Sensors (keine Ahnung, ob das im Auge, oder erst im Hirn geschieht) in einer komprimierten Helligkeitswahrnehmung endet.
In einem Satz: Lineare Lichtmengensteigerung führt nicht zu linearer Helligkeitswahrnehmung.

Und das kennen wir bereits aus der Fotografie: Die Lichtwerte LW wachsen um 1, wenn sich die Lichtmenge halbiert.

Die ISO legt fest: 0LW ist die Lichtmenge, die bei Blende 1 und Belichtungszeit von 1 sec auf den Sensor fällt. 1LW kann man also erreichen, wenn man für die Blende 1.4 oder 1/2sec Belichtungszeit wählt, was in beiden Fällen heisst, dass die Lichtmenge halbiert wird.

Und jetzt verweise ich auf diesen Post, in dem ich erklärt habe, wie man Dynamikumfang und Lichtwerte (meinetwegen auch Belichtungsstufen) in Beziehung setzt.

Damit sind wir von der abstrakten Definition, was Dynamikumfang beschreibt, hin zu einer uns allen geläufigen Betrachtung von Dynamiken in Form von Lichtwerten gelangt: Ein Dynamikumfang von 4096:1 entspricht log2(4096) = 12 LW.
 
@NetrunnerAT
Mit dem Dynamikumfang hat das dann folgendes zu tun: Der Himmel ist normalerweise die hellste Stelle im Bild und wir kennen alle das Problem, daß er an einem hellen Sommertag leicht überstrahlt, da der Dynamikumfang der Kamera zu gering ist, um ein Motiv richtig zu belichten und zugleich den Himmel richtig zu belichten. Mit Polfiltern, oder Grauverlaufsfiltern versucht man das dann etwas abzumildern.

Ich hab' mal das Wesentliche vervorgehoben.
Das bedeutet, dass man mit Filtern den Dynamikumfang des Motivs so begrenzt, dass es den maximal bewältigbaren Dynamikumfang des Kamerasensors nicht übersteigt.

Ich reite jetzt auf dem "begrenzt" so herum, weil ich für einen Augenblick "komprimiert" schreiben wollte. Aber das ist völlig falsch, denn komprimieren heisst ja, den Abstand zwischen den Helligkeitswerten zu verringern (was übrigens nach der durch mich hier so vehement vertretenen Definition keine Dynamikreduktion wäre ;) ). Der Filter schneidet jedoch Spitzlichter ab.
 
Nein, der Filter schneidet keine Spitzlichter ab. Der Filter reduziert Frequenzabhängig die Intensität (Lichtmenge) - und dabei natürlich nicht nur die "Spitzen", sondern die "ganze Kurve". Was das bringt?

Nun, nehmen wir mal an, wir haben relativ "warmes" Licht. Das wird dazu führen, das bspw. blaue und grüne Objekte im Bild weniger Licht reflektieren als unter kälterem Licht. Eine rote Blüte hingegen wird relativ mehr Licht reflektieren.

Das führt dazu, dass der Rotkanal sehr viel mehr Intensität zeigt als blau und grün; einige Sensorzellen werden also überfordert, andere eher unterfordert. Mit einem Farbfilter können wir nun selektiv einen Teil des Spektrums (hier den rote) dämpfen, und damit die Differenz zwischen den Farbkanälen ausgleichen. Natürlich wird das Bild dabei einen heftigen Farbstich bekommen, und insgesamt dunkler. Durch die längere Belichtung werden damit die grün/blauwerte heller, und der Rotkanal wird trotzdem dank des Filters nicht überbelichtet.

Der Vorteil ist, das so alle Kanäle halbwegs gleichwertig ausgesteuert werden, und man somit in allen Farbkanälen reichlich Material hat, um zum Beispiel Zeichnung aus den Tiefen hervorzuholen. Den Farbstich kann man mit einem inversen Filter wieder korrigieren, indem man aber
*vorher* die Tonwertkurven ansetzt, kann man auf die gewonnenen Informationen voll zugreifen.

Auf die Dynamik wirkt sich das positiv in sofern aus, als das eben die sonst "dunklen" Kanäle ja zwangsweise nur einen Teil des Dynamikumfangs der Kamera nutzen würden (eben den "unteren" Teil des Dynamikumfangs, sie sind ja "unterbelichtet"); während sonst vielleicht schon Werte unterhalb von -5eV "abgesoffen" sind, kann ein Filter, der den entsprechenden helleren Teil des Spektrums um 2.5eV absenkt, hier einen Gewinn von entsprechend 2,5eV bringen.

Ob sich das lohnt? Höchstens in Spezialfällen, mir fällt auch gerade keiner ein, ehrlich gesagt. Im Grunde nur dann, wo im Motiv ein nicht anderweitig behebbarer Kontrast vorliegt, der stark Beleuchtungsfarbabhängig ist.
 
Nein, der Filter schneidet keine Spitzlichter ab. Der Filter reduziert Frequenzabhängig die Intensität (Lichtmenge) - und dabei natürlich nicht nur die "Spitzen", sondern die "ganze Kurve".

Ja, das war nicht genau genug formuliert. Nichtsdestotrotz "behält ein Filter Licht zurück" - er würde sonst nicht filtern. Oder mit deinen Worten "reduziert frequenzabhängig die Intensität", bzw. mit meinen Worten: "...dass man mit Filtern den Dynamikumfang des Motivs so begrenzt, dass es den maximal bewältigbaren Dynamikumfang des Kamerasensors nicht übersteigt."

In jedem Fall gaukelt man mit Filtern dem Sensor eine geringere Lichtmenge vor, als tatsächlich im Motiv steckt - meinetwegen auch frequenzabhängig. ;)

Deine folgenden Ausführungen zeigen, dass man fotografisch etwas davon hat, sich mit dieser Thematik auseinanderzusetzen :)
 
Ahjoa :)

Der letzte Satz mit dem "abschneiden" war halt einfach falsch, nicht ungenau. Das wäre dann Clipping, und ich weiss nicht mal, ob man das mit optischen Mitteln überhaupt irgendwie erreichen kann ;)

Sowas streut halt Gerüchte. Aber wir wissen ja jetzt, was du gemeint hast :)
 
... Nun, nehmen wir mal an, wir haben relativ "warmes" Licht. Das wird dazu führen, das bspw. blaue und grüne Objekte im Bild weniger Licht reflektieren als unter kälterem Licht. Eine rote Blüte hingegen wird relativ mehr Licht reflektieren...
Das führt dazu, dass der Rotkanal sehr viel mehr Intensität zeigt als blau und grün; einige Sensorzellen werden also überfordert, andere eher unterfordert.
Diese Belichtungsreihe wurde bei Glühlampenlicht gemacht. Man sieht deutlich, dass der Rotkanal des Sensors mehr als der Grünkanal, und dieser wieder viel mehr als der Blaukanal angeregt wurde. Entsprechend geht der Rot-Kanal auch als erster in die Sättigung. Vielleicht könnte der Dynamikumfang des Sensors erhöht werden, wenn alle Kanäle (bei der Grautafelbelichtung) gleich stark angeregt würden.
 
Ja, das war nicht genau genug formuliert. Nichtsdestotrotz "behält ein Filter Licht zurück" - er würde sonst nicht filtern. Oder mit deinen Worten "reduziert frequenzabhängig die Intensität", bzw. mit meinen Worten: "...dass man mit Filtern den Dynamikumfang des Motivs so begrenzt, dass es den maximal bewältigbaren Dynamikumfang des Kamerasensors nicht übersteigt."

In jedem Fall gaukelt man mit Filtern dem Sensor eine geringere Lichtmenge vor, als tatsächlich im Motiv steckt - meinetwegen auch frequenzabhängig. ;)
Und wo führt uns das hin? Im Motiv "stecken" meist auch jede Menge IR- und/oder UV-Anteile, die normalerweise immer herausgefiltert werden. Außerdem sehen die Sensoren nicht mal neutral das gesamte Spektrum sichtbaren Lichts, sondern sind darauf abgestimmt, die menschliche Farbwahrnehmung zu reproduzieren.

Wenn wir anfangen, beim Dynamikumfang spektral zu denken, hat das die Konsequenz, dass unterschiedlicher Weißabgleich und unterschiedliche Lichttemperatur auf einmal ebenfalls den Dynamikumfang verändern. Ich bin mir nicht ganz sicher, ob das wirklich dazu beiträgt, das Thema einfacher und durchschaubarer zu machen.:rolleyes:
 
Insofern wir akzeptieren, dass die Bittiefe die Dynamik eines Motivs begrenzt, ja ;-)

Aber: Die "Dynamik des Motivs" ist - zumindest in meiner Terminologie - völlig unabhängig von irgendeiner Bittiefe. Denn:

wenn die Sonne xmal heller ist als die Hauswand im Schatten, dann ist es egal, ob Du Dir das überhaupt anschaust, geschweige denn, mit was für einen Sensor Du es photographierst.

@Dynamikumfang

Ich denke da kommen wir ins Geschäft. Natürlich geht es darum, den Dynamikumfang zu bestimmen. Da gibt es in meinen Augen, einen Dynamikumfng des Motivs. Er ist unabhängig davon, ob jemand dieses Motiv anschaut oder photographiert. Es gibt weiter auf jeden Fall einen Dynamikumfang des Sensors, der sich nach der A/D-Wandlung sicherlich irgendwie auch in den RAW-Daten spiegelt.

Angenommen nun, ich habe es geschafft mit einem Sensor, der einen hohen Dynamikumfang hat, bei einem Moiv mit hohem Dynamikumfang, den D-Umfang des Sensors voll auszuschöpfen. Jetzt bin ich in JEDEM Fall in der Lage, diese Dynamik auch durch Gradiationskurven irgendwie auf den Bildschirm oder Drucker zu bekommen.

Gruß
frechBengel
 
Der Unterschied beider Aufassungen liegt meiner Meinung darin, daß ich den digitalen Daten strikt nur eine ordinale Bedeutung zugestehe. Das heißt, daß der Pixelwert nur etwas drüber aussagt, ob er heller, dunkler oder gleich hell ist wie ein anderes Pixel. _CAT_ legt mehr Bedeutung in den Pixelwert, indem er ihm eine zwar nicht exakt bdestimmte, aber doch kardinale Bedeutung zuspricht; denn nur eine kardinale Bedeutung eröffnet die Möglichkeit, einen Quotienten zu bilden. (kardinale Bedeutung heißt, daß 10 zumindest etwa und irgendwie doppelt so hell ist wie 5).

Sehr gut zusammengefasst. Jetzt habe ich endlich verstanden, wo der Kern unserer unterschiedlichen Standpunkte liegt :).

Als Beispiel könnte _CAT_ uns (so glaube ich ihn verstanden zu haben) zwei digitale Bilder vorlegen, die beide keinem Farbraum zugeordnet sind. Im einem Bild stehen nur 126, im zweiten stehen Werte zwischen 0 und 255. _CAT_ würde an dieser Stelle erstens behaupten, daß das zweite Bild eine höhere Dynamik hat. Darauf könnte man sich (schmerzlich) einigen. Zweitens würde er sie uns aber auch ausrechnen wollen. (richtig, _CAT_?) Diese Möglichkeit wird von mir auf jeden Fall bestritten.

Richtig.

Insofern wir akzeptieren, dass die Bittiefe die Dynamik eines Motivs begrenzt, ja ;-)

Ich denke, Hafer meinte, dass die Bittiefe die Dynamik des Abbilds des Motivs in der Datei begrenzt.
 
Aber: Die "Dynamik des Motivs" ist - zumindest in meiner Terminologie - völlig unabhängig von irgendeiner Bittiefe.

Kein aber. Nicht nur in deiner Terminologie :)

Da gibt es in meinen Augen, einen Dynamikumfng des Motivs. Er ist unabhängig davon, ob jemand dieses Motiv anschaut oder photographiert. Es gibt weiter auf jeden Fall einen Dynamikumfang des Sensors, der sich nach der A/D-Wandlung sicherlich irgendwie auch in den RAW-Daten spiegelt.

Das hat BlauesHirn doch sehr gut beschrieben: Der max. Dynamikumfang des Sensors wird bestimmt durch das kleinste vom Rauschen gerade noch unterscheidbare Signal und der Sättigung.

Und auch daran kommt keiner vorbei: nach Auslesen des Sensors werden die ausgelesenen Werte in ein (RAW-, JPG, mir-total-egal-)Dateiformat geschrieben - und wir alle hoffen, dass die Kamerahersteller bei der Entwicklung ihres proprietären RAW-Formates darauf geachtet haben, dass die Repräsentation der ausgelesenen Werte durch falsch gewählte Bittiefe keine Reduktion erfährt. Oder mit anderen Worten: Dass der max. Dynamikumfang des gewählten RAW-Formates den max. Dynamikumfang des Sensors nicht unterschreitet.

Angenommen nun, ich habe es geschafft mit einem Sensor, der einen hohen Dynamikumfang hat, bei einem Moiv mit hohem Dynamikumfang, den D-Umfang des Sensors voll auszuschöpfen. Jetzt bin ich in JEDEM Fall in der Lage, diese Dynamik auch durch Gradiationskurven irgendwie auf den Bildschirm oder Drucker zu bekommen.

Das wär schön :D

Edith meint: Ach so, du meinst aus der Fülle in den Mangel durch einigermaßen geschicktes Weglassen? Ja, das geht immer :)
 
Das wäre dann Clipping, und ich weiss nicht mal, ob man das mit optischen Mitteln überhaupt irgendwie erreichen kann ;)

Was ist denn clipping?
WIKI sagt: Clipping ist die "Umwandlung aller Tonwerte, die heller als eine bestimmte Graustufe sind in Weiß bzw. aller Tonwerte, die dunkler als eine bestimmte Graustufe sind in Schwarz"

Äh, ich glaube ich kann dir gerade nicht folgen :o
Aber lass' uns das hier nicht vertiefen, ich bekomme Angst :)

Sowas streut halt Gerüchte. Aber wir wissen ja jetzt, was du gemeint hast :)

Jeder hat das Recht, sich auf der Zielgeraden nochmal chic ins Knie zu schießen, findest du nicht? :D
 
Wieso ist denn jetzt doch wieder vom Dynamikumfang eines Dateiformats die Rede?

Ist nicht. Es ist die Rede vom maximalen Dynamikumfang eines Formates und meint damit den Dynamikumfang, der gerade noch ohne Verlust vom gewählten Format bewältigt werden kann. Ein Format an sich hat keinen Dynamikumfang.
 
Ui ui ui, okay:

... Vielleicht könnte der Dynamikumfang des Sensors erhöht werden, wenn alle Kanäle (bei der Grautafelbelichtung) gleich stark angeregt würden.

Ich würde hier der Einfachheit halber mich davor hüten (Species hat das schon angedroht, und so wie ich ihn kenn würde er es wahr machen) von Dynamik über das gesamte Spektrum zu reden.
Eher sollte man die 3 Eingangsdynamikumfänge gesondert betrachten. Ein Farbfilter macht also nichts anderes als surch (lineare) skalierung die einzelnen Dynamkumfänge auf die einzelnen Motivkontraste der Szene besser anzupassen. (Im Prinzip genau das gleiche was man mit allen 3 durch Blende/Belichtung/Iso und Graufilter macht)

Aber: Die "Dynamik des Motivs" ist - zumindest in meiner Terminologie - völlig unabhängig von irgendeiner Bittiefe. Denn:

Das wäre dann wohl einfach ein der Motiv-Kontrast.
Ich vermute sehr stark dass Dynamik(umfang) etwas mit Interpretation und "erfassbarkeit von Unterschieden" zu tun hat.
Denn:
Das hat BlauesHirn doch sehr gut beschrieben: Der max. Dynamikumfang des Sensors wird bestimmt durch das kleinste vom Rauschen gerade noch unterscheidbare Signal und der Sättigung.
Wo bekommen wir bitte dann das Rauschen bei einem Motiv her? Hat das ein Grundrauschen? Oder doch eher einen minimalen Helligkeitswert?

@Species:
Willst du denn nicht auch was zur allgemeinen Verwirrung beitragen?

criz.
 
Ist nicht. Es ist die Rede vom maximalen Dynamikumfang eines Formates und meint damit den Dynamikumfang, der gerade noch ohne Verlust vom gewählten Format bewältigt werden kann...
Ist doch das Gleiche:confused: Welchen maximalen Dynamikumfang hat denn ein Jpg? Man kann 20 Blenden reintun oder die 8Bit mit 2 Blenden ausreizen.
 
WERBUNG
Zurück
Oben Unten