• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Ich weiß nicht so recht, ob es Dynamik überhaupt geben kann, wenn man nur Zahlen ohne Bezug zur echten Welt betrachtet.

In den 8-Bit-Daten kann ich eine Eingangsdynamik von 2, 256 oder auch 100.000 unterbringen. Und in 16Bit-Daten genauso... Hier gibt es einen Bezug zur echten Welt, da ist die Dynamik gleich.
 
Wenn ich ein RAW-Bild aus einer Kamera mit 14 Bit Auflösung und 66dB Dynamik (11 Blendenstufen) in ein Jpeg ohne Farbprofil umwandle - was hat sich dann geändert? Ich behaupte, es ist die Dynamik, denn man kann natürlich auch von reinen Zahlen ein Verhältnis berechnen.

Dass sich die Dynamik beim Darstellen oder beim Hinzufügen eines Farbprofils ändert ist dabei doch egal - das sind weitere Bearbeitungsschritte und natürlich kann sich bei jeder Verarbeitung die Dynamik ändern.
 
Um die Veränderung soll es aber nicht gehen, es geht ja um die absolute Dynamik des Motives, ob ich die überhaupt erstmal in den Kasten bekommen (hier Spielt der Sensor bzw. die Aufnahmetechnik die Hauptrolle, weiter Transformationen sind möglich, aber was einmal abgeschnitten wurde, das ist weg.

Lustig wird es, wenn man die Eingangsdynamik mindert (schlechtes Wetter) und hinterher hochzieht und schönes Wetter draus macht (per EBV gehts, mehr Dynamik hat man damit aber nicht; nur scheinbar).
 
Folgendes glaube ich verstanden zu haben:

Der Dynamikumfang eines Sensors wird nach unten durch das Rauschen begrenzt. Das kleinste Signal, was sich vom Rauschen unterscheidet, wird die untere Grenze des Dynamikumfanges. Die obere Grenze wird durch die Sättigung der Sensoren bestimmt. Bei höherem Eingangssignal kann keine Ladung mehr aufgenommen werden. Somit habe ich den Dynamikumfang, den mein Sensor aufnehmen kann. Ob diese Signal nun in 8-bit oder 16 bit Struktur umgewandelt wird, sagt dann was über die Abstufungen der Helligkeitstöne aus. Bei 16-bit kann dann ein dunkles Mausgrau noch von schwarz unterschieden werden. Bei 8 bit wreden diese beiden Helligkeitstöne dann nicht mehr unterschieden.
So muss jetzt die Bettkarte drücken.
Lg Jö
 
Wenn ich ein RAW-Bild aus einer Kamera mit 14 Bit Auflösung und 66dB Dynamik (11 Blendenstufen) in ein Jpeg ohne Farbprofil umwandle - was hat sich dann geändert? Ich behaupte, es ist die Dynamik, denn man kann natürlich auch von reinen Zahlen ein Verhältnis berechnen.

Zumindestens der Kontrastumfang kann dabei durchaus gleich geblieben sein. Soll Dynamik was anderes darstellen?
 
Folgendes glaube ich verstanden zu haben:

Der Dynamikumfang eines Sensors wird nach unten durch das Rauschen begrenzt. Das kleinste Signal, was sich vom Rauschen unterscheidet, wird die untere Grenze des Dynamikumfanges. Die obere Grenze wird durch die Sättigung der Sensoren bestimmt. Bei höherem Eingangssignal kann keine Ladung mehr aufgenommen werden. Somit habe ich den Dynamikumfang, den mein Sensor aufnehmen kann. Ob diese Signal nun in 8-bit oder 16 bit Struktur umgewandelt wird, sagt dann was über die Abstufungen der Helligkeitstöne aus. Bei 16-bit kann dann ein dunkles Mausgrau noch von schwarz unterschieden werden. Bei 8 bit wreden diese beiden Helligkeitstöne dann nicht mehr unterschieden.
So muss jetzt die Bettkarte drücken.
Lg Jö
Volle Zustimmung! :top:
Grüße
losch
 
Folgendes glaube ich verstanden zu haben:

Der Dynamikumfang eines Sensors wird nach unten durch das Rauschen begrenzt. Das kleinste Signal, was sich vom Rauschen unterscheidet, wird die untere Grenze des Dynamikumfanges. Die obere Grenze wird durch die Sättigung der Sensoren bestimmt. Bei höherem Eingangssignal kann keine Ladung mehr aufgenommen werden. Somit habe ich den Dynamikumfang, den mein Sensor aufnehmen kann. Ob diese Signal nun in 8-bit oder 16 bit Struktur umgewandelt wird, sagt dann was über die Abstufungen der Helligkeitstöne aus. Bei 16-bit kann dann ein dunkles Mausgrau noch von schwarz unterschieden werden. Bei 8 bit wreden diese beiden Helligkeitstöne dann nicht mehr unterschieden.
So muss jetzt die Bettkarte drücken.
Lg Jö
Genau so ist es :top:

/thread
 
Folgendes glaube ich verstanden zu haben:

Der Dynamikumfang eines Sensors wird nach unten durch das Rauschen begrenzt. Das kleinste Signal, was sich vom Rauschen unterscheidet, wird die untere Grenze des Dynamikumfanges. Die obere Grenze wird durch die Sättigung der Sensoren bestimmt. Bei höherem Eingangssignal kann keine Ladung mehr aufgenommen werden. Somit habe ich den Dynamikumfang, den mein Sensor aufnehmen kann. Ob diese Signal nun in 8-bit oder 16 bit Struktur umgewandelt wird, sagt dann was über die Abstufungen der Helligkeitstöne aus. Bei 16-bit kann dann ein dunkles Mausgrau noch von schwarz unterschieden werden. Bei 8 bit wreden diese beiden Helligkeitstöne dann nicht mehr unterschieden.
So muss jetzt die Bettkarte drücken.
Lg Jö

Jo, so ist es :)
Mit der kleinen Ergänzung, dass die jpg Wandelung selten alle Tonwerte aus der RAW datei berücksichtigt, sie legt sozusgen eine Maske drüber, die oben und unten Tonwerte abschneidet .. denn der volle Kontrastumfang, den der Sensor aufgezeichnet hat, ist selten sinnvoll für ein Bild.
Wenn bei der Konvertierung oben Luft gelassen wird, dann nennt man das heute "Headroom", damit kann man ausgerissene Lichter, falls man das RAW noch hat, zurückholen (in gewissem Masse). Heutige Kameras haben immer weniger Headroom, was sich positiv auf das Rauschen im jpg auswirkt, aber negativ auf die Belichtungssicherheit in RAW.
Um hier zu tricksen hat man den Headroom durch die Hintertür wieder eingeführt ... diesmal so, dass auch jpg profitiert. Am Beispiel Pentax: hier wird eine Blende unterbelichtet, der Konverter (auch in der Camera) erkennt die Funktion und zieht die Tonwerte hoch, so dass ein normal belichtetes Bild entsteht ... mit einem nach den Lichtern verschobenen Dynamikbereich.

eigentlich doch nichtmal sooo kompliziert, wie die letzten 19 Seiten es suggerieren ;)
Ich erwähnte glaub ich schon, dass ich Euere Diskussion nicht so richtig zielführend für das Thema finde, auf den letzten Seiten wird auch schon wieder munter Eingangsdynamik und Ausgangsdynamik durcheinandergeschmissen und über die Speicherfähigkeit eines Formats philosophiert ...

Ein Vorschlag noch von meiner Seite ... um zu verstehen wie die Bildspeicherung funktioniert, wäre es auch sinnvoll sich ein linear konvertiertes RAW anzusehen.
 
Zuletzt bearbeitet:
Ich erwähnte glaub ich schon, dass ich Euere Diskussion nicht so richtig zielführend für das Thema finde, auf den letzten Seiten wird schon wieder munter Eingangsdynamik und Ausgangsdynamik durcheinandergeschmissen und über die Speicherfähigkeit eines Formats philosophiert ...

Finde ich jetzt wiederum nicht so zielführend, deinen Hinweis. Was BlauesHirn beschrieb, ist (a) vollkommen richtig, aber (b) mitnichten unabhängig von Eingangs- Ausgangs-, oder Sonstwasdynamik, sondern die Beschreibung, wie der Dynamikumfang des Motivs da draußen (zeig' auf das fiese Gegenlichtbeispiel) reduziert wird auf den maximalen Dynamikumfang des Sensors. Ich habe kurz vorher beschrieben, wie dieser Umfang dann weiter reduziert wird, wenn man die falsche Repräsentation wählt (z.B. 8bit), und [ich weiß nicht mehr wer, sorry] hat ganz früh schon beschrieben, wie der klägliche Rest an Dynamikumfang dann noch einmal reduziert wird auf den max. Dynamikumfang eines dahergelaufenen Fotopapiers.

Insofern sind diese Diskussionsbeiträge völlig konsistent, allerdings zeitlich in umgekehrter Reihenfolge des Entstehungsgangs vom Motiv bis zum Abzug.

Ich sehe das so: Wir sind am Ziel, wir wissen, was Dynamikumfang bedeutet - lediglich die Beschreibung dessen, was den Dynamikumfang so alles beeinflussen kann, ist noch nicht vollständig ("logarithmisches Sehen" vs. Sensor, Gamma, um nur zwei zu nennen).

Der nächste Schritt ist dann: Wie verhilft uns das Wissen zu besseren Bildern?
:)
 
Hallo miteinander!

Ich füchte, daß wir noch nicht soweit sind, zu wissen, was Dynamik bedeutet. Gelungen dürfte soweit sein, daß jeder zumindest einen Eindruck davon gewonnen hat. Das "Dynamik=Bittiefe"-Ungeheuer können wir aber sicher als erlegt betrachten.

I. Ich sehe soweit noch Punkte zur Definition von Dynamik offen:

1. Dynamik ist der Quotient aus maximalen und miniamalem Wert
2. wie 1. nur mit der Forderung, daß der min Wert von Null verschieden sein muß.
3. Die von Hafer erklärte Definition von der Dynamik als einem Quotienten aus max. Konrastdifferenz zu minimaler Kontrastdifferenz.
4. (hier bin ich mir nicht sicher) scheint aber crismes in seinem Post 101 noch wieder andere Aspekte mit hineingebracht zu haben.
5. Sind wir noch alle gespannt auf LGWs Charmeoffensive bei der Bib-Aufsicht.

II. Dynamik von was?

1. Ich glaube wir werfen gelegentlich noch immer zu arg durcheinander, über welche Dynamik wir sprechen. Ich versuchte (und es gelang nicht sehr gut), das in meinem Post 102 schon etwas mehr zu systematisieren.

2. Sofern man an verschiedeen Stellen den Begriff der Dynamik ganz anders anwenden muß, so steht noch offen wie diese Begriffe zusammenhängen. Beispiel: Dynamik des Motivs und Dynamik des Sensors.

III. Im Zusammenhang damit scheint mir zu stehen, was von "linear" gesagt wird. Ich habe die Vorraussetzung des linearen Zusammenhangs noch nicht verstanden. In meinem Denken sind die Dynamik des Motivs und die Dynamik des Sensors verschiedene Werte. Aus der Aufnahme eines Motivs auf einem Sensor kann ich daher nicht auf die Dynamik des Motivs schließen. Ich behandel diebeiden Werte getrennt voneinander. - Unter der Voraussetzung von Linearirät wären in meinem Denken Rückschlüsse möglich, sofern der Sensor fähig ist, den Dynamikumfang des Motivs "einzufangen".

IV. "binäre Dynamik" (schlechtes Wort, ihr wißt schon, was ich meine)

Es konnte keine Einigkeit erzielt werden (werden wir wohl auch nie) ob digitale Daten einen Dynamik haben können. Ich habe in vielen Post versucht, das zu bestreiten und die digitalen Daten immer auf eine Helligkeit bezogen, die in der realen Welt klar definiert ist: Stichwort Farbraum. Von anderen, vor allem _CAT_, wurde hingegen vorgetragen, daß die digitalen Daten eines Bildes unabhängig von einer konkreten oder bestimmten Helligkeit, bereits eine Dynamik aufweisen.

Als Beispiel könnte _CAT_ uns (so glaube ich ihn verstanden zu haben) zwei digitale Bilder vorlegen, die beide keinem Farbraum zugeordnet sind. Im einem Bild stehen nur 126, im zweiten stehen Werte zwischen 0 und 255. _CAT_ würde an dieser Stelle erstens behaupten, daß das zweite Bild eine höhere Dynamik hat. Darauf könnte man sich (schmerzlich) einigen. Zweitens würde er sie uns aber auch ausrechnen wollen. (richtig, _CAT_?) Diese Möglichkeit wird von mir auf jeden Fall bestritten.

Der Unterschied beider Aufassungen liegt meiner Meinung darin, daß ich den digitalen Daten strikt nur eine ordinale Bedeutung zugestehe. Das heißt, daß der Pixelwert nur etwas drüber aussagt, ob er heller, dunkler oder gleich hell ist wie ein anderes Pixel. _CAT_ legt mehr Bedeutung in den Pixelwert, indem er ihm eine zwar nicht exakt bdestimmte, aber doch kardinale Bedeutung zuspricht; denn nur eine kardinale Bedeutung eröffnet die Möglichkeit, einen Quotienten zu bilden. (kardinale Bedeutung heißt, daß 10 zumindest etwa und irgendwie doppelt so hell ist wie 5).

Der Unterschied beider Aufassungen ist damit auf einen definitiorischen Unterschied zurückgeführt. Definitionen sind - sofern sie nicht exakt feststehen und als solche allgemein anerkannt sind - aber nicht richtig oder falsch; sondern nur sinnvoll oder nicht-sinnvoll. Ich halte meine Aufassung der strikt ordinalen Bedeutung für konsequenterund klarer und damit auch für sinnvoller.

Ich hoffe hiermit die Frage IV. abgeschlossen zu haben, so daß wir uns den anderen zuwenden können.

Einen schönen Sonntag
frechBengel
 
Das "Dynamik=Bittiefe"-Ungeheuer können wir aber sicher als erlegt betrachten.

Da wäre ich vorsichtig, ehrlich gesagt... aber ich hab zur Zeit leider keine Zeit, zu erklären warum (hab's ja weiter oben schon mal versucht).

In der Form, dass sich "fotografische Blenden" in der Bittiefe wiederfinden, aber auf jeden Fall ;)
 
Aus der Aufnahme eines Motivs auf einem Sensor kann ich daher nicht auf die Dynamik des Motivs schließen.
Doch, solange der Dynamikumfang des Motivs kleiner ist als der des Sensors kann man das. Erst wenn die Grenzen des Sensors überschritten werden, kann man nur noch raten, was verloren gegangen sein könnte. Linearität muß man auch nicht voraussetzen, vereinfacht aber die Diskussion :)

Von anderen, vor allem _CAT_, wurde hingegen vorgetragen, daß die digitalen Daten eines Bildes unabhängig von einer konkreten oder bestimmten Helligkeit, bereits eine Dynamik aufweisen.
Wenn man die Bits als Zahlwerte interpretiert, dann tun sie das auch. 2^4 ist offensichtlich halb so groß wie 2^5. Was aber, wenn der Haufen Bits in Wirklichkeit ein elektronischer Geburtstagsgruß meiner Mutter ist? Welche Bedeutung hat die Beobachtung dann? Das ist der Punkt, den ich früher schonmal machen wollte: Bits an sich habe keine Bedeutung. Erst unsere Interpretation macht etwas daraus.

Insbesondere ist natürlich die Interpretation als Meßwerte eines Photosensors interessant und in diesem Zusammenhang stehen die Werte, als die wir die Bits interpretieren, für "so hell wie möglich" und "so dunkel wie möglich" und die Abstufungen dazwischen. "Weg mit dem Diktat des Absolutwerts!"

Und genau hier liegt die Schönheit des Ansatzes: Genau so wie es durch Verwendung von Blende, Graufilter, etc möglich war die absolute Helligkeit des Motivs bestmöglich in den Arbeitsbereich des Sensors zu packen, ist es umgekehrt den Ausgabegeräten frei das für sie jeweils Beste aus den, als relative Helligkeit interpretierten, Werten zu machen, sprich in absolute Helligkeitswerte zurück zu transformieren (Monitor), oder es bei relativer Helligkeit zu belassen (Drucker).

..., daß ich den digitalen Daten strikt nur eine ordinale Bedeutung zugestehe.
Schon wieder schön formuliert.

Einen schönen Sonntag
frechBengel
Absolut!
 
Noch ein paar Gedanken zu #192 I & II:

Etwas was wir vielleicht ganz am Anfang klären sollten ist was wollen wir mit Dynamik denn überhaupt ausdrücken?
Oder andersherum was bedeutet Dynamik?

Dann noch etwas:
Es sind hier öfters die Worte Dynamik und Kontrast gefallen (in beliebigen Kontexten). Welche Unterschiede gibt es - wenn überhaupt?

Und zum Schluß noch eine Beobachtung:
Dynamik wird hier immer in Kontext eines (Meß-) Prozesses gesehen (z.B. wird immer von Helligkeiten geredet die man unterscheiden kann ... Unterschiede die man Messen kann, etc ...).
Dies sollte man wenn denn ein Konsens darüber herrscht mit einfließen lassen.

criz.
 
Zuletzt bearbeitet:
Ich frage mich hier schon die ganze Zeit, ob wir hier dabei sind, "Dynamikumfang" völlig unabhängig vom Kontext der Fotografie als neue, objektive physikalische Größe zu definieren...

Wenn man allerdings nicht weiß, wie man das messen kann und was man da messen soll, muss man ein bißchen aufpassen, dass die Sache nicht zu einer Art Gottesbeweis wird...
 
Hat schon jemand mal versucht mit Farbfilter, den Dynamikumfang einer Kamera besser zu nutzen?

Entweder ich bild's mir ein oder da tut sich wirklich was! WB mit Graukarte ... 16er Fisheye und mal das selbe Bild mit verschiedene Filter geschossen. Ein Filter hat jedesmal die Farbkanäle besser ausgenutzt und der Rest war halt naja ge'clipped oder eigenartig im Kontrast. Je nach Lichtsituation.
 
@NetrunnerAT

Natürlich tut sich da was! Und Du formlierst in unserer bisherigen Terminologie ganz richtig: "den Dynamikumfang der Kamera besser zu nutzen." - denn wir können ihn durch durch Einstellungen bei der Aufnahme nur optimal nutzen; aber nicht verbessern.

Durch einen Rotfilter wird zum Beispiel das Blau vom Himmel gedämpft. In der s/w-Photographie kann man damit einen so dramatisch dunklen Himmel erzeugen. Mit dem Dynamikumfang hat das dann folgendes zu tun: Der Himmel ist normalerweise die hellste Stelle im Bild und wir kennen alle das Problem, daß er an einem hellen Sommertag leicht überstrahlt, da der Dynamikumfang der Kamera zu gering ist, um ein Motiv richtig zu belichten und zugleich den Himmel richtig zu belichten. Mit Polfiltern, oder Grauverlaufsfiltern versucht man das dann etwas abzumildern. Mit einem Rotfilter geht das auch; nur wird eben ds Bild dann rot und ist dann wohl nur für s/w-Zwecke zu gebrauchen.

Gruß
frechBengel
 
Ich bin eh am überlegen so ein Cokin Set mit Farbfilter zum Spieln zu kaufen. Die haben auch Farbverlaufsfilter im Programm. So Tabak Farben wie in S/W braucht man sichern nicht.

Danke übrigens!
 
IV. "binäre Dynamik" (schlechtes Wort, ihr wißt schon, was ich meine)

Es konnte keine Einigkeit erzielt werden (werden wir wohl auch nie) ob digitale Daten einen Dynamik haben können. Ich habe in vielen Post versucht, das zu bestreiten und die digitalen Daten immer auf eine Helligkeit bezogen, die in der realen Welt klar definiert ist: Stichwort Farbraum. Von anderen, vor allem _CAT_, wurde hingegen vorgetragen, daß die digitalen Daten eines Bildes unabhängig von einer konkreten oder bestimmten Helligkeit, bereits eine Dynamik aufweisen.

Als Beispiel könnte _CAT_ uns (so glaube ich ihn verstanden zu haben) zwei digitale Bilder vorlegen, die beide keinem Farbraum zugeordnet sind. Im einem Bild stehen nur 126, im zweiten stehen Werte zwischen 0 und 255. _CAT_ würde an dieser Stelle erstens behaupten, daß das zweite Bild eine höhere Dynamik hat. Darauf könnte man sich (schmerzlich) einigen. Zweitens würde er sie uns aber auch ausrechnen wollen. (richtig, _CAT_?) Diese Möglichkeit wird von mir auf jeden Fall bestritten.

Warum interessiert uns überhaupt die Dynamik? Das hat m.M. nach 2 Gründe:
a) Wir wollen wissen ob der Sensor die Dynamik des Motivs vollständig aufnehmen kann
b) Wir wollen wissen wo das schwächste Glied in unserer Verarbeitungskette ist - und deswegen bietet es sich an, auch den reinen Zahlen in den Bildern eine Dynamik zu geben. Insbesondere da man über den Farbraum ja beliebige Dynamiken erreichen kann, möchte man ja durchaus wissen, wieviel Dynamik dabei "aufgeblasen" wird.

Im Audiobereich gibt es Dynamikkompressoren/-expander. Wie nennt man sowas denn im BIldbereich?
 
WERBUNG
Zurück
Oben Unten