• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Was ist ein HDR? Und was ist kein HDR?

Schöne Darstellung, finde ich. Nur weiß ich nicht so recht, was JPG damit zu tun hat. RAW Dateien aus den heutigen Chips haben m.W. auch keinen höheren Dynamikumfang. Im Grunde ist es doch erst einmal der Sensor, der die 256 Stufen vorgibt.

Mir fällt bei dem Thema immer sofort ein Bild aus Analogzeiten ein. Ein weißes Fachwerkgebäude in der Sonne, bei dem das Scheunentor weit offen steht, und man Details in der Scheune im tiefen Schatten noch erkennen kann.

Damals haben wir halt versucht mit dem Material (Film, Chemie, Papier) und speziellen Prozessen diesen großen Dynamikumfang hin zu bekommen. Als eine möglichst flache Gradationskurve zu erreichen. Heute versucht man es eben mit einer anderen Technik.
 
Schöne Darstellung, finde ich. Nur weiß ich nicht so recht, was JPG damit zu tun hat. RAW Dateien aus den heutigen Chips haben m.W. auch keinen höheren Dynamikumfang. Im Grunde ist es doch erst einmal der Sensor, der die 256 Stufen vorgibt.

Nein, der Sensor selbst ist analog, die Digitalwandler digitalisieren erst die Signale vom Sensor, ueblicherweise aber eben nicht in 8Bit, sondern in 12 oder 14 (die Werte werden auch so im RAW gespeichert). Mit anderen Worten: RAW ist bereits ein HDR-Dateiformat.

Uebrigens koennte man auch in einem JPEG bis zu 12Bit pro Kanal (Ganzzahlen) speichern, die meisten Programme koennen aber mit solchen JPEGs nicht umgehen.
 
Zuletzt bearbeitet von einem Moderator:
Ein hoher Dynamikumfang hat erst einmal nichts damit zu tun, wie man ihn unterteilt - ob 12 Bit oder 14 Bit - die schlussendlich in einem 16 Bit Container landen - einem TIFF-Bild. Oder runtergerechnet mit Verlusten auf 8 Bit (JPEG).

Prinzipiell unterscheiden wir zwei verschiedene Verfahren zur Erhöhung des Dynamikumfangs eines Bildes

a) DRI - ein relatives Verfahren, was den Dynamikumfang eines Bildes nicht absolut erhöht, sondern nur die Aufteilung innerhalb der Tonwertkurve optimiert - so dass alle Bereiche des Bildes gute Zeichnung und gute lokale Kontraste aufweisen. Bei dieser Methode - dem Exposure Blending - gibt es keinen Bitratenwechsel. Üblicherweise wird DRI gern für Abend- oder Nachtaufnahmen verwendet, die selbst keinen hohen Dynamikumfang aufweisen. Der Vorteil von DRI ist die Reinheit der Farben bzw. das Vermeiden von Farbverschiebungen.

b) HDR/TM erhöht absolut den Dynamikumfang eines Bildes, indem eine Belichtungsreihe (egal aus wieviel Bildern) verrechnet wird. Das Ergebnis ist ein 32 Bit Dateiformat mit sehr feinen Nuancen, was aber so nicht dargestellt werden kann oder beim Interpolieren (Vorschau) nur eine ungefähre Vorstellung vom endgültigen Bild ermöglicht. Erst durch das Tonemapping wird das HDR wieder auf 16 oder 8 Bit reduziert - und dabei kommt es sehr darauf an, wie die Gewichte bei der Eingrenzung (Schwarz- und Weißpunkt) und Behandlung der Tonwertkurve gelegt werden. Wir haben bei diesem Verfahren also einen zweimaligen Bitratenwechsel, der weniger Verluste bescheren kann, aber nicht unbedingt muss...

Oft wirkt das Ergebnis aus einem Tonemapping nicht ausgewogen, weil die Gradation (Steilheit oder Gamma-Wert) in Bildern mit hohem Dynamikumfang sehr unterschiedlich ausgeprägt sein kann. Oft wird dann der Himmel überzeichnet oder zu steil gemappt. Manche mögen diese "Dramatisierung" - mit allzu ambitioniertem Tonemapping kann man aber die Tonwerte eines Himmels auch auseinanderreißen - was oft fälschlich für Rauschen gehalten wird.

Das Optimum ist eine Kombination aus beiden Verfahren - man fertigt unterschiedlich steile Tonemappings an - die jeweils auf verschiedene Bereiche des Bildes hin optimiert werden - und mischt sie über verschiedene Verfahren (z.B. Masken) wieder zu einem Bild zusammen.

c) Ein Sonderweg ist noch das sogenannte Pseudo-HDR. Wenn die Bewegungs-Dynamik einer fotografischen Situation keine Herstellung einer Belichtungsreihe erlaubt, können aus einem RAW unterschiedlich entwickelte JPEGs gezogen werden, die man mit dem Ziel eines HDR-Looks verrechnen kann. Allerdings ist diese Methode auch nicht frei von Nebenwirkungen und sie kann nicht mehr Informationen aus dem Bild herausholen, als in dem RAW ursprünglich enthalten waren. Ein Notbehelf also.

Noch eine Bemerkung zur Anzahl der Bilder einer Belichtungsreihe. Die einen schwören auf 3 RAWs, andere auf 5 und wieder andere nehmen nicht weniger als 9.

Wieviele Bilder nötig sind, hängt vom Dynamikumfang eines Bildes ab - man kann also keine allgemeingültigen Aussagen darüber treffen. Wichtig ist, dass sowohl die Tiefen als auch die Lichter noch Zeichnung haben.

Fakt ist aber, dass ein Zuviel von (unnötigen) Bildern in aller Regel ein Verflachen und Ausgrauen der Bilder bewirkt - auch hier also die goldene Regel: Soviel wie nötig.

Die Devise "Viel hilft viel" kann also durchaus nach hinten losgehen, denn Bilder, die zum Gesamtergebnis nichts mehr beitragen können, verschlechtern das Endergebnis wieder, wenn man sie dennoch mit verrechnen lässt.

Auch hier sollte man also das Gehirn nicht ausschalten und sich blind auf die Intelligenz irgendwelcher Verrechnungsverfahren verlassen - denn sie sind ganz gewiss nicht intelligenter als der Fotograf.

LG Steffen
 
Btw. sollte man noch dazubemerken, dass es bei HDR in der 'ueblichen' Computergraphik und in der Photographie einen grundsaetzlichen Unterschied fuer die Verwendung gibt:
HDR in der Computergraphik ist dazu da, damit man bei der weiteren Bearbeitung moeglichst wenig (keine geht natuerlich nicht) Bildinformation verliert, waehrend es bei der Photographie darum geht, diese hohe Dynamik ueberhaupt erst zu erzeugen.

Ein Beispiel waere ein Bild mit einer _sehr_ hellen Lichtquelle darin, die im 8Bit Ganzzahlenformat den Wert (255,255,255) - das hellstmoegliche Weiss - hat. 'Verdunkelt' man nun das gesamte Bild um z.B. die Haelfte, so hat diese Lichquelle nur mehr den Wert (127, 127, 127), ist also ein helles Grau, waehrend es 'in Wirklichkeit' auch auf die Haelfte verdunkelt immer noch (255, 255, 255) haben muesste. Dieses Problem ha tman nicht (bzw. in geringerem Masse), wenn man einen groesseren Wertebereich zur Verfuegung hat (man verwendet heute meist 16Bit Gleitkommazahlen), da wuerde der Wert z.B. von (1024, 1024, 1024) auf (512, 512, 512) halbiert werden - bei einem Mapping auf 8Bit wird die Lichtquelle also immer noch als (255, 255, 255) dargestellt werden.
Sprich, man hat bereits ein Bild mit hoher Dynamik (was sehr einfach zu erzeugen ist, da saemtliche Renderer intern sowieso mit hoeherer Dynamik als in 8Bit Ganzzahlen rechnen) und braucht nun techn. Moeglichkeiten damit sinnvoll weiterzuarbeiten.

In der Photographie geht es im Unterschied dazu darum, die Dynamik ueberhaupt erst in einem Bild digital zu erhalten, die Moeglichkeiten dafuer wurden schon genannt.
Diese Daten werden dann ueblicherweise wieder ein ein nicht-HDR Bildformat komprimiert (tonegemapped).
 
Zuletzt bearbeitet:
Sehr interessantes Thema! Hab den mit großem Interesse gelesen!

Was ich jedoch nicht verstehe ist, wieso ich eine "HDR" Bild im .jpg Format erkenne, wenn .jpg doch aber LDR ist und ich keinen entsprechenden Monitor habe?

Das widerspricht sich doch irgendwo?

Laut dem Thema hier kann ich keine HDR Bilder sehen da diese mein Monitor nicht ausgeben kann und wenn sie in .jpg gespeichert sind, klappt das schon gar nicht.

Jedoch erkenne ich klare Unterschiede zwischen "normalen" Aufnahmen und Bildern die mit Über- und Unterbelichtungen nachbearbeitet wurden dadurch, dass sie oft, wie bereits im Thread erwähnt, größere Farbräume und einfach "optimale" Belichtungen wiederspiegeln... also müssten rein theoretisch diese Bilder auch "kleine HDR" Bilder sein, oder?

Bin ein wenig verwirrt, desto länger ich drüber nachdenke... :D
 
Ich finde Tonemapping ist ein Bildstil der das Bild künstlerisch bis abstrakt wirken lässt. Halt ein Stilmittel.
DRI hingegen stellt die Bilder so dar wie sie vom Betrachter vor Ort gesehen oder empfunden wurden und hebelt so etwas die dynamischen Grenzen des Sensoren aus.
Mag ja sein das ein aus mehreren Fotos berechnetes HDR auf einem Montior der diesen Dynamikumfang darstellen kann irre aussieht. Aber bis solche Geräte mal soweit verbreitet sind das auch mein Kollege mal mein HDR Foto schauen kann wird noch vielviel Zeit vergehen. Wenn es überhaupt mal soweit kommen wird.
Somit bleibt diese ganze Diskussion was genau ein wirkliches HDR ist eine ziemlich Theoretische. Da sollte man besser Fotografieren gehen. :lol:

Gruß Vermin
 
Jedoch erkenne ich klare Unterschiede zwischen "normalen" Aufnahmen und Bildern die mit Über- und Unterbelichtungen nachbearbeitet wurden dadurch, dass sie oft, wie bereits im Thread erwähnt, größere Farbräume und einfach "optimale" Belichtungen wiederspiegeln... also müssten rein theoretisch diese Bilder auch "kleine HDR" Bilder sein, oder?

Was Du meinst ist der Bild Look, der durch das Tonemapping für normale Monitore usw. sichtbar gemacht wird.

http://www.gris.informatik.tu-darms.../DigitaleBilder/ss08/slides/S Dig Fot_HDR.pdf
 
Sind hier gute verständliche Erklärungen,danke.

Was mir aber nicht so recht einleuchtet.
Wo zu macht man solche Bilder, wenn man sie doch nicht darstellen kann ?

Wie müßte denn solch ein Monitor beschaffen sein ?
Bestehen die Probleme auch noch, wenn ich ein solches HDR,
z.B. in der Größe meines Monitors, im Posterformat 60x40 entwickeln lasse.

Sehe ich das HDR dann auf dem "Poster" und auf dem Monitor nicht ?
 
Ich habe hier mehrere HDR-Monitore. Der Kontrastverlauf der Bilder ist so stark, dass ich Rechts und Links neben der Mattscheibe zwei dicke Stoffbahnen anbringen mußte, damit ich die Bilder manchmal verdecken kann, wenn es zu sehr blendet.

Dummerweise werde ich die auch nicht mehr los, die wurden in die Bude praktisch low-level-integriert. Tonemapping geht auch nicht, das Format heißt *.Reality und wird von keiner bekannten Software unterstützt. Mit manchen Sachen muß man wahrscheinlich einfach leben lernen.
 
Was mir aber nicht so recht einleuchtet.
Wo zu macht man solche Bilder, wenn man sie doch nicht darstellen kann ?

Berechtigte Frage. Meiner laienhaften Meinung nach ist der hier verwendete Begriff des HDR, wie Steffen schon sagte, leicht mißverständlich.
Letztlich werden die vorhandenen Helligkeitsunterschiede vorzugsweise so zusammengemixt, dass ein in allen Helligkeitsbereichen noch unterschiedsbehaftetes (~durchgezeichnetes) Bild (soweit erwünscht) entsteht. Dazu ist es notwendig, die unterschiedlich hellen Bereiche in ihrer Dynamik in einem kleineren Bereich zu verdichten / komprimieren (Tone Mapping)

Die Frage der jeweiligen Technik ist hier zweitrangig. Ob ich hier eine einfache Collage mit der Schere aus verschieden hellen Bildbereichen erstelle ( aus verschiedenen Bildern der Reihe versteht sich) oder Software verwende... bleibt sich im Ergebnis grundsätzlich gleich.

Der Dynamikumfang des Bildes wird für das jeweilige Ausgabemedium (normaler Monitor, Papier etc.) beschränkt - aber wir wollen eben manchmal Zeichnung auch in den dunkelsten und hellsten Ecken und "überlisten" den beschränkten Sensor mit den Belichtungsreihen.

Letztlich ist das weit verbreitete Verständnis von HDR bei normalen Ausgabemedien einem Tonemapping gleichzusetzen, damit der Betrachter sowohl die scheinbaren Helligkeitsunterschiede wahrnehmen kann (Ausnutzen des gesamten zur Verfügung stehenden Tonwertspektrums bei üblicherweise (s)rgb) als auch Details in den jeweiligen Helligkeitsbereichen - soweit erwünscht- wahrnehmen kann.
Mit "echtem" HDR hat das nichts zu tun, einfach, weil die Ausgabemedien beschränkt sind. Andererseits ist das die bestmögliche Näherung und daher auch nicht ganz falsch :)


das Format heißt *.Reality und wird von keiner bekannten Software unterstützt
Ehrlich, ich hab Dir Hardware: Diaprojektordingensleinwand mit unterschiedlichen Brechungseigenschaften hilft sehr an den Wänden :mrgreen:
 
das Format heißt *.Reality und wird von keiner bekannten Software unterstützt.
Das Format hat auch so seine Tücken, da es meist mit unserer eigenen Wahrnehmung gleichgesetzt wird.
.reality hat jedoch einen um ein vielfaches größeren Tonwertumfang und Spektralbereich als .wahrnehmung - wobei .wahrnehmung zumindest vom Tonwertumfang recht gut hinkommt, aber auch nur durch durch ein paar Tricks, die arg an Belichtungsreihen erinnern.
Und um .reality abzubilden brauchts Fullrangeimaging. Das ist den meisten jedoch zu kompliziert, drum wird der Kram mit den Spektren einfach weggelassen und zumindest der Tonwertumfang eingefangen. Das nennt sich dann HDR. Als Datei bekommt man dann eine .exr, oder ähnliche exotische Formate.
Damit passts dann immernoch nicht, möglichst nahe an .wahrnehmung ranzukommen. Allerdings nur, weil entsprechende Ausgabemedien nicht existieren; die, die zumindest in die Richtung geht sind dagegen selten und teuer.
Um also unsere reale .exr möglichst nah an die .wahrnehmung ranzubringen, bildet man die Tonwerte ab, indem man sie komprimiert.
Von dieser Kompression merken wir eigentlich nix - das resultierende .jpg sieht genau wie .wahrnehmung aus.
Nur beherrschen oder wollen das die wenigsten.
Dann gibts noch die 'dagegen' Fraktion - schliesslich ist das Resultat ja immer ein jpg.
Nur gibts eben ooc-jpgs, bei denen Lichter ausfressen und Schatten absaufen - was es im Format .wahrnehmung extrem selten vorkommt bzw. bei deutlich extremeren Werten.
 
Wie Manni1 bereits schrieb, kann man in einem Monochrom-Bild einen praktisch unbegrenzten Dynamikumfang speichern.

Bei jpgs sieht es ähnlich aus. Diese sind, da sie keine absoluten Helligkeiten speichern theoretisch in einem riesigen Dynamikbereich nutzbar. Der rgb-Farbraum gibt in dieser Stelle nämlich keine Helligkeiten, sondern "Prozentwerte" an den Monitor: 0 bedeutet, er ist so dunkel wie es geht, 255 heißt, er gibt alles was er kann.

Dies bringt mich zu den eigentlichen Fragen meines Beitrags: 1. Wieso liest man ständig, dass "hdr"-Formate einen höheren Dynamikumfang speichern können? Schwarz ist immerhin schwarz und weiß ist weiß - nur die Abstufungen dazwischen sind anders.
2. Was passiert, wenn ich ein jpg, dass eine weiße Wand zeigt, auf einem hdr-Monitor wiedergebe? Werde ich dann geblendet, weil der Monitor versucht so hell zu sein, wie möglich? (Was natürlich auch nicht der Realität entspräche)
 
nur die Abstufungen dazwischen sind anders.

Die Abstufungen sind nicht anders. Es sind viel mehr Abstufungen vorhanden. Das ist der Unterscheid.

Nutzt nur (noch) nix, weil die Anzeige solcher Bilder derzeit eher im Reich der Träume zu finden ist. Daher muss das Ganze am Ende doch wieder auf normale Dynamik komprimiert werden (Tonemapping), um angezeigt werden zu können.
 
Dies bringt mich zu den eigentlichen Fragen meines Beitrags: 1. Wieso liest man ständig, dass "hdr"-Formate einen höheren Dynamikumfang speichern können? Schwarz ist immerhin schwarz und weiß ist weiß - nur die Abstufungen dazwischen sind anders.
2. Was passiert, wenn ich ein jpg, dass eine weiße Wand zeigt, auf einem hdr-Monitor wiedergebe? Werde ich dann geblendet, weil der Monitor versucht so hell zu sein, wie möglich? (Was natürlich auch nicht der Realität entspräche)
  1. Es geht nicht um Farben, sondern um die Helligkeit. Ein weißes Blatt kann unterschiedlich hell sein. Ohne Licht ist es auch schwarz. Und ich denke, du kennst bei RAWs das Problem der unter-/überbelichteten. Eigentlich müsstest du deine Frage selbst beantworten können.
  2. Was ein HDR-Monitor macht, wenn man ein JPG anzeigt, kommt sicher auf die Software an, die ihn steuert.
 
Es geht nicht um Farben, sondern um die Helligkeit. Ein weißes Blatt kann unterschiedlich hell sein. Ohne Licht ist es auch schwarz. Und ich denke, du kennst bei RAWs das Problem der unter-/überbelichteten. Eigentlich müsstest du deine Frage selbst beantworten können.
Ich sprach auch nie von Farben. Weder Schwarz noch Weiß sind im physikalischen Sinne eine Farbe (man kann keine diskrete Wellenlänge zuordnen).
Wenn es um Helligkeiten geht, tritt ja gerade das Problem auf, dass diese Werte nicht absolut gespeichert werden, sondern bei der Darstellung auf dem Monitor in einer Art Prozentwerten angezeigt werden. Ein jpg speichert demnach sowas wie Steuerbefehle für den Monitor: Bei "schwarz" mach so dunkel, bei "weiß" so hell wie du kannst (siehe hierzu http://de.wikipedia.org/wiki/RGB-Farbraum). Dies ist gleichbedeutend damit, dass die dargestellten Grenzen der Helligkeitsskala allein vom Monitor abhängen. Bei "schwarz" entspricht das der Hintergrundfarbe eines Röhrenmonitors bzw. dem "Minimaldurchlass" eines Pixels beim LCD. Bei "weiß" entstpricht es der maximalen Leuchtkraft des Monitors.
Daraus folgt, dass der darstellbare Dynamikumfang eines jpgs nur vom Monitor abhängt und auf einem HDR-Monitor auch für HDRs genutzt werden können sollte. Nur die Schrittweite zwischen den einzelnen Helligkeitsstufen wird dann recht groß.
Und genau darauf zielten meine Fragen ab: Ist das wirklich so? Und wenn ja, warum liest man oft was anderes?
 
darf ich da kurz zwischenfragen was ich mich schon länger frage:
wenn ich ein hdr-bild auf meinem popelmonitor anschaue, was seh ich denn dann? wird dann alles in die 256 helligkeitsstufen gequetscht, oder bleibt es originalgetreu, und die zu hellen parts sind ausgebrannt und einfach weiß, und die zu dunklen bereiche einfach schwarz?

oder, und viel wahrscheinlicher, wird einfach alles, was das darstellungsvermögen meines monitors übersteigt, in der jeweilig hellsten bzw dunkelsten möglichkeit angezeigt?

fragen über fragen

alex
 
wenn ich ein hdr-bild auf meinem popelmonitor anschaue, was seh ich denn dann? wird dann alles in die 256 helligkeitsstufen gequetscht, oder bleibt es originalgetreu, und die zu hellen parts sind ausgebrannt und einfach weiß, und die zu dunklen bereiche einfach schwarz?

In den HDR Programmen, die ich bisher kenne ist es beim Betrachten einer nicht per Tonemapping komprimierten Version die zweite von Dir erwähnte Variante, mit dem Ausbrennen und Absaufen. Da ist meist noch ein Schieber bei dem Bild, wo Du Dich durch den Dynamikbereich durcharbeiten kannst.
 
WERBUNG
Zurück
Oben Unten