• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wann kommt HDR in der Kamera?

  • Themenersteller Themenersteller Gast_73773
  • Erstellt am Erstellt am
wenn, wie mariane sagt, schon ein 14-bit-RAW per definitionem ein HDR-Image wäre, dann wären wir ja schon beim Punkt ...
ist es nicht.... mariane wirft tonemapping und hdr auch durcheinander:

HDR im korrekten Sinne gibt es ja jetzt schon wenn auch nur zum Teil: es nennt sich RAW* - ok, HDR kann noch mehr, aber man kann schon die winzigen Infos eines 12/14-Bit RAW nicht voll ausnutzen, wie soll das dann bei 32- oder gar 48-Bit HDR sein
natürlich kann man.... Die bit-Tiefe gibt übrigens nicht den Dynamikumfang an, sondern wie fein er aufgelöst wird.
Wenn ich einen Sensor mit sehr hohem Dynamikumfang hätte, könnte er Licht- und Schattenbereiche wesentlich Detailreicher auflösen. Damit das nicht seltsam aussieht, muss mit dem größeren Dynamikintervall auch die Bittiefe, also die Zahl der unterteilungen wachsen.


- es gibt kein Medium, was diese Information anständig global wiedergeben kann, denke nur mal an die Fotoabzüge.
GENAU dafür gibt es Tonemapping. Dadurch kann man zumindest das bestmögliche an Detail rausholen für das jeweilige Medium.

HDR so wie es der TO versteht, ist eigentlich nichts anderes als Tonmapping und wie das automatisch durchgeführt aussehen kann, das zeigt uns der TO eindrucksvoll - also ich kann auf sowas verzichten.
das ist natürlich Geschmackssache... Es gibt auch genügend Leute, die auf die Bonbon-Farben-Abzüge von Kloppenburg stehen, verkaufen ließe es sich bestimmt. Ich würde es nicht haben wollen, weil es durch Rechnerei den Akku leer saugt und es eben -- wie du richtig sagst -- schlecht zu automatisieren ist.

Mehr wie ein 16-Bit RAW braucht es meiner Meinung nach nicht, man hat dann genügend Reserven, [...] Bei einem 14-Bit RAW wäre die Bedingung erfühlt 1:16384.[/SIZE]
Stimmt nicht. Wie ich oben erklärt habe...
 
Auf die Frage, wann HDR in die Kamera kommt, habe ich schon in #2 eine Antwort geliefert... zumindest hat es niemand widerlegt und es wird dann so falsch nicht sein.
grundsätzlich ja, aber es gibt vielleicht auch noch andere Möglichkeiten ;)

(und sorry, wenn ich jetzt nicht ausführlich antworte, liegt durchaus NICHT an nicht vorhandenem Willen, aber 1. fahr ich morgen für ein paar Tage fort & 2. hat mir grad ein sehr heftiges Gewitter den Schock des Lebens versetzt - kein Scherz, die reine Wahrheit: Internet war weg, Kabel-TV war weg, sogar Handynetz war weg, ich hab schon geglaubt, auch mein Notebook ist "weg" ... wollt's nur kurz melden, nicht, dass der Eindruck entsteht, ich trete was los & sag dann nix mehr ;-)
 
Verstehe ich nicht. Wenn ein CCD nicht mehr als 8,5 EV kann, was kann dann ein RAW mehr als die 8,5 EV wiedergeben)?
Natürlich müßte der Sensor dann auch 16bit leifern können, können sie aber derzeit nicht. Eigentlich wollte ich nur zeigen, das wir im Prinzip mit den RAW ganz nahe am HDR sind, bei 13bit wären wir schon nahe dran und bei 14nit ganz sicher. Daher meinte ich, das mir ein 16bit-Raw schon reichen würde und ich kein 32 oder gar 48bit HDR brauche und wenn doch, dann eben mittels Belichtungreichen selbst zusammenfrimmeln.
Durch manuelles Zusammenfügen von unter-, richtig- und überbelichteten Bildteilen bekommt man als Resultat einen scheinbar höheren Dynamikumfang aber nicht ein reales Abbild.
Richtig, deshalb ist ja diese Technik auch so umstritten, partiell und dezent eingesetzt ja, aber automatisch global auf ein ganzen Foto angewendet kommt nur Mist bei raus.
 
NDaher meinte ich, das mir ein 16bit-Raw schon reichen würde und ich kein 32 oder gar 48bit HDR brauche und wenn doch, dann eben mittels Belichtungreichen selbst zusammenfrimmeln.
Nocheinmal: Die Bittiefe gibt nicht den Kontrastumfang an!!!! Du kannst einen Kontrastumfang von 4 Blendstufen genauso in 2^16 Stücke einteilen wie einen mit 10 Blendstufen.
 
ist es nicht.... mariane wirft tonemapping und hdr auch durcheinander:
Ne, das habe ich fein säuberlich in zwei Absätze getrennt. Aus einen RAW kannst du jederzeit ein HDR generieren - da kommt kein Tonmapping ins Spiel, zwar hast du dann je nach Kamera nur 12 oder 14 bit, sofern der Sensor das optimal abgelegt hat. Wie schon oben erwähnt ab 14bit hast du die Bedingung 1:10000 überschritten und hast ein HDR, ein HDR muß eben nicht zwingend 32 oder 48 bit haben.

GENAU dafür gibt es Tonemapping. Dadurch kann man zumindest das bestmögliche an Detail rausholen für das jeweilige Medium.
Ich schrieb: "... kein Medium, was diese Information anständig global wiedergeben kann ...". Tonmapping verschiebt ja alles und dadurch hat dies nichts mehr mit der Realität zu tun, aber darum ging es ja auch nicht, sondern darum das man die Information so nicht darstellen kann. Das Tonmapping habe ich übrigens alls Alternative selbst angeführt: "HDR-Bilder lassen sich nur local (partiell) ansehen, möchte man sie global (also im ganzen) ansehen kommt der nächste Schritt ... (nächste Absatz)

HDR so wie es der TO versteht, ist eigentlich nichts anderes als Tonmapping und wie das automatisch durchgeführt aussehen kann, das zeigt uns der TO eindrucksvoll - also ich kann auf sowas verzichten."

das ist natürlich Geschmackssache... Es gibt auch genügend Leute, die auf die Bonbon-Farben-Abzüge von Kloppenburg stehen, verkaufen ließe es sich bestimmt.
Ja Geschmacksache ist es, deshalb schrieb ich ja auch das ich darauf verzichten kann. Gekauft wird es sowieso, das ist wie mit den Fotohandys, versuche mal ein normales Handy zu bekommen ohne den Fotoquatsch.
Ich würde es nicht haben wollen, weil es durch Rechnerei den Akku leer saugt und es eben -- wie du richtig sagst -- schlecht zu automatisieren ist.
Und weil es as kostet (muß ja entwickelt werden) man es bezahlt und nicht benutzt - es würde mich jedenfalls ärgern: siehe Fotohandy, ich habe eines, nur Fotografieren tu ich damit nicht.
Stimmt nicht. Wie ich oben erklärt habe...
Darfst du so nicht sagen, wenn ich sage das mir das (die 16bit) reichen würde, dann ist das so. Und die Sache mit den 1:10000 ist halt die Definition unddas heißt kongrett man muß 10000 Abstufungen erfassen und abspeichern können und das kann man mit 14bit.
 
Zuletzt bearbeitet:
Nocheinmal: Die Bittiefe gibt nicht den Kontrastumfang an!!!! Du kannst einen Kontrastumfang von 4 Blendstufen genauso in 2^16 Stücke einteilen wie einen mit 10 Blendstufen.
Hehe, höre bitte mit den Blendstufen auf. Siehe Posting drüber. Kontrastumfang ist das dunkelste und das hellste, genauer wie diese beiden Extreme im Verhältnis zueinander stehen und das soll per def. 1:10000 betragen. Schatten 1 und Licht 10000 -> 1:10000. Tata! <14bit.

PS: bei den 1:10000 geht es um die Lichtintensität und nicht um die Blendstufen.
 
Hi,

mal ne blöde Frage (auch auf das Risiko, mich jetzt mal unbeliebt zu machen):
'Streitet' Ihr hier nicht einfach nur um des Kaisers Bart?

HDR ist doch eigentlich auch nur eine Kunstform wie Hi-Key- und Low-Key-Fotografie. Oder? Wie schon weiter oben gesagt lebt doch ein 'gutes' oder sagen wir mal 'künstlerisches' Bild (auch) vom Spiel mit Licht und Schatten, Schärfe und Unschärfe, .... Insofern finde ich auch den gelegentlichen Hinweis " ... das ist aber nicht realistisch" recht amüsant. Ist gute (künstlerische) Fotografie überhaupt realistisch? War sie das jemals? Dann dürfte niemals Bildbearbeitungssofware mit all ihren Funktion zur Farb-, Schärfe- usw. Veränderung bis hin zu Maskierungen etc. verwendet werden.

Hat die unter dem Begriff 'HDR in der Cam' gestellte Frage, d.h. genaugenommen die Frage nach einem deutlich größeren, abbildungsfähigen Kontrastumfang überhaupt noch etwas mit Realität zu tun? Anders gesagt, das menschliche Auge beherrscht diesen gewünschten, 'gigantischen' Kontrastumfang doch auch nicht. Ja, ja, das Auge kann sowohl in hellen wie dunklen Bereichen Details erkennen, aber nicht gleichzeitig, sondern jeweils nur in dem einzelnen Bereich, auf den wir gerade unser Sehen konzentrieren.
Daher wirken auch die vom TO eingestellten Bilder m.E. so 'unnatürlich'. Sie entsprechen nicht dem Sehverhalten unserer Augen. Also was nutzen mir dann solche Spielereien in der Cam?
Da fallen mir andere Sachen ein, die mir wichtiger wären.
(Bei meiner 400D bspw. das winzige Sucherbild, Livevirw, ... etc.)
 
Hehe, höre bitte mit den Blendstufen auf. Siehe Posting drüber. Kontrastumfang ist das dunkelste und das hellste, genauer wie diese beiden Extreme im Verhältnis zueinander stehen und das soll per def. 1:10000 betragen. Schatten 1 und Licht 10000 -> 1:10000. Tata! <14bit.
PS: bei den 1:10000 geht es um die Lichtintensität und nicht um die Blendstufen.
herje... ich versuche es mal aufzumalen

Sensor 1 mit niedrigem Kontrastumfang und 2bit mit der niedrigsten darstellbaren Helligkeit L1 und der höchsten H1
L1 |_00_|_01_|_10_|_11_| H1

Sensor 2 mit hohen Kontrastumfang und 2bit mit der niedrigsten darstellbaren Helligkeit L2 und der höchsten H2
L2 |___00___|___01___|___10___|___11___| H2

Sensor 3 mit Kontrastumfang wie Sensor 2, aber 3 bit. Die niedrigste darstellbare Helligkeit ist auch hier L2 und die höchste H2.
L2 |_000_|_001_|_010_|_011_|_100_|_101_| H2

Du siehst, die Bitzahl kann bei gleichem Kontrastumfang anders sein. Oder sie kann auch bei unterschiedlichem Kontrastumfang gleich sein.

Ne, das habe ich fein säuberlich in zwei Absätze getrennt.
ok, ich hatte dich etwas falsch interpretiert...

Aus einen RAW kannst du jederzeit ein HDR generieren
Nein! Ich weiß durchaus, welches Verfahren du meinst. Aber es hilft dir nicht den Kontrastumfang deines Sensors zu erweitern, der eben meiner Ansicht nach nicht für ein HDR reicht. Deshalb verwendet man für die Erzeugung von HDR-Bildern auch Belichtungsreihen.

Wie schon oben erwähnt ab 14bit hast du die Bedingung 1:10000 überschritten
Das ist eben nicht so. Siehe oben. Ich kann dir 16384 werte zwischen 1 und 2 nennen, ein HDR nennt dir z.B. 32768 zwischen 0,5 und 2,5.

und hast ein HDR, ein HDR muß eben nicht zwingend 32 oder 48 bit haben.
muss es auch nicht. Aber wenn du saubere Übergänge über einen so großen Kontrastumfang haben willst, kommst du um eine Erhöhung der Granularität nicht herum.

Ja Geschmacksache ist es, deshalb schrieb ich ja auch das ich darauf verzichten kann. Gekauft wird es sowieso, das ist wie mit den Fotohandys, versuche mal ein normales Handy zu bekommen ohne den Fotoquatsch.
Und weil es as kostet (muß ja entwickelt werden) man es bezahlt und nicht benutzt - es würde mich jedenfalls ärgern: siehe Fotohandy, ich habe eines, nur Fotografieren tu ich damit nicht.
Da gebe ich dir ja auch recht... Aber ich fürchte auf ein abgefahrenen Tonemapping Effekt werden viele stehen.... schau dich um wieviele sowas jetzt schon absichtlich erzeugen!

DUnd die Sache mit den 1:10000 ist halt die Definition unddas heißt kongrett man muß 10000 Abstufungen erfassen und abspeichern können und das kann man mit 14bit.
HA! Da ist dein Fehler. Du brauchst nicht 10000 Abstufungen!!!
Abstufungen können beliebig klein sein, wie ich dir oben gezeigt habe.Denn wie du eigentlich schon richtig sagtest:
Kontrastumfang ist das dunkelste und das hellste, genauer wie diese beiden Extreme im Verhältnis zueinander stehen und das soll per def. 1:10000 betragen.
 
mal ne blöde Frage (auch auf das Risiko, mich jetzt mal unbeliebt zu machen):
'Streitet' Ihr hier nicht einfach nur um des Kaisers Bart?
HDR ist doch eigentlich auch nur eine Kunstform wie Hi-Key- und Low-Key-Fotografie. Oder?
nein, das sehen hier nicht alle so. Siehe bisherige Beiträge.

Hat die unter dem Begriff 'HDR in der Cam' gestellte Frage, d.h. genaugenommen die Frage nach einem deutlich größeren, abbildungsfähigen Kontrastumfang überhaupt noch etwas mit Realität zu tun?
Ein klares JA! Das, was viele HDRs in der Ausgabe unrealistisch wirken lässt ist extrem angewendetes Tonemapping. Schöne Beispiele für dezentes realistisches Tonemapping erkennst du meist an einem ungewohnt hohen Detailreichtum, der dir so richtig ins Auge sticht, wenn du eine "normale" Fotografie von dem Motiv daneben stellst.

Anders gesagt, das menschliche Auge beherrscht diesen gewünschten, 'gigantischen' Kontrastumfang doch auch nicht. Ja, ja, das Auge kann sowohl in hellen wie dunklen Bereichen Details erkennen, aber nicht gleichzeitig, sondern jeweils nur in dem einzelnen Bereich, auf den wir gerade unser Sehen konzentrieren.
Ist doch egal, wie das Auge es macht! Der entscheidende Punkt ist: Wir nehmen es wahr! Es ist ja nicht Ziel mit einer Kamera das Auge zu imitieren.

Daher wirken auch die vom TO eingestellten Bilder m.E. so 'unnatürlich'.
Wie gesagt es gibt auch andere. Ich empfehle mal einen Blick in das letzte c't-Spezial... Brauchst du dafür nicht kaufen, aber bei Gelegenheit mal das Bild vom Berliner(?) Bahnhof anschauen. Wirkt sehr natürlich.
 
auf der Ausbelichtung sicher nicht, jedenfalls nicht normalen Bildern (gibt's überhaupt Fotopapier, das 13 Blenden Unterschied darstellen kann?), aber ein ähnlicher Spielraum ist in einem Negativ sicher vorhanden, bzw.:

hab nur einmal kurz gegoogelt; laut dieser Quelle:
http://www.silverfast.de/highlights/multi-exposure/de.html
hat "normaler" Diafilm 8 Blendenstufen, optimal belichtetes & entwickeltes Negativ bis zu 12 Blendenstufen Kontrastumfang; wenn du sagst, dass dein Ektachrome 10 hat, kann ich dir's nur glauben, wissen tu ich's nicht - üblicherweise wird bei Dia eher von 8 Stufen gesprochen

und das was man dann auf einem Durchschnittsprojektor wirklich sieht sind 6 Blenden ;)
 
@DerDude

Da stimme ich Dir uneingeschränkt zu; es gibt einige gute und viele 'schlechte' HDR-Umsetzungen. Ich habe auch schon sehr gute gesehen. Sind schon recht beeindruckend. (Meine eigenen Versuche sind jedenfalls bisher kläglich gescheitert und für die Öffentlichkeit ungeeignet, muss man halt können :D )

Zitat:
"Ist doch egal, wie das Auge es macht! Der entscheidende Punkt ist: Wir nehmen es wahr! Es ist ja nicht Ziel mit einer Kamera das Auge zu imitieren."

Na sag ich doch. :)
In der Fotografie ist es meist (häufig, vielfach, ...) gar nicht beabsichtigt 'realistische' Fotos zu machen, d.h. gesehene Realität abzulichten. Letztlich geht das meist schon eher in Richtung Kunst. (Das ist von mir durchaus nicht negativ gemeint!)
 
Hi DerDude,

ich glaube wie reden beim Kontrast und den Bits aneinander vorbei. Mir ist klar das du den Kontrastumfang in ein beliebiges Bitintervall unterbringen kannst (Skalieren), wobei man da vorsichtig sein muß, da es Bits sind, da gibt es keine Kommastellen daher braucht man für 1:10000 tatsächlich 14bit, nur so kann man 1 und 10000 gleichseitig darstellen - Vorsicht - ich rede hier von der absoluten auf den Kontrastbereich normierten Lichtintensität.

Die Abstufungen sind natürlich auch wichtig und bei 14bit und 1:10000 ist sie nahezu 1, das Auge schaft natürlich max. 12bit (sagt man), naja genaunommen hat man schon bei 8bit Schwierigkeiten das zu differenzieren (Ausnahmen sind halt feine Verläufe).

Die Sache mit den Blendstufe ist generell gefährlich auch wenn ich weiß was du meintest**, da spielt zuviel zusammen, darum Rede ich auch generell von der Lichtintensität und nicht von Blendstufen. Trotzdem mal ein Beispiel, was vielleicht zum Nachdenken anregt:

Du hast 16bit wovon 4bit den Schattenbereich darstellen. Wenn du diesen Bereich (4bit) nicht skalierst sondern lediglich in einen 8bit Bereich verschiebst, nimmt dieser Bereich nicht mehr ein viertel des Intensität Bereich mehr ein sondern die Häfte. Das halte ich für durchaus ausreichend. Sinnvoll ist es eh nicht, da der ganze andere Rest entweder rausfällt oder zusammengeschoben werden muß. Viel Sinnvoller ist da die getrennte Entwicklung, also aus einen RAW mehrere Bilder entsprechende Belichtung entwickeln und diese gezielt zu einem anspreehenden Ergebnis zusammensetzen.

** Ich hoffe ich liege richtig :) Du meinstest, bessergesagt möchtest den oben angesprochen Schattenbereich hochskalieren (*verschieben* in einen neuen Blendenbereich), so das er nicht mehr 4bit sondern z.B. 6bit einnimmt und somit statt 16 nun ganze 64 Abstuffungen hätte (also den Detailgrad in den Schatten erhöhen). Praktisch geht das natürlich nicht, prinzipel müßtest du für jedes Bit genau den Vorrat sicherstellen der später angezeigt werden kann (denn Kommastellen gibt es nicht, nur ganze Zahlen/Abstuffungen), nur so bliebe die volle Skalierbarkeit über den gesamten Bereich gegeben (um also 1bit bei Bedarf auf 8bit ausweiten zu können). Bei einem 12bit Sensor und 8bit Ausgabezielgröße sagenhafte 96bit. :ugly:
 
Zuletzt bearbeitet:
ich glaube wie reden beim Kontrast und den Bits aneinander vorbei. Mir ist klar das du den Kontrastumfang in ein beliebiges Bitintervall unterbringen kannst (Skalieren)
mh... ich fürchte wir reden nicht aneinander vorbei. Wovon ich rede ist Quantisieren -> http://de.wikipedia.org/wiki/Quantisierung. Das bedeutet, ein Messwert (hier Helligkeit) wird abgebildet auf eine Ganzzahl im Wertebereich von sagen wir 14bit. Bei unseren Sensoren geschieht das weitgehend nach einer linearen Kennlinie, soviel ich weiß.

, wobei man da vorsichtig sein muß, da es Bits sind, da gibt es keine Kommastellen daher braucht man für 1:10000 tatsächlich 14bit, nur so kann man 1 und 10000 gleichseitig darstellen - Vorsicht - ich rede hier von der absoluten Lichtintensität - Unskaliert.
nein, da wird nix skaliert. 1:10000 bedeutet, der hellste Wert H ist 10000 mal höher als der dunkelste L. Alle Werte zwischen H und L erhalten bei der Quantisierung einen Wert zwischen 0 und 16384. Sehr ähnliche Helligkeitswerte erhalten dabei kurzerhand die gleiche Bitfolge zugewiesen. Werte die kleiner sind als L sind 0 (abgesoffen im Foto), Werte die Größer sind als H erhalten 16384 (überstrahlt).

Die Abstufungen sind natürlich auch wichtig und bei 14bit ist sie nahezu 1
what? jetzt wird es aber ganz schräg... :ugly:

Die Sache mit den Blendstufe ist generell gefährlich auch wenn ich weiß was du meintest**, da spielt zuviel zusammen, darum Rede ich auch generell von der Lichtintensität und nicht von Blendstufen.
Meine Argumentation gilt genauso für Intensitäten, von mir aus können wir auch davon reden. Ändert nichts.

** Ich hoffe ich liege richtig :) Du meinstest, bessergesagt möchtest den oben angesprochen Schattenbereich hochskalieren (*verschieben* in einen neuen Blendenbereich), so das er nicht mehr 4bit sondern z.B. 6bit einnimmt...
WAS??? nein, das meine ich sicher nicht... Ich meine das, was in der Fotografie im allgemeinen unter Blendenstufe verstanden wird. Und die steht im direkten Zusammenhang mit der Lichtmenge.

Trotzdem mal ein Beispiel, was vielleicht zum Nachdenken anregt:Du hast 16bit wovon 4bit den Schattenbereich darstellen. Wenn du diesen Bereich (4bit) nicht skalierst sondern lediglich in einen 8bit Bereich verschiebst, nimmt dieser Bereich nicht mehr ein viertel des Intensität Bereich mehr ein sondern die Häfte. Das halte ich für durchaus ausreichend. Sinnvoll ist es eh nicht, da der ganze andere Rest entweder rausfällt oder zusammengeschoben werden muß.
Jetzt verstehe ich so langsam, wie du zu deinen Gedankengängen kommst. Sorry, aber DAS IST GANZ FALSCH!!!
Die n bit eines Farbkanals werden nicht in einen Teil für Schatten und einen für Mittel und einen für Hell oder so ähnlich aufgeteilt.
Ein Pixel liefert einen Wert, der wird wie beschrieben quantisiert und fertig.

Viel Sinnvoller ist da die getrennte Entwicklung, also aus einen RAW mehrere Bilder entsprechende Belichtung entwickeln und diese gezielt zu einem anspreehenden Ergebnis zusammensetzen.
Ist dir eigentlich mal aufgefallen, dass du das Ergebnis auch in einem 8-Bit-Bildformat wie jpg darstellen kannst? Das einzige was dann schnell stören wird, sind fehlende Farbabstufungen (z.B. Streifen im Himmel).



Ich denke wir können die Diskussion hier beenden. Sonst sollten wir das via PN fortsetzen ;)
 
Zuletzt bearbeitet:
mh... ich fürchte wir reden nicht aneinander vorbei.
O doch und zwar immer mehr ...
Wovon ich rede ist Quantisieren -> http://de.wikipedia.org/wiki/Quantisierung. Das bedeutet ...
Quantisierung -> diskrete Werte -> Ganzzahlig -> keine (Nach)Kommastellen - also ich würde mal sagen das ich das geschrieben habe - sorry, das ich salopp von Kommastellen geredet habe.
nein, da wird nix skaliert.
Ich habe nicht gesagt das es skaliert wird, sondern extra noch "unskaliert" dazugeschrieben.

1:10000 bedeutet, der hellste Wert H ist 10000 mal höher als der dunkelste L. Alle Werte zwischen H und L erhalten bei der Quantisierung einen Wert zwischen 0 und 16384. Sehr ähnliche Helligkeitswerte erhalten dabei kurzerhand die gleiche Bitfolge zugewiesen. Werte die kleiner sind als L sind 0 (abgesoffen im Foto), Werte die Größer sind als H erhalten 16384 (überstrahlt).
Richtig, habe ich ja im Prinzip auch geschrieben, nur das per def. eben 10000 zugeordnet wurden, daher "normiert". Die Sache mit den L und H ist etwas gefählich, ich kenne das aus der Digitaltechnik Low High, wobei hier L für 0 und H für 1 steht, beziehungsweise für die Spannungspegel. Der hellste Wert 10000 wäre 10011100010000 (man braucht also 14bit) und 1 den dunkelsten aber von 0 noch verschieden Wert dann logischerweise 00000000000001.

what? jetzt wird es aber ganz schräg... :ugly:
Nix what - siehe oben. 14bit -> 16384, wenn bei einem Konstrastverhältnis von 1:10000 der hellste Wert 10000 ist und dies 1:1 zugeordnet wird, also der Wert 0 (Lichtintensität) zu 0 und der Wert 10000 (Lichtintensität) zu 10000, so beträgt die Abstuffung (also der Abstand zwei direkt benachtbarter (diskreter) Werte im Wertebereich von 1...10000) genau 1; auf Grund der Quantisierung sind ja keine Zwischenwerte mehr möglich (also z.B. zwischen 5001 und 5002).
Natürlich darfst du das gerne auf 16384 anwenden, dann aber hättest du einen Skalierungsfaktor von 1,6384. Vielleicht wird jetzt klar warum ich "nahezu 1" schrieb.

WAS??? nein, das meine ich sicher nicht... Ich meine das, was in der Fotografie im allgemeinen unter Blendenstufe verstanden wird. Und die steht im direkten Zusammenhang mit der Lichtmenge.
Das war ein Vermutung meinerseits, wäre ja möglich gewessen. Aber was verstehst du unter direkten Zusammenhang; unabhängig von der Kennlinie? Den Zusammenhang kenne ich, aber ich würde das gerne von dir hören/lesen und vorallem was in der Fotografie im allgemeinen unter Blendstufe verstanden wird, da wird nämlich sehr viel darunter verstanden, daher möchte ich das schon ganz genau wissen.

/edit: Nachtrag, Und wenn du schon dabei bist dürfe eine beispielhafte Zuordnung zu den Bitwerten nur noch kalter Kaffee für dich sein. Interessant wird es auf jeden Fall - Ich bin gespannt, denn so ganz trivial ist das nicht.

Jetzt verstehe ich so langsam, wie du zu deinen Gedankengängen kommst. Sorry, aber DAS IST GANZ FALSCH!!!
Die n bit eines Farbkanals werden nicht in einen Teil für Schatten und einen für Mittel und einen für Hell oder so ähnlich aufgeteilt.
Ein Pixel liefert einen Wert, der wird wie beschrieben quantisiert und fertig.
Die Schatten dienten hier als Beispiel, genauer als Repräsentant für den unteren Intensitätbereich; das ist doch nicht misszuverstehen.

Ist dir eigentlich mal aufgefallen, dass du das Ergebnis auch in einem 8-Bit-Bildformat wie jpg darstellen kannst? Das einzige was dann schnell stören wird, sind fehlende Farbabstufungen (z.B. Streifen im Himmel).
Das weiß ich schon lange, und trotzdem brauchst du für 1:10000 KU 14bit. Dein 2bit-Beispiel mag auch 1:10000 abbilden können, nur was nutzt dir das, wenn nahezu alle Details des Bildes flötten gehen - war das dein Ziel?
Ich denke mal nein, du wolltest möglich viele Details, daher HDR. Und nun nimm wegen mir die 8bit und zeige mir wie du ein HDR-Bild global verlustfrei da rein schiebst - Fällt dir jetzt etwas auf? - genau, mit fix mal eben TM geht da nicht viel, du möchtest möglichst viele Details retten und dazu mußt du es nicht global sondern local bzw. partiell anwenden - und das schreibe ich schon die ganze Zeit - und von einer Automatik reden wir nicht, da waren wir uns ja schon einig.
 
Zuletzt bearbeitet:
Ich habe nicht gesagt das es skaliert wird, sondern extra noch "unskaliert" dazugeschrieben.
Du hast das Verfahren Skalierung genannt:
ich glaube wie reden beim Kontrast und den Bits aneinander vorbei. Mir ist klar das du den Kontrastumfang in ein beliebiges Bitintervall unterbringen kannst (Skalieren)
Das ist aber Quantisieren.

Richtig, habe ich ja im Prinzip auch geschrieben, nur das per def. eben 10000 zugeordnet wurden, daher "normiert".
nein, hast du nicht. Und wieder: Es geht nicht um die Anzahl der Abstufungen.

Die Sache mit den L und H ist etwas gefählich, ich kenne das aus der Digitaltechnik Low High, wobei hier L für 0 und H für 1 steht, beziehungsweise für die Spannungspegel. Der hellste Wert 10000 wäre 10011100010000 (man braucht also 14bit) und 1 den dunkelsten aber von 0 noch verschieden Wert dann logischerweise 00000000000001.
L und H bezeichnen die Werte, die der Sensor noch wahrnehmen kann. Wie genau (das heißt mit welcher Bitzahl) er die Werte dazwischen quantisiert ist vollkommen egal, das habe ich dir oben xmal erklärt.
Wenn dein Sensor Helligkeiten unter L nicht mehr registriert und Helligkeiten über H vollkommen gleichwertig wahrnimmt, kannst du 2 oder 100 bit nehmen, der Sensor nimmt sie nicht wahr. Wir reden hier von Eigenschaften des Sensors. Dein Sensor kann bei einer Belichtungseinstellung (Steuerung von "Energie pro Zeit und Fläche"=Intensität) nicht jeden belibigen Intensitätswert unterscheiden. Bildinformationen in besonders dunklen und besonders hellen Bereichen werden dann nicht wahrgenommen und kommen nicht ins Bild.
Je größer aber der Abstand zwischen den hellsten und dunkelsten messbaren Werten wird, desto größer wird der Kontrastumfang des Sensors. An dieser Stelle ist noch nichts quantisiert, das geschieht erst beim Auslesen. So, und egal auf wieviel Bits du quantisierst, den Kontrastumfang deines Sensors änderst du nicht mehr.

Aber was verstehst du unter direkten Zusammenhang; unabhängig von der Kennlinie? Den Zusammenhang kenne ich, aber ich würde das gerne von dir hören/lesen und vorallem was in der Fotografie im allgemeinen unter Blendstufe verstanden wird, da wird nämlich sehr viel darunter verstanden, daher möchte ich das schon ganz genau wissen.
http://de.wikipedia.org/wiki/Blendenstufe Bisher die einzige Bedeutung, die mir hier untergekommen ist. Wird aber OT.

/edit: Nachtrag, Und wenn du schon dabei bist dürfe eine beispielhafte Zuordnung zu den Bitwerten nur noch kalter Kaffee für dich sein. Interessant wird es auf jeden Fall - Ich bin gespannt, denn so ganz trivial ist das nicht.
Warum eine Beispielhafte Zuordnung. Eingangs-Signal aus der Umgebung (auch Motiv genannt) erzeugt Spannungen auf Sensor, etwa proportional zur Intensität. Zu helles wird ununterscheidbar, zu dunkles auch. Spannungswerte auslesen, quantsieren, fertig. Mit welcher Auflösung ich quantisiere ist Lattenhagen, da hast du es wieder. Sinnvoll ist natürlich eine, die nicht allzu grobe Abstufungen erzeugt. Ob die Abstufungen grob oder Fein wirken hängt dann natürlich vom Kontrastumfang des Sensors ab. Wenn das wahrnehmbare Intervall groß ist, sollte ich auch mehr Werte bei der Quantisierung nehmen. Ob 10000 Abstufungen dafür reichen steht auf einem anderen Blatt -- ich fürchte für etwas fortgeschrittene EBVler wird das schon knapp. Und um es gleich nochmal klar zu stellen, wir haben kein HDR, weil wir 10000 Abstufungen verwenden!! Das ist nicht die Definition!!

Die Schatten dienten hier als Beispiel, genauer als Repräsentant für den unteren Intensitätbereich; das ist doch nicht misszuverstehen.
Das habe ich auch so verstanden. Aber wenn ich dich einmal zitieren darf:
Du hast 16bit wovon 4bit den Schattenbereich darstellen. Wenn du diesen Bereich (4bit) nicht skalierst sondern lediglich in einen 8bit Bereich verschiebst, ...
Diese Zuordnung von 4 (8 oder n) bit zum Schattenbereich findet nicht statt. Fertig aus, so ist die Technik. Ein Sensor-Pixel dass mit einer Intensität beschienen wird, die wir als Schatten bezeichnen wird auch auf deine 14bit (oder wieviel auch immer man möchte) quantisiert.

Das weiß ich schon lange, und trotzdem brauchst du für 1:10000 KU 14bit. Dein 2bit-Beispiel mag auch 1:10000 abbilden können, nur was nutzt dir das, wenn nahezu alle Details des Bildes flötten gehen - war das dein Ziel?
So, zumindest siehst du hier ein, dass die Quantisierung nichts mit dem Kontrastumfang des Sensors zu tun hat. Wenn du jetzt mal in #41 schaust, findest du folgende Aussage von mir:

natürlich kann man.... Die bit-Tiefe gibt übrigens nicht den Dynamikumfang an, sondern wie fein er aufgelöst wird.
Wenn ich einen Sensor mit sehr hohem Dynamikumfang hätte, könnte er Licht- und Schattenbereiche wesentlich Detailreicher auflösen. Damit das nicht seltsam aussieht, muss mit dem größeren Dynamikintervall auch die Bittiefe, also die Zahl der unterteilungen wachsen.


Ich denke mal nein, du wolltest möglich viele Details, daher HDR. Und nun nimm wegen mir die 8bit und zeige mir wie du ein HDR-Bild global verlustfrei da rein schiebst - Fällt dir jetzt etwas auf? - genau, mit fix mal eben TM geht da nicht viel,
Genau dafür ist Tonemapping da, dass es fix geht habe ich nicht behauptet. Verlustfrei geht es auch nicht, habe ich auch nicht behauptet. Tonemapping ist eben eine Optmierungsaufgabe.

du möchtest möglichst viele Details retten und dazu mußt du es nicht global sondern local bzw. partiell anwenden - und das schreibe ich schon die ganze Zeit
das ist ein unwichtiger Punkt, ob dein Tonemapping partiell, lokal, links rechts oder im Subraum angewendet wird ist egal.
Wir haben nicht über Tonemapping geredet, sondern über den Kontrastumfang von Sensoren.


Du wendest deine 1:10000 Bedingung falsch an. Du erhälst kein HDR-Bild, wenn du ein 8-Bit-JPG in ein 16-Bit-Datenormat umwandelst, nur weil das Datenformat einen Wertebereich zulässt, der 65536 Einteilungen zulässt und du damit von 1 bis 10000 zählen kannst.
Entscheidend ist, dass die Bildinformation vorhanden sein muss. Die gewinnst du nicht durch Bittiefe, sondern durch einen Sensor der sie überhaupt erst wahrnehmen kann.
Die Kontrastbedingung bezieht sich darauf in wieweit du den realenHelligkeitsunterschied im Motiv abbilden kannst. Sie kann nur dann erfüllt werden, wenn dein Sensor diesen Kontrastumfang unterstützt ODER wenn du eine Belichtungsreihe machst**... und NEIN: Ein raw in verschiedenen Helligkeitsstufen zu exportieren ist KEINE Belichtungsreihe, weil du den Sensor nicht anders belichtet hast.

**)Das ist natürlich umständlich und führt zu den bekannten Problemen mit bewegten Objekten, deshalb kommt für mich HDR erst in die Kamera, wenn sich der Kontrastumfang der Sensoren vergrößert.
 
Zitat:
"Ist doch egal, wie das Auge es macht! Der entscheidende Punkt ist: Wir nehmen es wahr! Es ist ja nicht Ziel mit einer Kamera das Auge zu imitieren."

Na sag ich doch. :)
In der Fotografie ist es meist (häufig, vielfach, ...) gar nicht beabsichtigt 'realistische' Fotos zu machen, d.h. gesehene Realität abzulichten. Letztlich geht das meist schon eher in Richtung Kunst. (Das ist von mir durchaus nicht negativ gemeint!)
Nein, ich habe was anderes gesagt (oder sagen wollen), deshalb nochmal anders formuliert:
Wenn mein Auge (wie genau auch immer) es mir erlaubt in einer realen Situation wesentlich größrere Helligkeitsunterschiede wahrzunehmen, habe ich durch HDR die Gelegenheit ein Foto realistischer wirken zu lassen, weil es unserer detalierten Wahrnehmung näher kommt.
 
Du hast das Verfahren Skalierung genannt:
Habe ich es angewendet? Nein! Ich habe es sogar expliziet ausgeschlossen. Also warum behauptes du es dann u7nd machst mir darasu einen Vorwurf(?) - sorry, aber das ist unfein.
Das ist aber Quantisieren.
Du kannst das nennen wie du willst, wenn du etwas Großes in etwas kienes unterbringst, dann ist es skalieren, das dabei Quantisiert wird, ist nun mal in der Welt der Bits so - Stand das zu Diskussionion? - habe ich das Angezweifelt? Nein! Nein!
nein, hast du nicht. Und wieder: Es geht nicht um die Anzahl der Abstufungen.
Doch habe ich, ganz bestimmt. Anzahl der Abstuffungen ist ein anderes Thema - nichts verdrehen, dazu komme ich aber noch. :)
L und H bezeichnen die Werte, die der Sensor noch wahrnehmen kann. Wie genau (das heißt mit welcher Bitzahl) er die Werte dazwischen quantisiert ist vollkommen egal, das habe ich dir oben xmal erklärt. ... (viel Text)
Ähm, hier liegst du aber Meilenweit daneben. Zunächst muß du mal erklären was bei dir der Sensor ist - das ist nämlich nicht unwichtig. Ich gehe jetzt davon aus, das du den einzelnen *Pixel* meinst (ne, ich Rede hier nicht vom Pixel im Bild, nicht das mir hier wieder was ungejubel wir), also ein Pixel auf dem Sensor nimmt ein KU von min/max auf, wobei min das Auflösungsvermögung (=Abstuffungen) ist, die nachfolgende Elektronik quantisiert und das Teil nennt sich dann A/D-Wandler. Das ein Sensor (*ein einzelner Pixel*) nur den Zusatnd L/H kennt, ist Unsinn - das wär 1bit.:ugly: Die Hersteller geben ja schon an das er einer Auflösungsvermögen von 12bit Hellikeitsstufen hat. ;)
http://de.wikipedia.org/wiki/Blendenstufe Bisher die einzige Bedeutung, die mir hier untergekommen ist. Wird aber OT.
Was soll das? Ich wollte es von Dir hören/lesen. Ich sagte nicht umsonst, das ich es genau wissen möchte wie du das gemeint hast - oder bist du der Autor des Wiki-Beitrages?
Warum eine Beispielhafte Zuordnung. Eingangs-Signal aus der Umgebung (auch Motiv genannt) erzeugt Spannungen auf Sensor, etwa proportional zur Intensität. Zu helles wird ununterscheidbar, zu dunkles auch. Spannungswerte auslesen, quantsieren, fertig. Mit welcher Auflösung ich quantisiere ist Lattenhagen, da hast du es wieder. Sinnvoll ist natürlich eine, die nicht allzu grobe Abstufungen erzeugt. Ob die Abstufungen grob oder Fein wirken hängt dann natürlich vom Kontrastumfang des Sensors ab. Wenn das wahrnehmbare Intervall groß ist, sollte ich auch mehr Werte bei der Quantisierung nehmen. Ob 10000 Abstufungen dafür reichen steht auf einem anderen Blatt -- ich fürchte für etwas fortgeschrittene EBVler wird das schon knapp. Und um es gleich nochmal klar zu stellen, wir haben kein HDR, weil wir 10000 Abstufungen verwenden!! Das ist nicht die Definition!!
Irgenwie bist du am Thema vorbei oder weichst aus unddazu gehts du immer wieder auf andee Dinge nebenbei ein und versuchst diese zu wieder legen. Wo kommt hier der Begriff Blend(en)stufe vor - ich kann ihn nicht sehen. Alles was Rot ist, ist so nicht richtig - habe ich schon mehrmals geschriebn und auf einiges gehe ich später noch ein.

Das habe ich auch so verstanden. Aber wenn ich dich einmal zitieren darf:

Diese Zuordnung von 4 (8 oder n) bit zum Schattenbereich findet nicht statt. Fertig aus, so ist die Technik. Ein Sensor-Pixel dass mit einer Intensität beschienen wird, die wir als Schatten bezeichnen wird auch auf deine 14bit (oder wieviel auch immer man möchte) quantisiert.
Du willst es nicht verstehen - zumindest habe ich den Eindruck, darüber hinaus fällt auf, das Quantisieren dein Lieblingswort ist. Sorry, wir reden hier vin Digitalenbildern, das Quantisieren brauchst du also nicht erwähnen, davon wird der Rest nämlich nicht richtiger. So und jetzt nochmal ganz langsam und etwas anders formuliert. Wenn du die unteren 4Bit eines 16Bit Bildes nimmst unddiese 4bit ohne jegliche Änderung 1:1 in ein 8bit Bild im unteren Bereich einfügst, was passiert dann? Richtig erst waren nahmen sie einen Bereich von 125% im Tonwertumfang ein und danach 50%.:eek: Und nur für den Fall, das du vergessen hast warum ich dieses Beispiel überhaupt brachte - es war wegen der Blendstufen, als quasi Einstiegsthilfe gedacht - übrigens du wolltest mir da noch was erklären. ;)
So, zumindest siehst du hier ein, dass die Quantisierung nichts mit dem Kontrastumfang des Sensors zu tun hat. Wenn du jetzt mal in #41 schaust, findest du folgende Aussage von mir:
Nein, da interpretierst du die Zeilen flasch, das war mit leichtem *Säufser* gesprochen. Ich versuche dir das mal anders zu erklären, dann wird dir das Auch mit den Abstufffungen klarer auch warum man unbedingt 14bit für ein KU von 1:10000 braucht. Zunächstmal bedeutet KU 1:10000 zwingend, das die Abstuffung 1 Beträgt, (wenn nicht kannst du kein KU von 1:10000 in der Digitaltechnik darstellen <- das muß man nicht erwähnen, ich mache es mal sicherheitshalber).ALso du hast die 14bit, ein KU von 1:10000 bei einer Abstuffung (von zwei dirket benachtbarter Werte) von 1 -> hellste Intensität= 10000 und dunkeslte aber von 0 noch verschiedene = 1. Jetzt komst du und sagst: pillepalle alles falsch, Unsinn, das KU von 1:10000 kannst du sogar in 2Bit pressen. Glaubst du das wirklich? Bei 2bit hast 00, 01, 10 und 11 - also soziemlich genau 4 Zustande - na, leuchtet das Birnchen schon ;) - Nein immer noch nicht? - OK, jetzt Quantisiere (machst du ja so gerne ;)) und was erhälst du um den hellsten Zustand darstellen zu können: 11 = 10000, wie sind die anderen Zustände? Richtig:
11 = 10000
10 = 7500
01 = 5000
00 = 2500
Wie groß ist dein KU im Bild? Richtig: 10000:2500 -> 4:1! Ist 4:1 = 10000:1? Ich denke nein.
Wir haben nicht über Tonemapping geredet, sondern über den Kontrastumfang von Sensoren.
Was verstehst du unter TM? Hier gehst um HDR, wie dort der KU möglichst ohne Verluste eigebracht wird und wie man das später in einem darstellbaren Bild erhalten kann, was nunmal nur per TM geht.
Du wendest deine 1:10000 Bedingung falsch an. Du erhälst kein HDR-Bild, wenn du ein 8-Bit-JPG in ein 16-Bit-Datenormat umwandelst, nur weil das Datenformat einen Wertebereich zulässt, der 65536 Einteilungen zulässt und du damit von 1 bis 10000 zählen kannst.
Entscheidend ist, dass die Bildinformation vorhanden sein muss. Die gewinnst du nicht durch Bittiefe, sondern durch einen Sensor der sie überhaupt erst wahrnehmen kann.
Sorry, so nicht! Wo habe ich geschrieben das ich 8bit in 16bit umwandle. :confused: Das die Bildinformation vorhanden sein muß ist ja woll selbstredend. Was möchtest du mir hier eigentlich wieder unterjubeln, bei sowas werden ich leicht entpfindlich - dafür bin ich bekannt. :lol:
Die Kontrastbedingung bezieht sich darauf in wieweit du den realenHelligkeitsunterschied im Motiv abbilden kannst. Sie kann nur dann erfüllt werden, wenn dein Sensor diesen Kontrastumfang unterstützt ODER wenn du eine Belichtungsreihe machst**
Das ist doch klar, worauf möchtest du hinaus?
... und NEIN: Ein raw in verschiedenen Helligkeitsstufen zu exportieren ist KEINE Belichtungsreihe, weil du den Sensor nicht anders belichtet hast.
Das ist auch klar. Aber ich zitiere mich nochmal selbst: "Viel Sinnvoller ist da die getrennte Entwicklung, also aus einen RAW mehrere Bilder entsprechende Belichtung entwickeln und diese gezielt zu einem anspreehenden Ergebnis zusammensetzen."Was meine ich damit? Nun, wenn im RAW-Bild mehr als 8bit Informatinen enthalten sind, würde ich unweigerlich mit einer einzigen Entwicklung das mehr an Information (besser gesagt an Details) verwerfen. Klar kann ich TM in RAW-Konverter durchführen (Fülllicht, Lichter reparieren, Belichtung selbst, Kontrast, Dynamik, an der Gradationskurve und vielen mehr) aber was ich nicht kann, ist das partielle Eingreifen in ganz bestimmte Bildbereiche. Wenn dir das nicht klar ist, dann nutzt schon jetzt das gegeben Potential das in einer RAW-Datei steckt und der Sensor liefern kann nicht voll aus.


PS: die Diskussion wird langsam sehr unübersichtich und müssig, es wäre daher besser nur noch einen bestimmten Teilaspekt anzuschneiden ohne immerwieder andere mit einzubringen, diese anderen Aspekte lenken nur ab oder fördern neue Missverständnisse.
 
PS: die Diskussion wird langsam sehr unübersichtich und müssig, es wäre daher besser nur noch einen bestimmten Teilaspekt anzuschneiden ohne immerwieder andere mit einzubringen, diese anderen Aspekte lenken nur ab oder fördern neue Missverständnisse.

Vielleicht wär's ja auch nicht schlecht, wenn Ihr Beiden Eure doch schon sehr detaillierte und leider ziemlich ins OT abgeglittene Diskussion per PM führt - hier scheint keiner ausser Euch mehr dabei zu sein und vielleicht auch gar keiner wissen wollen, wer von Euch jetzt wirklich und letztendlich Recht hat.

Sowo Samma
 
die Diskussion wird langsam sehr unübersichtich und müssig, es wäre daher besser nur noch einen bestimmten Teilaspekt anzuschneiden ohne immerwieder andere mit einzubringen, diese anderen Aspekte lenken nur ab oder fördern neue Missverständnisse.
Das sehe ich genauso, mich wundert etwas, dass du mein Angebot, die Diskussion per PN weiterzuführen nicht beachtet hast.
Warum gerade du meinen Diskussionsstil kritisiert hast, kann ich nicht nachvollziehen, insbesondere weil deine Texte sich nicht gerade durch Präzision auszeichnen und du dir offensichtlich sehr wenig mühe gibst meine Beiträge genau zu lesen (was ich bei dir getan habe und es war nicht immer leicht!). Ich denke da z.B. auch dran, wie du einfach mal die von mir wohl definierten Größen L und H zu 1 und 0 umdefiniert hast, bzw. gar nicht auf die dargelegten Widersprüche in deiner Argumentation eingingst... Nicht zu vergessen, die doch sehr unangemessene Arroganz in einigen Abschnitten .. die steht dir nicht zu!! ich könnte noch weitermachen, aber nun haben wir uns beide unsere Vorwürfe in stilistischer Richtung gemacht und wir können das wohl abhaken.

Damit wir zu einem Abschluss kommen:
Ich werde jetzt nicht deinen ganzen letzten Beitrag zitieren -- auch wenn einige Dinger dabei sind, wo die Versuchung groß ist. Stattdessen werde ich nocheinmal meinen Gedankengang bzw. Kernaussagen darlegen. Und ich möchte dich bitten das gleiche zu tun, ohne diesen Beitrag oder vorherige zu zitieren. Danach sollte man es möglichst darauf beruhen lassen.




Die Frage hinter dem Thread war: Wann kommt HDR in der Kamera?

Wenn ich mit der Kamera ein HDR-Bild erzeugen will, bedeutet das, dass der Sensor einen extremen Kontrastumfang, der in dem Motiv enthalten ist, aufnehmen können soll.

Der Weg zur Datei führt unweigerlich über den Sensor. Der Sensor muss die Details, also auch in extrem hellen, sowie sehr dunklen Bereichen unterscheiden können. Wie stark er das vermag, hängt vom Kontrastumfang ab. Dieser ist definiert als das Verhältnis der niedrigsten messbaren Intensität L zur höchsten messbaren Intensität H. Alle Intensitäten unterhalb von L kann der Sensor nicht mehr unterscheiden, er liefert für all diese Werte das gleiche elektrische Signal. Die Betroffenen Pixel sind "schwarz" (abgesoffene Bereiche). Alles oberhalb von H kann ebenfalls nicht mehr unterschieden werden, für diese Intensitäten liefert der Sensor ebenfalls identische elektrische Signale (überstrahlte Bereiche). Diese Grenzen des Sensors sind Konstruktionsbedingt und fix für diesen Sensor.

HDR bezeichnet einen hohen Kontrastumfang. Ich möchte mich hier jetzt nicht auf die exakten Werte festlegen, denn man liest vieles von 1:10.000, aber auch 1:100.000 und irgendwo habe ich auch noch viel höhere Werte gelesen. 1:100.000 soll zumindest für viele Motive nicht unüblich sein.

Um nun ein Bild zu erzeugen, dass diesen Kontrastumfang wiedergibt, muss entweder der Sensor diesen Kontrastumfang abdecken, oder man muss Belichtungsreihen erzeugen.
Bei Belichtungsreihen wird z.B. durch Variation der Verschlusszeit die Intensität auf dem Sensor variiert. Sehr helle Bereiche im Motiv erhalten bei der Projektion auf dem Sensor so niedrigere Intensitäten und werden so unterscheidbar, die dunklen Bereiche saufen dabei aber ab. Umgekehrt gilt das für dunkle Bereiche. Durch Überlagerungstechniken mit unterschiedlichem Rechenaufwand, kann dann ein Bild erzeugt werden.
Wichtig aber: Eine einzelne Aufnahme kann keinen größeren Kontrastumfang enthalten als der Sensor liefert.**
Ein sehr leistungsfähiger Sensor, mit einem extremen Kontrastumfang, könnte das HDR-Bild auch direkt erzeugen.

Zur Erzeugung des Bildes gehört aber noch die Digitalisierung. Bisher habe ich nur betrachtet, wie groß der Bereich der Intensitäten ist, zu denen der Sensor noch verwertbare Signale liefert.
Diese Signale müssen quantisiert werden. Dazu kommt eine weitere Kenngröße des Sensors, die Bittiefe pro Pixel. Sie gibt an mit welcher Auflösung die Quantisierung erfolgt. Diese Bittiefe darf nicht verwechselt werden mit dem Kontrastumfang des Sensors, beides ist unabhängig voneinander!

Natürlich ist nicht jede beliebige Bittiefe sinnvoll. Für einen Sensor mit sehr hohem Kontrastumfang ist natürlich auch eine große Bittiefe sinnvoll, damit die Abstufungen fein genug bleiben. Je feiner diese Abstufung, desto mehr Information enthält natürlich das gespeicherte Bild.

Um die Bilder weiter verarbeiten zu können ist eine gewisse Reserve an Bildinformationen nützlich. Insofern wird man eher eine hohe Bittiefe wählen. HDR-Tools erzeugen nicht selten 32bit pro Farbkanal (einige sicher noch mehr).

Um es klar zu stellen: Eine hohe Auflösung in der Quantisierung impliziert nicht, dass der Sensor einen großen Kontrastumfang abdeckt. Folglich kann ich auch nicht einfach aus der Bittiefe schließen, wie gut der Sensor den Kontrastumfang eines Motivs tatsächlich wahrnimmt..

HDR "kommt also dann in die Kamera", wenn die Sensoren den hohen Kontrastumfang der Motive physikalisch erfassen können, oder die Kameras die Erstellung und das Zusammenfügen der Belichtungsreihen automatisieren.

So, hier wäre man schon fertig..

**) Eine Randbemerkung: Das ist auch der Grund, warum das "entwickeln" einer Raw-Datei mit verschiedenen Belichtungseinstellungen nicht zu einer Vergrößerung des Kontrastumfangs führt. Wohl aber erlaubt es den zur Verfügung stehenden Kontrastumfang maximal auszunutzen -- Das macht das Ergebnis aber nicht zu einem HDR-Bild. Das wäre nur dann der Fall, wenn der Sensor den für HDR geforderten Kontrastumfang bedient -- derzeit tut das wohl kaum ein handelsüblicher Sensor...
 
Zuletzt bearbeitet:
Wieso sollte hier keiner mehr dabei sein? Ist doch ein toller Thread für einen verregneten Samstag Morgen! Vielleicht gehen wird die Sache mal anders an:

Derzeit in DSLRs verwendete Sensoren haben ein Grundrauschen von Pi*Daumen 50 Elektronen und eine Full-Well Kapazität von etwa 50.000 Elektronen. Dadurch ergibt sich ein Dynamikumfang zwischen Finster und Ausgebrannt von rund 1:1000, etwa 10 Blendenstufen.

Wenn zum Zwecke der Diskussion also HDR bei 1:10.000 beginnt, können die gängigen Sensoren kein HDR Bild mit einer Aufnahme erstellen und die Überschrift des Threads kann beantwortet werden mit: Wenn der Dynamikumfang der verfügbaren Sensoren um 3.32 Blenden gesteigert wird (Faktor 10 ~= 3.32 Bits). Da am unteren Ende wohl nicht mehr viel zu holen ist (Stichwort thermisches Rauschen, Quantenrauschen), muss die Full-Well Kapazität auf ca 500.000 Elektronen wachsen.

Man könnte auch argumentieren, dass die Fuji S5pro schon HDRs liefert. Ich sehe deren Sensor als 2 konventionelle Sensoren unterschiedlicher Empfindlichkeit auf einem Chip, so dass die Kamera mit jeder Auslösung eine Belichtungsreihe aus 2 Bilder macht, die nachfolgend kameraintern zusammengebaut werden. Kommen da eigentlich schon mehr als 13 Blendenwerte raus?

Zur Kodierung: Erwähnte ca 50000 Elektronen werden dann A/D Wandlern zugeführt, die üblicherweise mit 12, 14 oder 16 Bit arbeiten und somit 4096, 16384 und 65536 Werte darstellen können, die somit etwa 12, 3 und 0.75 Elektronen pro Wert repräsentieren. Leider weiss ich nicht wie genau derzeit in Grossserie gemessen werden kann, aber zumindest die 16 Bit Kodierung ist ausser bei den besseren Sensormodellen schon aus theoretischen Gründen eine Scheingenauigkeit, weil Elektronen nicht in Bruchstücken vorkommen.

Die bisherige Diskussion um die Kodierung finde ich müssig. Mir scheint, da gehen Messwert und Repräsentation durcheinander. Ausserdem wird immer lineare Kodierung unterstellt. Nichts erzwingt dies. In anderen technischen Systemen wird z.B. logarithmisch kodiert, wodurch für alle Wertebereiche gleich viele Bits zur Verfügung stehen. Dadurch würden die gefürchteten Tonwertabrisse in aufgehellten Bereichen vermieden. Auch könnte man physiologisch "richtige" Kodierungen verwenden, die eine Überforderung des menschlichen Sehapparats vermeidet. Zur Einführung eines solchen Systems wird man am besten erst ein berühmter Fotograf, schreibt dann ein Buch darüber und nennt es Zonensystem. Oder Tonemapping.
 
WERBUNG
Zurück
Oben Unten