ich finde deine Argumenation und Schlüsse im wesentlichen nicht anders als meine...
Ich hatte auch gar nicht beabsichtigt Dir zu widersprechen
Unterstellt nicht, aber so viel ich weiß arbeiten die handelsüblichen Sensoren so.
Kommt drauf an, was man so als handelsüblichen Sensor betrachtet. CCDs und CMOS Sensoren sind tatsächlich praktisch linear. Deswegen ja auch der nahtlose Übergang von sehr hell nach ausgebrannt. Aber chemischer Film ist ja auch (immer noch) ein handelsüblicher Sensor und alles andere als linear.
Das war aber nicht, was ich ausdrücken wollte: Die Repräsentation der Messwerte ist ebenfalls linear. Das muss aber keineswegs so sein. Stichwort FITS Format (Fließpunkt- oder Gleitkommaarithmetik) der Astrofotografie.
Bei linearer Kodierung steht vom Grundrauschen ausgehend für die erste Stufe des Helligkeitswerts nur 1 Wert zur Verfügung, für die 1. Verdopplung schon 4 Werte, ... , und für die letzte Verdoppelung schon z.B. 2^11, bei 12 Bit Kodierung, sprich mit jeder neuen Binärstelle verdoppelt sich die Zahl der darstellbaren Werte. Genauso wie es nur 10 1-stellige Zahlen im vertrauten Dezimalsystem gibt, aber 90 2-stellige, 900 3-stellige, ...
Man kann aber genau so gut sagen, man nimmt immer z.B. 10 Bits für einen Wert, teilt aber den gesamten darzustellenden Wertebereich in Teilbereiche ein, so dass der erste Teilbereich gerade die Hälfte des gesamten Wertebereichs darstellt, der zweite das nächste Viertel, der dritte das nächste 8tel, etc. Damit würde in den dunkelen Bereichen sehr viel mehr Bits zur Verfügung stehen. Der Informationsgehalt wird jedoch nicht durch die Kodierung beeinflusst, nur verschoben. Frag mich aber nicht, wieviele Schaltungsdesigner man mit der Forderung nach logarithmisch kodierenden A/D Wandlern in den Wahnsinn treiben kann.
Du meinst z.B. die A-Kennlinie aus der Sprachübertragung?
Ja, das ist eine physiologisch "richtigere" Darstellung eines Störsignals als das numerische Verhältnis. Ich würde aber eher mit MP3 vergleichen, weil auch da die Bits bevorzugt für die hörbaren Signale verwendet werden, als für die nicht hörbaren. Und siehe da, statt 16 Bit PCM Kodierung, reichen beispielsweise auch 2 Bit nach MP3. Wenn man statt dessen (sinngemäss) 16 Bits für MP3 Samples nutzen würde, würden sich ganz neue Audiodimensionen auftun.
Was mich, falls es nicht sowieso schon klar ist, zu meiner eigentlichen These bringt: HDR wird gar nicht gebraucht. Die verfügbaren CCDs und CMOS Sensoren liefern längst den mit Negativfilmen vergleichbare Ergebnisse. Nur leider verwenden die linearen Kodierungen diese unökonomisch. Mit nichtlinearer Kodierung hätte man viel mehr Möglichkeiten die Schatten aufzuhellen. Man könnte einfach auf die Spitzlichter belichten und den Rest hochziehen, um damit effektiv die Eingangsdynamik zu reduzieren, was ja der Kern der Darstellung von HDR Bildern ist.
Es regnet immer noch
Edit: Sehe gerade, dass FITS Format keine Fließkommakodierung fordert, sondern nur erlaubt.