Du hast das Verfahren Skalierung genannt:
Habe ich es angewendet? Nein! Ich habe es sogar expliziet ausgeschlossen. Also warum behauptes du es dann u7nd machst mir darasu einen Vorwurf(?) - sorry, aber das ist unfein.
Das ist aber Quantisieren.
Du kannst das nennen wie du willst, wenn du etwas Großes in etwas kienes unterbringst, dann ist es skalieren, das dabei Quantisiert wird, ist nun mal in der Welt der Bits so - Stand das zu Diskussionion? - habe ich das Angezweifelt? Nein! Nein!
nein, hast du nicht. Und wieder: Es geht nicht um die Anzahl der Abstufungen.
Doch habe ich, ganz bestimmt. Anzahl der Abstuffungen ist ein anderes Thema - nichts verdrehen, dazu komme ich aber noch.
L und H bezeichnen die Werte, die der Sensor noch wahrnehmen kann. Wie genau (das heißt mit welcher Bitzahl) er die Werte dazwischen quantisiert ist vollkommen egal, das habe ich dir oben xmal erklärt. ... (viel Text)
Ähm, hier liegst du aber Meilenweit daneben. Zunächst muß du mal erklären was bei dir der Sensor ist - das ist nämlich nicht unwichtig. Ich gehe jetzt davon aus, das du den einzelnen *Pixel* meinst (ne, ich Rede hier nicht vom Pixel im Bild, nicht das mir hier wieder was ungejubel wir), also ein Pixel auf dem Sensor nimmt ein KU von min/max auf, wobei min das Auflösungsvermögung (=Abstuffungen) ist, die nachfolgende Elektronik quantisiert und das Teil nennt sich dann A/D-Wandler. Das ein Sensor (*ein einzelner Pixel*) nur den Zusatnd L/H kennt, ist Unsinn - das wär 1bit.

Die Hersteller geben ja schon an das er einer Auflösungsvermögen von 12bit Hellikeitsstufen hat.
http://de.wikipedia.org/wiki/Blendenstufe Bisher die einzige Bedeutung, die mir hier untergekommen ist. Wird aber OT.
Was soll das? Ich wollte es
von Dir hören/lesen. Ich sagte nicht umsonst, das ich es genau wissen möchte wie du das gemeint hast - oder bist du der Autor des Wiki-Beitrages?
Warum eine Beispielhafte Zuordnung. Eingangs-Signal aus der Umgebung (auch Motiv genannt) erzeugt Spannungen auf Sensor, etwa proportional zur Intensität. Zu helles wird ununterscheidbar, zu dunkles auch. Spannungswerte auslesen, quantsieren, fertig. Mit welcher Auflösung ich quantisiere ist Lattenhagen, da hast du es wieder. Sinnvoll ist natürlich eine, die nicht allzu grobe Abstufungen erzeugt. Ob die Abstufungen grob oder Fein wirken hängt dann natürlich vom Kontrastumfang des Sensors ab. Wenn das wahrnehmbare Intervall groß ist, sollte ich auch mehr Werte bei der Quantisierung nehmen. Ob 10000 Abstufungen dafür reichen steht auf einem anderen Blatt -- ich fürchte für etwas fortgeschrittene EBVler wird das schon knapp. Und um es gleich nochmal klar zu stellen, wir haben kein HDR, weil wir 10000 Abstufungen verwenden!! Das ist nicht die Definition!!
Irgenwie bist du am Thema vorbei oder weichst aus unddazu gehts du immer wieder auf andee Dinge nebenbei ein und versuchst diese zu wieder legen. Wo kommt hier der Begriff Blend(en)stufe vor - ich kann ihn nicht sehen. Alles was Rot ist, ist so nicht richtig - habe ich schon mehrmals geschriebn und auf einiges gehe ich später noch ein.
Das habe ich auch so verstanden. Aber wenn ich dich einmal zitieren darf:
Diese Zuordnung von 4 (8 oder n) bit zum Schattenbereich findet nicht statt. Fertig aus, so ist die Technik. Ein Sensor-Pixel dass mit einer Intensität beschienen wird, die wir als Schatten bezeichnen wird auch auf deine 14bit (oder wieviel auch immer man möchte) quantisiert.
Du willst es nicht verstehen - zumindest habe ich den Eindruck, darüber hinaus fällt auf, das Quantisieren dein Lieblingswort ist. Sorry, wir reden hier vin Digitalenbildern, das Quantisieren brauchst du also nicht erwähnen, davon wird der Rest nämlich nicht richtiger. So und jetzt nochmal ganz langsam und etwas anders formuliert. Wenn du die unteren 4Bit eines 16Bit Bildes nimmst unddiese 4bit ohne jegliche Änderung 1:1 in ein 8bit Bild im unteren Bereich einfügst, was passiert dann? Richtig erst waren nahmen sie einen Bereich von 125% im Tonwertumfang ein und danach 50%.

Und nur für den Fall, das du vergessen hast warum ich dieses Beispiel überhaupt brachte - es war wegen der Blendstufen, als quasi Einstiegsthilfe gedacht - übrigens du wolltest mir da noch was erklären.
So, zumindest siehst du hier ein, dass die Quantisierung nichts mit dem Kontrastumfang des Sensors zu tun hat. Wenn du jetzt mal in #41 schaust, findest du folgende Aussage von mir:
Nein, da interpretierst du die Zeilen flasch, das war mit leichtem *Säufser* gesprochen. Ich versuche dir das mal anders zu erklären, dann wird dir das Auch mit den Abstufffungen klarer auch warum man unbedingt 14bit für ein KU von 1:10000 braucht. Zunächstmal bedeutet KU 1:10000 zwingend, das die Abstuffung 1 Beträgt, (wenn nicht kannst du kein KU von 1:10000 in der Digitaltechnik darstellen <- das muß man nicht erwähnen, ich mache es mal sicherheitshalber).ALso du hast die 14bit, ein KU von 1:10000 bei einer Abstuffung (von zwei dirket benachtbarter Werte) von 1 -> hellste Intensität= 10000 und dunkeslte aber von 0 noch verschiedene = 1. Jetzt komst du und sagst: pillepalle alles falsch, Unsinn, das KU von 1:10000 kannst du sogar in 2Bit pressen. Glaubst du das wirklich? Bei 2bit hast 00, 01, 10 und 11 - also soziemlich genau 4 Zustande - na, leuchtet das Birnchen schon

- Nein immer noch nicht? - OK, jetzt Quantisiere (machst du ja so gerne

) und was erhälst du um den hellsten Zustand darstellen zu können: 11 = 10000, wie sind die anderen Zustände? Richtig:
11 = 10000
10 = 7500
01 = 5000
00 = 2500
Wie groß ist dein KU im Bild? Richtig: 10000:2500 -> 4:1! Ist 4:1 = 10000:1? Ich denke nein.
Wir haben nicht über Tonemapping geredet, sondern über den Kontrastumfang von Sensoren.
Was verstehst du unter TM? Hier gehst um HDR, wie dort der KU möglichst ohne Verluste eigebracht wird und wie man das später in einem darstellbaren Bild erhalten kann, was nunmal nur per TM geht.
Du wendest deine 1:10000 Bedingung falsch an. Du erhälst kein HDR-Bild, wenn du ein 8-Bit-JPG in ein 16-Bit-Datenormat umwandelst, nur weil das Datenformat einen Wertebereich zulässt, der 65536 Einteilungen zulässt und du damit von 1 bis 10000 zählen kannst.
Entscheidend ist, dass die Bildinformation vorhanden sein muss. Die gewinnst du nicht durch Bittiefe, sondern durch einen Sensor der sie überhaupt erst wahrnehmen kann.
Sorry, so nicht! Wo habe ich geschrieben das ich 8bit in 16bit umwandle.

Das die Bildinformation vorhanden sein muß ist ja woll selbstredend. Was möchtest du mir hier eigentlich wieder unterjubeln, bei sowas werden ich leicht entpfindlich - dafür bin ich bekannt.
Die Kontrastbedingung bezieht sich darauf in wieweit du den realenHelligkeitsunterschied im Motiv abbilden kannst. Sie kann nur dann erfüllt werden, wenn dein Sensor diesen Kontrastumfang unterstützt ODER wenn du eine Belichtungsreihe machst**
Das ist doch klar, worauf möchtest du hinaus?
... und NEIN: Ein raw in verschiedenen Helligkeitsstufen zu exportieren ist KEINE Belichtungsreihe, weil du den Sensor nicht anders belichtet hast.
Das ist auch klar. Aber ich zitiere mich nochmal selbst:
"Viel Sinnvoller ist da die getrennte Entwicklung, also aus einen RAW mehrere Bilder entsprechende Belichtung entwickeln und diese gezielt zu einem anspreehenden Ergebnis zusammensetzen."Was meine ich damit? Nun, wenn im RAW-Bild mehr als 8bit Informatinen enthalten sind, würde ich unweigerlich mit einer einzigen Entwicklung das mehr an Information (besser gesagt an Details) verwerfen. Klar kann ich TM in RAW-Konverter durchführen (Fülllicht, Lichter reparieren, Belichtung selbst, Kontrast, Dynamik, an der Gradationskurve und vielen mehr) aber was ich nicht kann, ist das partielle Eingreifen in ganz bestimmte Bildbereiche. Wenn dir das nicht klar ist, dann nutzt schon jetzt das gegeben Potential das in einer RAW-Datei steckt und der Sensor liefern kann nicht voll aus.
PS: die Diskussion wird langsam sehr unübersichtich und müssig, es wäre daher besser nur noch einen bestimmten Teilaspekt anzuschneiden ohne immerwieder andere mit einzubringen, diese anderen Aspekte lenken nur ab oder fördern neue Missverständnisse.