Ich glaube ich verstehe ja, wo das Missverständnis liegt. Ich weiß nur nicht, wie ich es besser erklären kann. Noch den aller-allerletzen Versuch:
Ich glaube hier denken viele so:
Ich betrachte meinen Sensor + Verstärker und A/D Wandler.
Mein Sensor hat eine „Leer“-Spannung von 0.1 V meinetwegen und einen „Full Well“ Spannung von 5V.
Und dieser Abstand zwischen 0.1 V und 5V bestimmt jetzt die Dynamic Range des Sensors, unabhängig davon mit welcher Bittiefe ich nachher das Signal digitalisiere. Soweit richtig?
Das funktioniert aber leider nicht ganz so.
Noch mal das Extrembeispiel mit 1-Bit Abtastung.
0.1V sind Schwarz (Signal 0)
5V sind Weiß (Signal 1)
Soweit klar. Aber wir tasten ja linear ab, also ist 2.4 V ebenfalls Signal 0 und 2.6 V sind schon Signal 1.
Merkt ihr was? Mit dieser 1 Bit Abtastung kann ich eben nicht die gleiche Dynamik Range (14 EV) aus meinem Sensor holen, als wenn ich mit 14 Bit abtaste. Denn alles was in der unteren Spannungshälfte liegt wird zu 0, alles in der oberen wird zu 1.
Und ja, natürlich kann der Sensor weiterhin auch die Maximalwerte bis zum Clipping aufnehmen, also hier 0.11V bis 4.99 V zum Beispiel. Aber davon kommt nichts bei mir an, weil ich nur mit einem Bit abtaste.
Deswegen brauche ich zum darstellen eines
Kontrastverhältnisses von 1:2 (1EV) 1 bit
Kontrastverhältnisses von 1:4 (2EV) 2 bit
Kontrastverhältnisses von 1:8 (3EV) 3 bit
Etc.
Aber ob das jetzt weiter hilft?
Grüße,
Marc