Etwas mehr Dynamik wäre noch möglich, da die Verarbeitungskette derzeit etwa so aussieht (Beispiel 5D Mark II):
Licht ->
Quanteneffizienz ca. 35% (Grünkanal) ->
max. Sensorfüllgrad rund 2^16 -> Reduktion um 2 EV, da Ausleserauschen 2,x , also > 2 und damit 2 statt 1 Bits (ergo Base-ISO 400) -> 14-Bit-ADC -> Quantisierungsrauschen rund 2 Bits, d.h. Ergebnis < 12 Bits.
Gemessen knapp > 10 EV.
Mögliche Ansetzpunkte:
- Licht: wird das Pixel größer, sammelt es mehr Licht. Fläche nur noch minimal vergrößerbar durch bereits genannte Verlagerung der Signalpfade zwischen den Pixeln auf deren Unterseite, außerdem sind die Mikrolinsen ja bereits ohne Zwischenräume. Vertiefung der Pixel kaum weiter möglich, da Eindringtiefen von Wellenlänge abhängig,
- Quanteneffizienz: evtl. mit Verbesserung der aktuellen Lithografieverfahren noch kleinere Auslesekreise für die Pixel möglich, d.h. erhöhte Effizienz (
bei CCD schon bis zu 85%)
- Ausleserauschen: Absenkung auf 1,x Elektronen eher unwahrscheinlich, schon wegen thermischer Effekte. Möglich auch, dass kleinere Auslesekreise wieder ein höheres Ausleserauschen bedingen.
- ADCs mit höherer Genauigkeit gibt es, allerdings deutlich teurer und auch langsamer. Im Moment machen > 14 Bit keinen Sinn; sollten die ersten beiden Punkte verbessert sein, wird es evtl. 16 Bit ADCs geben, die 14 oder vielleicht auch irgendwann 15 Bit ausgeben. Ganz ohne Digitalisierungsrauschen wird es auf Elektronenebene kaum gehen.
D.h. mit heute üblichen Pixelgrößen ist bei einer theoretischen Dynamik von 17-18 EV, real vermutlich 2-3 EV weniger das Ende des
CMOS/Active Pixel Sensor erreicht.
Und, wie bereits mit dem Schachbrettmuster angesprochen: was nutzen einem 14 EV, wenn es in den unteren Bits zu wenig und in den oberen zu viele Abstufungen gibt?
Die einzige Lösung ist ein Sensor, welcher analog dem menschlichen Auge aufzeichnet: nämlich logarithmisch. Da gibt es z.B. den
Digital Pixel Sensor
*****