Na wie ich erwartet hatte, ein Antwort die ich erst mal etwas verdauen musste!
Sorry aber ein kleines Kompliment (sollte eins sein) halte ich hier mal für angebracht.
Danke auf jeden Fall schon mal für deine Einschätzung.
Zur Sache, selbst wenn ich denen aber mal nur zur Hälfte glauben schenke, die reden ja von 100facher Empfindlichkeit und von Wellenlängen die bislang ein normaler Sensor nicht erfassen kann, hört sich das ja nicht schlecht an.
Was man verbessern kann:
- Quanteneffizienz erhöhen, aber da ist nur ein Faktor von 2,5 bis 5 drin, und das auch nur, wenn man keine Farbe detektieren will.
Weiterhin bringt ein Faktor N nur eine Rauschminderung von Quadratwurzel(N).
- Ausleserauschen verringern. Da geht noch etwas mehr. Allerdings sind emCCDs keine wirkliche Lösung. Man bekommt zwar das
Ausleserauschen so weit runter, so daß man weiß, ob 0, 1 oder 2 Photonen detektiert wurden, aber der Verstärkungsprozeß hat ein
multiplikatives Rauschen, was sich exakt genauso auswirkt wie eine Halbierung der Quanteneffizienz.
- Man kann manche Detektoren im Geiger-Modus betreiben. Geht bei PMTs wie bei APDs. Gibt es aber noch nicht für Megapixelsensoren.
Kein Ausleserauschen, keine Verschlechterung der Quanteneffizienz. In-Situ-Messung im Gegensatz zu üblichen CCDs und heutigen
APS-Sensoren (APS = Active Pixel Sensors), d.h. man kann die Belichtung bei z.B. 256 Photonen abbrechen und sich die Zeit merken,
wann das 256. Photon eingeschlagen ist.
So wie ich dich verstehe willst du darauf hinaus das die Layer die vor der Siliziumschicht liegen ihren Teil zur "Rauschmiesere" beitragen, und die über so ein Vorgehen optimierte Siliziumoberfläche würde nur zu einem (kleinen) Teil an der Verbesserung beitragen,
Wenn Du blankes Silicium hast und wir von n=4,5 ausgehen, dann wird ((n-1)/(n+1))² = 40%
des Lichts an der Grenzfläche reflektiert.
Das Problem betrifft Sensoren wie auch die Photovoltaik.
Deshalb glänzt Silicium fast wie ein Metall.
Mit Black Silicon bekomme ich das mit wenig Kosten/Quadratmeter weg.
Man kann das auch mit höheren Kosten/Quadratmeter und mit klassischer Multicoating-Beschichtung wegbekommen. Macht man z.B. in der Astronomie.
DSLR-Sensoren haben aber keine Luft-Silicium-Grenzflächen. Dort gibt es
Grenzflächen zwischen Silicium <=> Farbfiltern <=> Mikrolinsen <=> Luft.
sollte da aber nicht doch noch mehr drin sein als eine Blende!?
Die Betrachtung behandelt den Idealfall. Wie er umgesetzt wird und ob er überhaupt technologisch machbar ist, ist darin nicht behandelt.
Man kann sich z.B. auch Metalle ansehen, wie stark die einzelnen Atome elektrostatisch miteinander gebunden sind und daraus die theoretisch maximale Festigkeit berechnen, die als Limit die Physik in den Weg stellt. Man darf sich aber nicht wundern, wenn man nur 8% dieser Festigkeit überhaupt erreicht.
Ich gehe davon aus deine Einschätzung davor bezog sich hier mehr auf die aktuelle Sensortechnik.
Es wird nichts grundlegendes mehr passieren.
Es ist schon die letzten 5 Jahre nichts grundlegendes mehr passiert. Crop 1,5/1,6 => Crop 1 hat was gebracht, Nikon scheint eine Ausreißerfilterung der
Rohdaten durchzuführen, die dann nicht mehr roh sind.
Ansonsten irgendwas zwischen 2% und 5% pro Generation und eine verbesserte Rauschfilterung (von zum Beispiel NX und DPP), letzteres sieht man
z.B. auch schön, wenn man sich die Ergebnisse mit ALR ansieht, was da nicht dem Stand der Technik entspricht.