Da all das in der Realität kaum gegeben ist, wird versucht, mit Kalibrierung das schlechte Polynom 3. Ordnung irgendwie wenigstens an die Werte ranzubiegen, welche das menschliche Auge dabei gezeigt hätte. Leuchtende Farben wie Neon, UV o.ä. kann man mit dieser Interpolation aber kaum herbeizaubern. Schon deswegen nicht, weil da nämlich die Stäbchen als 4. Sensor eine Rolle spielen
ich glaube,das es ein wenig zu viel verlangt ist,von einer diode die eigenschaften des menschlichen auges zu erwarten.
es wird hier auch zunehmend von interpolation in bezug auf den foveon das wort geredet. die farben der sigmas sind nicht interpoliert in dem sinne wie wir es hier landläufig gebrauchen.
wenn die umwandlung oder zuordnung zu bestimmten farbräumen oder anderer erforderlicher rechnereien schon als interpolation bezeichnet wird,dann kommen wir in der sache nicht weiter.
es wäre zu überlegen,ob nicht ein vierter sensor dem ideal des menschlichen auges einen großen schritt näher käme.
Das ist so nicht ganz richtig. Im großen und ganzen werden die Photonen schon da absorbiert, wo sie "hingehören". Das Problem ist eher, dass die wellenlängenabhängige Eindringtiefe in das Halbleitersubstrat nicht unbedingt mit der Empfindlichkeitskurve der L/M/S-Zapfen des Menschen korreliert.
naja,ich denke schon,dass meine meinung über das absorbtionsverhalten richtig ist. wie erklärst du dir sonst die rauschneigung in den schatten bei iso 100 und gutem licht?
das prinzip der wellenlängenabhängen absorbtion ist schon in ordnung. das problem liegt in den unterschiedlichen wirkungsgraden.
wenn das auge 100% hat,würde ich beim foveon-pixel von geschätzten 40-60% ausgehen.
aber das ist eine sache,die eher das rauschen erklärt.
da die gemessenen "drei grundfarben" jede farbe darstellen können und nicht interpoliert wird,müßte eine 100%ige korrelation zum menschlichen sehen mit der foveontechnik möglich sein.
da es am prinzip nicht liegt,sind abweichungen in einer fehlerhaften umsetzung zu suchen.
und nun könnte man als eine fehlerquelle anführen,dass eben nicht sauber getrennt wird, unabhängig jetzt mal von fehlern in der kalibrierung der gesetzten bereiche,z.b. auch weil falsche photonen gemessen werden.
ich glaub nicht, dass es so reibungslos klappt wie du meinst.
sauberes arbeiten in derart miniaturisierter dimension ist nicht ganz einfach bezüglich der präzisen platzierung und einhaltung der dimension der sensibilisierten bereiche,dazu unwegbarkeiten bezüglich der homogenität der werkstoffe und zuletzt eines möglichen eigenlebens der photonen.
Meines Erachtens ist die Eindringtiefe nicht das Maximum, sondern eher die statistisch größte Häufung. Das würde bedeuten, dass rotes Licht tatsächlich kaum Elektronen im blauen Bereich auslöst.
Aber auch wenn ich mich da irre, lässt sich die Blauschwäche erklären: schließlich müssten dann die oberen Schichten jeweils von den tieferliegenden abgezogen werden. Blau wäre ein Pixel dann nur, wenn er weder im Rot- noch im Grünbereich niederschlägt. Da diese beiden aber deutlich dicker sind, schlägt auch hier wieder die geringe Schichtdicke zu.
abgesehen vom uv filter sind jedwede vorgetzten farbfilter beim foveon prinzipbedingt kontraproduktiv,wenn es um die wiedergabe realer farben geht.
wenn farben nicht stimmen,liegt es an der fehlerhaften zählung von photonen und das läßt sich durch nichts korrigieren.
der foveon ist in drei übereinander liegende bereiche geteilt,die mehr oder weniger scharf voneinander getrennt sind. manche meinen,es würde überlappend gestapelt,da dann keine bandlücke entstehen kann.
von wirkungsgradverlusten abgesehen,werden alle photonen(unterhalb der sättigungsgrenze),die ihre eindringtiefe erreicht haben für die umwandlung in elektrische spannung(durch elektronenerzeugung) genutzt.
"blaue" photonen sammeln sich in der obersten schicht und haben keine möglichkeit grün oder rot zu beeinflussen.
die schichtstärke spielt hier keine rolle. die schichten entsprechen in ihrer dicke dem spektralbereich der zu messenen farbe.
Ganz einfach gesprochen hat jedes einzelne Photon eine bestimmte Wellenlänge, wir haben also (fast) beliebig viele Werte. Wenn wir das auf 3 Koeffizienten reduzieren, ist das eine (gewichtete) Summe. Eine Summe ist immer ein Informationsverlust: 5+(-2) ist genauso 3 wie 2+1.
naja,viele farben setzen sich nunmal aus verschiedenen farben zusammen. verlustbehaftet ist das m.e. nicht.
davon abgesehen,ist mir jetzt beim nachgrübeln aufgefallen,dass die frage nach der funktionsweise der farbgewinnung für mich noch nicht abschließend geklärt ist.
pauschal kann man so sagen,dass die drei gemessenen werte(wenns denn drei sind) je einer farbe zugeordnet werden und dann eine addition den endgültigen farbpunkt festlegt. soweit sogut. nur,wie läuft die generierung innerhalb einer sensorschicht ab.
die schichten sind ja so aufgebaut,dass sie einen weiter gefassten spektralbereich erfassen. blau z.b. kann gemessen werden als hellgrünblau oder viollettblau(äußere farben des blauspektrums).
und jetzt die generalfrage: woher weiss der sensor,welche der möglichen farbnuancen von den photonen angesteuert wird? eine herkömmliche photodiode deckt generell eine pallette von farben ab, unterscheiden innerhalb des spektrums kann sie nicht.
möglicherweise kann die foveon-diode tatsächlich, vielleicht anhand der unterschiedlichen frequenzen von photonen, das subpixelsignal einer nuancierten farbe zuordnen.
es muß irgendwie möglich sein.
denn wenn nur generell photonen (häufung) in einem der drei spektralbereiche konvertiert werden und nun das resultierende signal für die farbe blau steht,dann wäre die darstellung einer nuancierten farbe innerhalb eines farbbereichs und somit auch nicht für den gesamtpixel möglich.
eine reale farbe würde nur generiert,wenn reine grundfarben gemessen werden.
da der foveon aufgebaut ist wie eine normale diode, indem p-n bereiche in das silizium implementiert sind, ist für mich die frage weit offen, wie z.b. hellblau dargestellt werden kann.