Das sind ganz saubere arithmetische Formeln. Es gibt verschiedene Verfahren zur Interpolation. Ganz simple, die einfach den Farbwert vom Nachbarpixel übernehmen, oder kompliziertere, die aus mehreren Nachbarpixeln interpolieren. Da gibt's dann lineare oder bikubische Interpolation etc.
Einfach mal nach "Bayer CFA Interpolation" gurgeln, da gibt's eine Menge Lesestoff.
Offen gestanden sind alle Verfahren, die zusätzliche Pixel recyklieren, statistische Augenwischereien.
Die bringen jeweils nur in ganz speziellen Situationen kleinere Vorteile.
Das Bayer-Grundschema mit den überlappenden 4-Pixel-Auslesung ist völlig ok,
wenn auch nicht unbedingt gut, was die Qualität der resultierenden Pixel-Farb-Info angeht.
Die Farb-Info muß eben vorhanden sein, und zwar an dem Ort,
den der Sensor behauptet, und nicht irgendwo in der Gegend.


Ich kann einfach keinen Vorteil darin erkennen,
wenn jetzt an Stelle von 3 Nachbarn 6 oder 10 oder 100 ausgewertet werden,
auch wenn die irgendwie abgestuft werden.
Foveon dagegen ist Ratespiel. Hauptproblem ist, dass die Absorbtion in Si extrem abhängig ist von der Schichtdicke und Wellenlänge. D.h. selbst geringe Dickeschwankungen wirken sich dramatisch auf die spektrale Empfindlichkeit aus, was wiederum bedeutet, dass jeder Sensor oder zumindest jeder Batch individuell kalibriert werden muss.
Sorry, aber wo ist überhaupt dass Problem?
Eine Kalibrierung ab Werk stellt doch kein Problem dar,
die ist ohnehin immer ein Teil des Produktionsprozesses.
Glaubst Du etwa Bayer-Sensoren würden nicht kalibriert?
Wenn beim Foveon eventuell die Schichtdicke oder Materialreinheit des Siliziums variiert,
ist das beim Bayer eben die Schichtdicke oder Materialreinheit der Filtermaterialien.
Wir reden hier aber über Nuancen, die weder Du noch ich jemals "sehen" würden.

Sowas kann man nur noch "messen".
Während man bei Bayer mit relativ einfachen Rechenverfahren (Addition, Multiplikatio) auskommt, muss man bei Foveon pro Pixel drei Divisionen durchführen (jeder "RGB"-Wert muss durch die Summe der drei Werte dividiert werden). Deshalb ist die Erzeugung von In-Camera-Jpegs alles andere als trivial. Divisionen Kosten eine Menge Rechenleistung.
Stimmt zum Teil, der
Rechenaufwand ist beim Foveon größer.
Und überhaupt: Die Foveon-Darstellung mit den drei übereinander liegenden Schichten ist eine glatte Lüge. In Wirklichkeit sind die Pixel ineinander geschachtelt, d.h. das blaue Pixel im grünen, das grüne im roten. Die Flächen der RGB-Pixel sind also schon mal nicht gleich groß und zu allem Überfluss kann man die blauen Pixel auch gar nicht viel kleiner machen, weil die Full-Well-Kapazität dann viel zu klein wird und das Rauschen zunimmt.
Quelle?

Was weißt Du was ich nicht weiß?
In
diesem Thread hatten wir hier mal eine ziemlich ausführliche Diskussion zu dem Thema.
Fujis Ansatz scheint da um einiges durchdachter zu sein, macht aber noch ein wenig Probleme in der Fertigung.
Fuji hat einen sehr interessanten Ansatz zur besseren Dynamik,
aber der geht auch auf Kosten der Auflösung.
Beim neuen Super-CCD immerhin weniger als beim Alten.
Schönen Gruß
Pitt