Skater schrieb:
Das ist genau das was ich meinte.
Wenn auf jeder Schicht die Strukturgröße neu ansetzt, dann ist die maximale Packungsdichte doch verdreifacht.
Sehe ich nicht so wirklich, die kleinste leitung die sie bauen können ist also 0.25 µm, sie müssen drei Photodioden auslesen, sagen wir mal sie verlieren damit 1 µm Photosensitive Fläche ihrer Pixel weil das ganze readout geraffel ja kein Licht abrkiegen sollte (wenn doch heißt es fillfactory und führt in kodak SLRs zu grauenvollen ergebnissen

).
Genausoviel verliert Canon mit seiner einen Leitung auch, aber diese Strukturgrößen sind doch im Vergleich zu 5-6 µm langen und breiten Pixel so klein das sie noch nicht der wirkliche limitierende Faktor sind, sondern der Signal Rausch abstand der sich mit der verbleibenden Lichtsensitiven Fläche noch machen lässt. Und da hat Canon aus anderen Gründen Vorteile.
Bei noch kleineren Sensoren und noch mehr Pixel ändert sich das natürlich, wenn wir bei ner pixelpitch von 2 - 3 µm ankommen aber da haben wir auch quasi nur CCDs am Markt und da sieht es ja noch wieder anders aus was readout circuits usw. angeht.
Strukturgröße hat ja keinen direkten Zusammenhang mit der Pixelgröße wie du es mit deiner 1/4 Rechnung angenommen hast, sondern nur damit wieviel Lichtempfindliche Fläche von dem Pixel noch übrigbleibt und selbst die kann man ja mit ner Microlens wieder erhöhen.
Skater schrieb:
Das habe ich hier im Forum schon des öfteren gelesen.
Existiert da irgendeine Formel oder ist das anders hergeleitet?
Ist ein bischen komplizierter, aber der grundlegende Auflösunglimitierende Faktor beim Bayer Sensor ist ja das jedes Pixel nicht jede Farbe sieht, somit braucht man einen Antialiasingfilter der sicherstellt das ein Lichtstrahl schonmal mindestens ein grünes Pixel trifft, damit in der hauptsache aus den grünen Pixeln ein sauberes Luminanz- (Helligkeits-) Signal gebaut werden kann und man dann die Chrominanz- / Farbinformationen aus den roten / blauen Pixel dazu ziehen kann (ist jetzt vereinfacht dargestellt).
Daraus ergibt sich das die Luminanzauflösung ziemlich stark an der Anzahl der grünen Pixel hängt, auch wenn sie etwas höher ist weil die anderen auch noch etwas dazu beitragen, somit ist die Effektive Luminanzauflösung ca. halb so hoch wie die Pixelzahlen vermuten lassen, für Farbkonstrate (also chrominanzinformationen) sieht es aufgrund der noch geringeren Anzahl an blauen und roten Pixeln Auflösungstechnisch noch schlimmer aus.
Somit kriegst du im Endeffekt wenn man es wohlwollend sieht, und die, für unsere wahrnehmung allerdings nicht so wichtige Chrominanzauflösung ausklammert, bei nem Faktor von 2x. Also ein 3.4mp Foveon löst in realen Bildern in etwa so viel auf wie ein 7mp Bayer. Sind mehr helligkeitskontraste im Spiel vielleicht nur 6mp, sind kleine farbdetails dabei aber auch 8 mp...
Skater schrieb:
Hey, das finde ich wirklich sehr interessant und ich würde da gerne mehr zu erfahren.
Hast Du da einen Link?
Nicht direkt, das Silizium auch wenn es ein brauchbarer Farbfilter ist, kein wirklich guter Farbfilter ist kannst du in allen publikationen diesbezgl. (patente, paper, usw.) sehen. Die Kurven für R, G und B haben sehr große überlapungsbereiche, daher sehen sehr ähnliche "Bilder". Will man nur wirklich getrennte RGB Kanäle davon haben dann braucht es eine Matrix die das in einen RGB Farbraum überführt (wie bei anderen Sensoren auch), nur das das ganze hier agressiver ausfällt und somit das Rauschen stärker rausbringt.
Sagen wir mal sehr vereinfachend das alle drei Sensoren in wirklichkeit ne Mischung von allem sehen, dann zieht man die Layer voneinander ab, das Signal selber wird durch die subtraktionen ja schwächer, der rauschpegel bleibt im großen und ganzen der gleiche. Somit sinkt der Abstand zwischen dem Signal und dem Rauschen.
In neueren Foveon Patente findet sich dazu ein paar workarounds mit filtern, der eleganste ist denke ich der mit alternierenden SiN und SiO2 layern als interferenzfilter. Dies liese sich warscheinlich relativ günstig mit bestehendem Chipfertigungsequipment innerhalb eines standardfertigungsprozesses machen und sieht dann folgendermaßen aus.
Unter dem blauen Sensor ist ein Interferenzfilter aus mehreren SiN/SiO2 Layer, so das blau nach oben reflektiert wird während grün und rot durch den Filter gehen. Der Vorteil ist nun das kein blaues Licht mehr in die grünen und roten pixel kommt und das Signal da "versaut", desweiteren geht blaues Licht das in der blauen diode nicht absorbiert wurde (weil die eindringtiefe "blauer" photonen eigentlich tiefer sein kann, als die tiefe des blauen sensors) werden in den blauen sensor zurückreflektiert und haben so quasi eine zweite chance absorbiert zu werden. Unter dem grünen Pixel liegt dann ein Filter der blau / grün nach oben reflektiert.
Dazu kommen noch div. andere Rauschunterdrückungstechniken die etwas den Eindruck erwecken als ob man die bei Canon schonmal gesehen hat
Wenn da mehr wissen willst stöber mal ein bischen in der Datenbank vom US Patentamt.