Was die Leute so alles unter "Foveon" verstehen - ts, ts, tsss
Wenn das eine Belehrung sein soll, dann fehlt die Erläuterung, die das Prinzip des Foveon-Sensors gegenüber meiner angeblich falschen
Analogie korrigiert, statt mich für meine Bemühungen auszulachen. Bleibt mal'n bischen sachlich, Jungs!
Zur Verdeutlichung des Foveon-Prinzips bzw. des Aufbau Sensoraufbaus dürfte folgendes Bild von Foveon beitragen. Sie verdeutlicht auch gleich, warum Bayer-Sensoren pro Pixel nur eine (1!) Grundfarben-Information enthalten, und den Rest der Chrominanz-Darstellung aus den umliegenden Pixeln interpolieren müssen. Dabei werden die Luminanz-Informationen zwar tatsächlich aus jedem Pixel einzeln gewonnen, die Grünen Pixel tragen aber meines Wissens nach den Hauptanteil der späteren Lichtberechnung.
Grob gesagt wird dabei - wie z.B. auch bei der Videokodierung (YUV422 etc.) -berücksichtigt, dass das menschliche Auge für Grüntöne wesentlich empfindlicher ist als für Blau und Rot. Deshalb befinden sich auch doppelt soviele Grünpixel auf dem Bayer-Sensor (und deshalb wird auch beim Anheben der Farbintensivität an modernen Fernsehern und TFT i.d.R. der Grünanteil am wenigsten angehoben, und der Blauanteil am stärksten).
Bei Schwarz/Weiß Bildern ist die Auflösung des Bayer-Sensors übrigens größer als die des Foveon-Sensors, da hierbei die Luminanz-Informationen aller Pixel genutzt werden können, unabhängig von deren Chrominanz-Information. Das Ergebnis hängt natürlich auch wieder vom genutzten Umrechnungsalgorithmus ab, aber alle Kameras und RAW-Konverter sollten damit eigentlich keine Probleme haben, sofern sie nicht erst das bereits interpolierte Farbbild, sondern direkt die Sensor-Informationen umrechnen.
Wie man dort gut erkennen kann, wird das Licht durch drei Filterschichten geleitet, und so pro Lichtpunkt/Pixel ein RGB-Triplet erzeugt. Im Gegensatz zum TFT liegen die Filterschichten auf dem Sensor zwar nicht nebeneinander sondern übereinander, am PC werden sie vom Monitor jedoch nebeneinander dargestellt (bei Deinem CRT in Dreiecksforms, siehe unten). Zur Veranschaulichung habe ich mir die Mühe gemacht, das obere Bild um 90 Grad zu drehen (siehe Bildanhang). Oh Wunder der mordernen Technik!
Und so sieht es aus wenn ein CRT "immer interpoliert" ?
Tatsächlich, so sieht es aus! Hier zwei Bilder, die Dir nochmal verdeutlichen,
was Du da überhaupt auf Deinem Monitor siehst. Ich weiß nicht ob CRT das Bild durch tatsächlich berechnete Interpolation auf die Lochmaske verteilen. Evtl. schießen sie einfach den Kathodenstrahl Richtung Leuchtschicht, und die erledigt den Rest. Der Smiley ist exakt 15 Pixel breit, auf Deinem CRT wird er aber durch 23 Triplets (RGB-Subpixel) dargestellt. Zudem sind die Triplets dreieckig angeordnet, während Pixel eigentlich quadratisch sind. Wie man deutlich erkennt, hat der CRT deshalb Probleme die eigentlich tiefscharzen Bereiche richtig darzustellen, da er von 15 auf 23 Pixel "interpolieren" muss, und mit seiner dreieckig angeordneten Lochmaske
keine exakten Pixelreihen darstellen kann. Entsprechend werden nur Näherungswerte erreicht, das Bild ist
nicht scharf!
Die Anordnung ist auch der Grund, warum Cleartype an CRTs nicht richtig funktioniert, die Technik geht von einer horizontalen Anordnung der Subpixel aus. Bei Deinem CRT entspräche ein Pixel aber einem Dreieck (siehe unten), sofern man die Auflösung des CRT überhaupt genau treffen könnte. Faktisch ist das aber unmöglich, da kein CRT eine perfekte Geometrie (exakt gerade Linienführung über die gesamte Bildfläche) erreicht, und die Ausgabe der Grafikkarte eben von quadratischen Pixeln ausgeht. Ganz abgesehen davon, dass die Pixelabstände der Lochmaske am Randbereich in der Regel größer sind als in der Bildmitte.
Was ist Interpolation ? Hab´ da wohl mal was Falsches gelernt...
Bei der Bilddarstellung spricht man meiner Erfahrung nach immer dann von Interpolation, wenn pixelbasiertes/gerastertes Bildmaterial von seiner Orginalgröße/Auflösung auf kleinere oder größere umgerechnet werden muss. Im einfachsten Fall nutzt man Pixeldoppelung (wie ich zur Vergößerung der Smileys), das geht aber eigentlich nur bei ganzzahligen Teilern/Multiplikatoren ohne Verzerrungen. Photoshop bietet daneben verschiedene bilineare und bikubische Algorithmen an. Das kann aber auch mal gehörig daneben gehen, wie man am Ergebnis des "zerflossenen Smiley" unten sieht. Die Schärfe Deines Monitorbildes ordne ich zwischen exaktem und zerflossenem Smiley ein. Der Algorithmus hinter dem Bayer-Sensor arbeitet natürlich wesentlich komplexer.
Wörtlich heißt Interpolation Einschiebung/Erweiterung, und beschreibt somit, dass vor allem bei der Umrechnung von kleinen zu größeren Auflösungen Näherungswerte "eingeschoben" werden. Ein Scannertreiber macht das etwa, wenn man eine höhere Auflösung als die physikalische/native wählt, er rechnet im einfachsten Fall einfach die Mittelwerte zwischen zwei physikalisch tatsächlich eingescannten Pixeln aus, und schiebt diesen dazwischen ein.
So, und jetzt seid Ihr dran, mich brauchbar zu korrigieren!
