Seufz.
Ja wie denn bitte!
Hälst du den Finger ans Silizium oder teilt Dir das Material telepathisch mit was los ist?
Was glaubst Du denn, wie nützlich eine Info ist, an die Du nicht herankommst?
Dein Schema erklärt nämlich überhaupt nicht,
wie Deine Schaltung eigentlich an die, im Silizium enthaltene, Farbinfo herankommen will,
bzw. wie genau sie aus dem Silizium ausgelesen werden soll.
Nochmal: Die eigentlichen Sensorpixel sind farbenblind.
Das sind stinknormale Luminanz-Sensoren, die ausschließlich "schwarz-weiß "sehen" können.
Und schlimmer noch: die beiden oberen Subpixeletagen sind auch noch total überbelichtet,
vollkommen wertlos.... nix mehr zu retten...
Also noch mal auf Anfang:
Weil meine vorherigen Zeichnungen offensichtlich zu unübersichtlich waren,
und weil ich, dank Euch, inzwischen ja auch wieder ein paar weitere Aspekte dazugelernt habe,
habe ich wieder mal was gemalt, dieses mal sogar mit Rechen-Beispiel!![]()
Und damit ich nicht wieder Verwirrung stifte, was die Farbigkeit des Silizium angeht,
habe ich ein monochromes Beispiel gewählt, und das Silizium selber auch monochrom dargestellt.
Außerdem habe ich die Zahlenwerte und Formeln mit der jeweiligen Ergebnis- oder Zwischenfarbe unterlegt.
Vielleicht erleichtert das ja das Verständnis etwas.
Schönen Gruß
Pitt
Edit: ich habe die Zeichnung doch noch mal geändert.
Es ist doch etwas übersichtlicher, wenn die etwaigen Farben unterlegt sind.
Das Silizium keine Farben sehen kann ist glaube ich jedem klar. Allerdings nutzt man ja die Eigenschaft des Siliziums, da mit diesem der Wellenbereich des Licht`s in einem bestimmten Spektrum gemessen werden kann. Jedes Pixel, wie beim Bayersensor auch, hat eine Helligkeitsinformation. Diese wird bekanntlich bei Photodioden in Stromimpulse umgewandelt. Die Stärke des Signals wird natürlich durch das einfallende Licht beeinflusst, wie wir alle wissen. Nun macht sich Foveon zunutze, die Wellenlängen des Lichts zu berücksichtigen. Folglich wurden die Sensorebenen der Eindringtiefe des Wellenbereichs angepasst. Der Sensor misst innerhalb des Wellenbereiches die Lichtinformationen und der A/D Wandler rechnet diese in Digitale Werte um. Diese wiederum werden vom Bildprozessor anhand des Einganges (der Bildprozessor wird natürlich eine Pinbelegung für jeweils eine Farbe haben) den Farben zugeordnet und im Prozessor zum Bild verrechnet. Das ist das gleiche Prinzip wie beim Bayerprozessor. Jetzt vermute ich aber, dass anhand der Lichtintensität am gemessenen Punkt auf die Wellenlänge des Lichts im Verarbeitungsprozess geschlossen wird oder diese wird genau gemessen. Da, wie in Skaters Schema Wellenlängen von bis angegeben bzw. gemessen werden, wird also z.B. in der roten Schicht auch nach den Wellenlängen und der Lichtintensität unterschieden bzw. anhand der Lichintensität eines Pixel auf die Wellenlänge des einfallenden Lichts anhand einer programmierten Tabelle im Bildprozessor geschlossen. Es ist somit eine feinere Farbabstufung vorhanden. Folglich gibt es genauere Farbinformationen bzw. Messwerte, welche zu einem Bild verrechnet werden. Der Bayersensor misst ja nur die Helligkeit in einer Ebene und über den Farbfilter wird die Farbinformation zugeordnet und dann errechnet. Der Rest muss ja bekanntlich interpoliert werden. Der Foveon bietet durch die genauere Ermittlung viel mehr und fein angestuftere Daten zur Errechnung eines Bildes. Dieses viel mehr an Daten führte sicherlich auch zu der langsamen Bildverarbeitung, welche durch den Fortschritt in der Prozessortechnik bei der SD15 wohl deutlich schneller erfolgen wird.
Jetzt können wir weiter grübeln.
Gruß Sven
Zuletzt bearbeitet: