• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Charakter des Foveonrauschens

Seufz. :rolleyes:

Ja wie denn bitte! :eek::grumble:

Hälst du den Finger ans Silizium oder teilt Dir das Material telepathisch mit was los ist? :rolleyes:
Was glaubst Du denn, wie nützlich eine Info ist, an die Du nicht herankommst? :evil:

Dein Schema erklärt nämlich überhaupt nicht,
wie Deine Schaltung eigentlich an die, im Silizium enthaltene, Farbinfo herankommen will,
bzw. wie genau sie aus dem Silizium ausgelesen werden soll. :grumble:

Nochmal: Die eigentlichen Sensorpixel sind farbenblind.
Das sind stinknormale Luminanz-Sensoren, die ausschließlich "schwarz-weiß "sehen" können. :cool:

Und schlimmer noch: die beiden oberen Subpixeletagen sind auch noch total überbelichtet,
vollkommen wertlos.... nix mehr zu retten... :ugly::evil::lol:

Also noch mal auf Anfang:
Weil meine vorherigen Zeichnungen offensichtlich zu unübersichtlich waren,
und weil ich, dank Euch, inzwischen ja auch wieder ein paar weitere Aspekte dazugelernt habe,
habe ich wieder mal was gemalt, dieses mal sogar mit Rechen-Beispiel! :p :rolleyes:

Und damit ich nicht wieder Verwirrung stifte, was die Farbigkeit des Silizium angeht,
habe ich ein monochromes Beispiel gewählt, und das Silizium selber auch monochrom dargestellt. ;)

Außerdem habe ich die Zahlenwerte und Formeln mit der jeweiligen Ergebnis- oder Zwischenfarbe unterlegt.
Vielleicht erleichtert das ja das Verständnis etwas. ;)

Schönen Gruß
Pitt

Edit: ich habe die Zeichnung doch noch mal geändert.
Es ist doch etwas übersichtlicher, wenn die etwaigen Farben unterlegt sind.

Das Silizium keine Farben sehen kann ist glaube ich jedem klar. Allerdings nutzt man ja die Eigenschaft des Siliziums, da mit diesem der Wellenbereich des Licht`s in einem bestimmten Spektrum gemessen werden kann. Jedes Pixel, wie beim Bayersensor auch, hat eine Helligkeitsinformation. Diese wird bekanntlich bei Photodioden in Stromimpulse umgewandelt. Die Stärke des Signals wird natürlich durch das einfallende Licht beeinflusst, wie wir alle wissen. Nun macht sich Foveon zunutze, die Wellenlängen des Lichts zu berücksichtigen. Folglich wurden die Sensorebenen der Eindringtiefe des Wellenbereichs angepasst. Der Sensor misst innerhalb des Wellenbereiches die Lichtinformationen und der A/D Wandler rechnet diese in Digitale Werte um. Diese wiederum werden vom Bildprozessor anhand des Einganges (der Bildprozessor wird natürlich eine Pinbelegung für jeweils eine Farbe haben) den Farben zugeordnet und im Prozessor zum Bild verrechnet. Das ist das gleiche Prinzip wie beim Bayerprozessor. Jetzt vermute ich aber, dass anhand der Lichtintensität am gemessenen Punkt auf die Wellenlänge des Lichts im Verarbeitungsprozess geschlossen wird oder diese wird genau gemessen. Da, wie in Skaters Schema Wellenlängen von bis angegeben bzw. gemessen werden, wird also z.B. in der roten Schicht auch nach den Wellenlängen und der Lichtintensität unterschieden bzw. anhand der Lichintensität eines Pixel auf die Wellenlänge des einfallenden Lichts anhand einer programmierten Tabelle im Bildprozessor geschlossen. Es ist somit eine feinere Farbabstufung vorhanden. Folglich gibt es genauere Farbinformationen bzw. Messwerte, welche zu einem Bild verrechnet werden. Der Bayersensor misst ja nur die Helligkeit in einer Ebene und über den Farbfilter wird die Farbinformation zugeordnet und dann errechnet. Der Rest muss ja bekanntlich interpoliert werden. Der Foveon bietet durch die genauere Ermittlung viel mehr und fein angestuftere Daten zur Errechnung eines Bildes. Dieses viel mehr an Daten führte sicherlich auch zu der langsamen Bildverarbeitung, welche durch den Fortschritt in der Prozessortechnik bei der SD15 wohl deutlich schneller erfolgen wird.

Jetzt können wir weiter grübeln.

Gruß Sven
 
Zuletzt bearbeitet:
Das Silizium keine Farben sehen kann ist glaube ich jedem klar.
Unter bestimmten Voraussetzungen (Einlagerungstiefe und Schichtdicke) kann eine Siliziumdiode (nichts anderes ist der Sensor) Farbe anhand ihrer Wellenlänge erkennen.

Allerdings nutzt man ja die Eigenschaft des Siliziums, da mit diesem der Wellenbereich des Licht`s in einem bestimmten Spektrum gemessen werden kann.
...siehe Patentschrift.


Jedes Pixel, wie beim Bayersensor auch, hat eine Helligkeitsinformation. Diese wird bekanntlich bei Photodioden in Stromimpulse umgewandelt. Die Stärke des Signals wird natürlich durch das einfallende Licht beeinflusst, wie wir alle wissen.
...eben diese Annahme ist falsch. Die Lichthelligkeit (Intensität, Luminanz) hat keinen Einfluss auf das Messergebnis der Farbe (Wellenlänge aus dem Spektrum).

Nun macht sich Foveon zunutze, die Wellenlängen des Lichts zu berücksichtigen. Folglich wurden die Sensorebenen der Eindringtiefe des Wellenbereichs angepasst.
...und die SensorDICKE !


Der Sensor misst innerhalb des Wellenbereiches die Lichtinformationen und der A/D Wandler rechnet diese in Digitale Werte um.
Der A/D-Wandler rechnet gar nichts um. Er tastet den von der Diode gelieferten Spannungspegel ab und gibt dafür einen digitalen Wert aus. Gerechnet wird dabei nicht.

...nochmal :

A double-layer photodiode is created in an integral structure to form two diodes, the upper diode having a relatively thin active region and the lower diode a relatively thick active region.

Light whose wavelength is to be measured is directed onto the upper diode. The thickness of the first diode is chosen so that, in the spectrum of light wavelengths being measured, the energy of the shortest wavelength is entirely absorbed therein.

As the radiation wavelength increases, the absorption by the upper diode decreases exponentially, and the unabsorbed light is transmitted through the thin active region into the thick active region of the lower diode where it is absorbed.

The thickness of the active region of the lower diode is chosen so that it absorbs substantially all of the energy of longest wavelength in the spectrum being measured.

The absorption of the photon energy in each diode creates electron-hole pairs therein which produce in each diode a change in conductivity which is proportional to the absorbed energy.

Therefore, since the difference in conductivities of the two diodes is a function of the wavelength of the incident light, as the wavelength changes, the difference between changes in the conductivity of the two diodes, divided by the sum of the changes in conductivity, is a function which is a single-valued function of the wavelength of the incident light and which is independent of the intensity of the incident light.

A measuring circuit connected to the double-layer diode provides a direct reading of the wavelength.

-------------------------------------------------------------------->

Es wurde eine Double-Layer Photodiode in einem Integrationsprozess hergestellt die zwei Dioden ergibt, die obere Diode hat eine relativ dünne aktive Region die untere Diode eine relativ dicke aktive Region.

Licht, dessen Wellenlänge gemessen werden sollte wurde auf die obere Diode gerichtet. Die Dicke der ersten (oberen) Diode wurde so gewählt, dass, in dem Spektrum von Wellenlängen die gemessen werden sollten, die Energie der kürzesten Wellenlänge völlig in der Diode absorbiert wurde.

Wie die Wellenlänge der Strahlung steigt, nimmt die Absorbtion durch die obere Diode exponential ab und das nichtabsorbierte Licht wird durch die dünne aktive Region der oberen Dioden in die dicke aktive Region der unteren Diode weitergeleitet, wo es absorbiert wird.

Die Dicke der aktiven Region der unteren Diode ist so gewählt, dass sie substantiell die ganze Energie der längsten Wellenlänge in dem zu messenden Spektrum absorbiert.

Die Absorbtion von Photonenenergie in jeder Diode generiert in dieser Elektronenlochpaare die in jeder Diode zu einer Änderung der Leitfähigkeit führt, welche proportional zu der Energie verläuft, die durch die Dioden absorbiert wird.

Daher stellt sich - weil die Differenz in der Leitfähigkeit der beiden Dioden eine Funktion der Wellenlänge des auftreffenden Lichtes ist - eine Änderung der Wellenlänge, also die Differenz in der Änderung der Leitfähigkeit der beiden Dioden, geteilt durch die Summe der Änderungen der Wellenlänge, als einwertige Funktion der Wellenlänge des auftreffenden Lichtes dar, die unabhängig von der Intensität des auftreffenden Lichtes ist.

Eine Messanordnung die mit der Double-Layer Diode verbunden wird liefert einen direkten Wert für die Wellenlänge.

Wellenlänge = Farbe aus dem Farbspektrum des Lichts. Das hat mit Bayer-Sensoren Farbgewinnung absolut nichts zu tun und die Helligkeit ist völlig uninteressant, so lange sie ausreicht um die Dioden arbeiten zu lassen. Statt zwei Dioden, wie in der Patentschrift, hat man beim Foveon-Pixel eben drei Dioden untereinander - der 3 Primärfarben R,G und B wegen.

Ist das denn so schwierig ? :confused:

:(
 
Zuletzt bearbeitet:
:p:ugly:
US-Patent schrieb:
"United States Patent 4011016

A double-layer photodiode is created in an integral structure to form two diodes, the upper diode having a relatively thin active region and the lower diode a relatively thick active region.

Light whose wavelength is to be measured is directed onto the upper diode. The thickness of the first diode is chosen so that, in the spectrum of light wavelengths being measured, the energy of the shortest wavelength is entirely absorbed therein.

As the radiation wavelength increases, the absorption by the upper diode decreases exponentially, and the unabsorbed light is transmitted through the thin active region into the thick active region of the lower diode where it is absorbed.

The thickness of the active region of the lower diode is chosen so that it absorbs substantially all of the energy of longest wavelength in the spectrum being measured.

The absorption of the photon energy in each diode creates electron-hole pairs therein which produce in each diode a change in conductivity which is proportional to the absorbed energy.

Therefore, since the difference in conductivities of the two diodes is a function of the wavelength of the incident light, as the wavelength changes, the difference between changes in the conductivity of the two diodes, divided by the sum of the changes in conductivity, is a function which is a single-valued function of the wavelength of the incident light and which is independent of the intensity of the incident light.

A measuring circuit connected to the double-layer diode provides a direct reading of the wavelength. "
:top::top::top:

Ein Groschen ist schon mal gefallen! :cool::rolleyes::p;)

Wirklich sehr, sehr, sehr interessant! :top:

Das kannte ich jedenfalls noch nicht. :D:cool:
Das muß ich jetzt aber erst mal in Ruhe nachvollziehen. ;):top:

Was ich da aber jetzt schon rauslese ist, dass es wohl nur noch voll verschattende Subsensoren gibt!
Unter diesen 2-lagigen Sensoren existiert doch wohl kein Licht mehr, dass man messen könnte. :cool:

Also können die Foveonsubpixel zwar übereinander liegen,
aber die unteren würden von den darüberliegenden Sensoren verschattet
und müßten deshalb wohl größer sein.! :rolleyes:

Pyramidenartige Aufbau... oder so. :)
Jetzt brauchst Du für "wavelength" nur noch FARBE einzusetzen und wirst feststellen, dass die Sensordioden wohl doch farbselektiv - je nach Dicke und Einbettungstiefe des Sensors im Silizium - auf einen bestimmten schmalen Bereich des Wellenlängengemischs des Lichtspektrums ansprechen.
Die Berechnung die Du aufzeigen willst ist fast richtig und findet im Signalprozessor statt, jedoch nicht mit den von Dir angenommenen Intensitätswerten sondern mit den Prozentwerten der gemessenen Farbe innerhalb des Farbspektrums des gemessenen Lichtes welches auf das Pixel trifft.

Die Farbseparation ist völlig unabhängig von der Intensität der gemessenen Farbe innerhalb des Lichtspektrums und gibt direkt den prozentualen Anteil der jeweiligen Farbe (R,G,B) innerhalb des einfallenden Lichtes wieder.
Hmm, das habe ich noch nicht in letzter Konsequenz kapiert.

Also das der obere dünne Sensor-Layer die eigentliche Farbe bestimmt ist klar,
aber den roten Satz im Patent-Zitat oben,
wie Foveon den unteren Layer verrechnet,...
... den habe ich noch nicht kapiert. :rolleyes:
(Liegt an meinen eingerosteten Englisch-Kenntnissen. :rolleyes: )

Ich vermute mal, der untere, dicke Layer ist neben der sekundären Farbbestimmung als Subtraktionswert,
wahrscheinlich auch noch für die Luminanzermittlung zuständig.
Und die müßte dann etwa so, wie auf meinem letzten Schema-Bildchen ermittelt werden. :cool:
Der einzelne Farbsensor "sieht", entgegen Deiner Annahme, doch Farbe (Wellenlänge des Lichts innerhalb des Spektrums, daher habe ich mein Beispiel auch mit orangefarbenen Licht dargestellt). Was nicht gemessen werden kann ist der Helligkeitswert des Lichtes. Die Farberkennung ist völlig unabhängig von der Lichthelligkeit.
s.o. Das muß ich erst mal in Ruhe nachvollziehen.:rolleyes:

Ich will ja schließlich nicht dauernd auf dem falschen Dampfer rumschippern, wenn ich hier was poste. :ugly:
Diese Unabhängigkeit von der Lichthelligkeit (Luminanz) ist aber andererseits auch das Problem bei der Anwendung dieses Prinzips für die Fotografie. Du musst nämlich die Helligkeitswerte (das Luminanzsignal zu jeder Farbe auf jedem Pixel) auch gewinnen und da wird´s dann etwas schwieriger. Hierin liegt auch der Grund für das "Foveon spezifische" Rauschen in den X3F-Bildern.

Gruss,

Browny.

Schönen Gruß
Pitt
 
Habe mich gerade nochmal an ´ner Übersetzung ins Deutsche versucht. Vielleicht wird´s dann verständlicher.

Die Wellenlängen des Spektrums, die nicht absorbiert werden, gehen ungehindert zum nächsten, darunterliegenden Sensor durch. Für die ist der höhere Sensor absolut durchlässig und verschattet nichts.
 
Habe mich gerade nochmal an ´ner Übersetzung ins Deutsche versucht. Vielleicht wird´s dann verständlicher.

Die Wellenlängen des Spektrums, die nicht absorbiert werden, gehen ungehindert zum nächsten, darunterliegenden Sensor durch. Für die ist der höhere Sensor absolut durchlässig und verschattet nichts.
Dein Vorpost mit der Übersetzung hatte ich noch nicht gesehen,
als ich meinen Beitrag geschrieben hatte. ;)

Den Satz hier hatte ich aber eigentlich auch schon im Originaltext sehen müssen: :ugly:
Die Dicke der aktiven Region der unteren Diode ist so gewählt, dass sie substantiell die ganze Energie der längsten Wellenlänge in dem zu messenden Spektrum absorbiert.

Das läuft aber doch im Grunde darauf hinaus, dass der Foveon nicht mehr nur 3 Sensoren hätte, sondern 6! :eek:
Und die Farben würden demnach 3 x interpoliert
Blau-oben nach Blau-unten / Grün-oben nach Grün unten / Rot-oben nach Rot-unten!

Was ist denn das für ein Sensormaterial?

Und wie kommt man nun an die Luminanzwerte,
wenn das Verfahren nur die Farben liefert? :eek:

Schönen Gruß
Pitt
 
...Das ist das gleiche Prinzip wie beim Bayerprozessor. Jetzt vermute ich aber, dass anhand der Lichtintensität am gemessenen Punkt auf die Wellenlänge des Lichts im Verarbeitungsprozess geschlossen wird oder diese wird genau gemessen. Da, wie in Skaters Schema Wellenlängen von bis angegeben bzw. gemessen werden, wird also z.B. in der roten Schicht auch nach den Wellenlängen und der Lichtintensität unterschieden bzw. anhand der Lichintensität eines Pixel auf die Wellenlänge des einfallenden Lichts anhand einer programmierten Tabelle im Bildprozessor geschlossen. Es ist somit eine feinere Farbabstufung vorhanden. Folglich gibt es genauere Farbinformationen bzw. Messwerte, welche zu einem Bild verrechnet werden. Der Bayersensor misst ja nur die Helligkeit in einer Ebene und über den Farbfilter wird die Farbinformation zugeordnet und dann errechnet. Der Rest muss ja bekanntlich interpoliert werden. Der Foveon bietet durch die genauere Ermittlung viel mehr und fein angestuftere Daten zur Errechnung eines Bildes. Dieses viel mehr an Daten führte sicherlich auch zu der langsamen Bildverarbeitung, welche durch den Fortschritt in der Prozessortechnik bei der SD15 wohl deutlich schneller erfolgen wird.

Jetzt können wir weiter grübeln.

Gruß Sven

bis zu dem zitat hast du den vorgang prägnant beschrieben:top:
unterschreib

aaber dann...
wirds etwas wuschelig.
klar hat der bayer chip und alle eindimensionalen kollegen fotodioden,die umgewandelte lichtenergie als helligkeitsinformation an einen a/d wandler senden,der wiederum an den prozessor.nach diesem prinzip funktionieren alle digitalen aufnahmeapperate.
den foveon müssen wir uns in seiner einzigartigkeit eben so vorstellen,dass genau diese funktionsweise(statt aufgemalte filter benutzt er halt silizium) in 3 schichten parallel abläuft,nach farben getrennt,die dann im bildprozessor zu einer pixelfarbe verrechnet werden.
zu rot
im verlauf des threads wurde klar dargestellt(ich denke mit mehrheitsbeschluss):
die wellenlänge bestimmt die farbe,die lichtmenge ist proportional verantwortlich für die stärke des vom sensor ausgehenden signals.mit anderen worten bestimmt die lichtenergie/helligkeit,wie stark die entsprechende wellenlänge in der verrechnungsmatrix des bildprozessors gewichtet wird.
um bei brownys lieblingsfarbe orange zu bleiben rechnet die matrix in etwa so:
die rote absorbtionsenergie bleibt erhalten(die unterste schicht erreichen ja nur die roten wellenlängen),bei orange ein ziemlich großer anteil.
die signale,die von den grünen sensoren kommen,wären viel zu stark,da auch rote anteile enthalten sind und alle spektralfarben deren wellenlänge zwischen der grünen und roten fotodiode absorbiert werden.
tja und hier wirds dann etwas heikel:ugly:
abziehen können wir ausschließlich die werte der roten sensoren,den zwischenraum nicht,da ja keinerlei daten zur verfügung stehen.na egal jetzt erst mal,hier gehts ja ums prinzip:cool:
wie dem auch sei haben wir nach der ersten subtraktion den wert für die intensivität der grünen farbe errechnet.
der blaue sensor ganz oben hat natürlich das volle pfund der lichtenergie abbekommen.aber orange hat doch gar nicht soviel blau:eek:
deswegen sollten wir den wert erheblich verkleinern und tun dies,indem wir alles,was grün absorbiert hat(da wir von gleich großen lichtempfangenen flächen aller sensoren ausgehen,ist der rotanteil hier enthalten) vom blauen signalwert abziehen und das ist eine menge.
aber vielleicht doch noch nicht genug,da wir wieder den wert für den spektralanteil zwischen grün und blau nicht wirklich in der rechnung drin haben.
aber das ist ein anderes thema,vielleicht an anderer stelle.

grüße
 
Dein Vorpost mit der Übersetzung hatte ich noch nicht gesehen,
als ich meinen Beitrag geschrieben hatte. ;)

Den Satz hier hatte ich aber eigentlich auch schon im Originaltext sehen müssen: :ugly:
... max nix ... ;)


Das läuft aber doch im Grunde darauf hinaus, dass der Foveon nicht mehr nur 3 Sensoren hätte, sondern 6! :eek:
Und die Farben würden demnach 3 x interpoliert
Blau-oben nach Blau-unten / Grün-oben nach Grün unten / Rot-oben nach Rot-unten!
...die 3 Sensoren haben einen gemeinsamen Masseanschluss. Die Spannung zwischen dem Masseanschluss und dem jeweiligen Sensoranschluss ist abhängig vom prozentualen Anteil der jeweiligen Wellenlänge (Farbe - R, G, B und aller dazwischen liegenden Farben) innerhalb des Spektrums. Diese Spannung wird vom A/D Converter für jedes Pixel (4,7Mio.) in digitale Werte zwischen 0 und 255 umgesetzt und die werden vom Signalprozessor zu einem Bild zusammengefasst. Also jede Menge Informationen - dadurch sind die 4,7MPixel RAW-Dateien dann auch in etwa so groß wie 8-10MPixel Bilder aus Bayer-Sensor bestückten Kameras.

Was ist denn das für ein Sensormaterial?

Silizium...

Und wie kommt man nun an die Luminanzwerte,
wenn das Verfahren nur die Farben liefert? :eek: ...

Das ist das Patent von Foveon beim X3-Sensor. Offenbar haben die einen Weg gefunden wie man aus wenigstens zweien der drei Sensorspannungen das Luminanz-Signal generieren kann. Es ist aber auch ganz bestimmt die Ursache für das Rauschen und die damit verbundenen Farbfehler. Ich gehe mal davon aus, dass die zweite Prozessoreinheit der neuen SD15 wohl hauptsächlich zur Berechnung des Luminanzsignals in einem Rauschen minimierenden Verfahren eingesetzt wird.

Aber das ist nur eine Vermutung meinerseits... :o

Gruss,

Browny.
 
...den foveon müssen wir uns in seiner einzigartigkeit eben so vorstellen,dass genau diese funktionsweise(statt aufgemalte filter benutzt er halt silizium) in 3 schichten parallel abläuft,nach farben getrennt,die dann im bildprozessor zu einer pixelfarbe verrechnet werden.
... nein eben nicht. Die Farben werden direkt gemessen.
Die Lichtmenge spielt bei der Gewinnung der Farbe keinerlei Rolle. Sie muss nur hoch genug sein um die 3 Photodioden im linearen Arbeitsbereich zu bedienen. Für die Farbe ist die Wellenlänge des Lichtes zuständig nicht die Intensität. Gemessen wird der prozentuale Anteil der jeweiligen Wellenlänge (und damit Farbe) innerhalb des gesamten auftreffenden Lichtspektrums durch ihre Eindringtiefe an 3 Stellen des Pixels. Berechnet wird da NICHTS.

Der X3-Sensor wird ja hier und da auch als "Direktfarbsensor" bezeichnet.

Bei meinem Beispiel mit der Mischfarbe Orange enthält die gewählte Farbe einen Anteil kurzer Wellenlängen (Blau) von 3%, mittlerer Wellenlängen (Grün) 53% und lange Wellenlängen (Rot) 100%. Dadurch entstehen an den Sensordioden gegen die gemeinsame Masse gemessen 3 unterschiedliche Spannungen von denen die erste (Blau) 3% des für jede Diode möglichen Gesamtspannungswertes, die Zweite (Grün) 53% und die Dritte (Rot) 100% des möglichen Gesamtspannungswertes liefert.

Diese Spannungen werden durch die 3 A/D-Wandler in digitale Werte umgesetzt und vom Signalprozessor zu dem resultierenden Farbwert zusammengerechnet.

Vergiss einfach alles, was Du über Bayer weist.

Gruss,

Browny.
 
Zuletzt bearbeitet:
skater:grumble::ugly::evil::eek::cool:!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

hätte ich nicht gedacht,dass ich meinen widerruf(wenigstens nur für diesen thread) der durchlässigen sensoren so schnell revidieren muss:o

schon vor längerer zeit hab ich darauf hingewiesen.
und die argumentation der abschattung hab ich auch richtig erkannt.

aber ist schon s......,wenn man keine unterstützung kriegt.

leider bin ich der englischen sprache nicht besonders mächtig(hatte nur latein und griechisch,vor sehr langer zeit)und konnte die patentschrift deshalb nicht richtig verstehen.
habe aber gefragt,was uns das jetzt neues sagt.

und dann strukturiert man alles mental um...alles fürn ar...

ich bin jetzt erst mal bedient:mad:

grüße
 
skater:grumble::ugly::evil::eek::cool:!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

...

ich bin jetzt erst mal bedient:mad:

grüße

Abwarten! :evil::ugly:

Noch habe ich jedenfalls nicht ganz kapiert,
wie das Ganze jetzt genau funktionieren soll.:rolleyes:

Das zitierte Patent ist immerhin von 1975, und das macht mich,
unabhängig davon, wie logisch das ganze erst mal klingt, doch etwas stutzig.:cool:

Hätte man das dann nicht schon viel früher umsetzen müssen,
als erst ca. 2000, als erste Foveon-Baumuster gefertigt wurden? :confused::rolleyes:

Ich will Browny ja gerne glauben, aber noch bin ich keineswegs überzeugt. :rolleyes:
Momentan paßt das Bild bei mir jedenfalls noch nicht so recht zusammen. :grumble:
Ich will so etwas nämlich immer gerne zeichnen können,
da ich eher visuell veranlagt bin und gerne bunte Schemata zeichne. :evil: :rolleyes:

Und einiges an dem Modell ist, so interessant es erst mal klingt, in meinen Augen schlicht überflüssig:

Zum Beispiel die Farbe:
Bisher bin ich davon ausgegangen, dass ich nur 3 bestimmte Farben in ihrer jeweiligen Intensität ermitteln brauche,
die schlicht durch Ihre Position im Silizium definiert sind,
und wo halt nur noch deren jeweilige Intensität gemessen wird. :)

Brownys Ansatz erhebt den Ergeiz die "wahre" Farbe zu ermitteln, aber wozu überhaupt? :p
Die Farbe hatte ich doch bisher auch! :evil:

Dann schreibt er, dass das Verfahren zwar die genaue Farbe definiert,
aber, aus mir nicht ganz einsichtigen Gründen, nicht deren Intensität!
Die muß jetzt wieder auf eine ganz andere, irgentwie esoterische Art ermittelt werden! :grumble::evil:

Das wäre in meinen Augen aber eigentlich doch wichtiger als die "genaue" Farbe.:rolleyes:

Um hinterher das ganze am Bildschirm/Drucker/was auch immer darstellen zu können,
habe ich doch kaum Vorteile, wenn ich noch mehr Farben ermittle. :ugly:

Aber verstehe mich nicht falsch: das ganze klingt schon sehr interessant.
Nur muß ich ein Modell halt auch verstehen, wenn ich daran glauben soll. :p
Und mein altes Modell (Siehe die letzte Schema-Skizze!) hat ja rechnerisch schon mal funktioniert.

Nicht anders als der Bayer, liefert es zuverlässig 3 Luminanzwerte,
aus denen ein Pixel in Farbe und Intensität beschrieben werden kann.:cool::D

Soweit muß das neue Modell von Browny bei mir erst mal kommen. :evil:

Schönen Gruß
Pitt
 
Zuletzt bearbeitet:
Hmm, das Silizium des Sensors ist also nur eine leitende Variante des isolierenden Silizium des Trägersubstrates? :confused:

Ich habe mich offen gestanden noch nie ernsthaft mit den anderen Aspekten dieses Materiales beschäftigt.
Bislang war für mich immer nur die "Eindringtiefe" relevant. :o

Kannst Du vielleicht auch einmal die unten von mir eingefärbte Formel erklären,
mit der dieser 2-lagige Sensor oben ausgelesen wird?
Mein Englisch ist dafür offen gestanden zu mieß. :o

Ich steige aber gerade einfach nicht hinter die zugehörige Logik. :rolleyes:

Schönen Gruß
Pitt
Patent schrieb:
Therefore, since the difference in conductivities of the two diodes is a function of the wavelength of the incident light, as the wavelength changes, the difference between changes in the conductivity of the two diodes, divided by the sum of the changes in conductivity, is a function which is a single-valued function of the wavelength of the incident light and which is independent of the intensity of the incident light.
 
Hmm, das Silizium des Sensors ist also nur eine leitende Variante des isolierenden Silizium des Trägersubstrates? :confused:
... das Silizium ist, an der Stelle wo es Sensordiode ist, dotiert so dass es erstmal überhaupt zur Diode wird.

Ich habe mich offen gestanden noch nie ernsthaft mit den anderen Aspekten dieses Materiales beschäftigt.
Bislang war für mich immer nur die "Eindringtiefe" relevant. :o
Schau mal bei Wikipedia unter "Halbleiter."

Kannst Du vielleicht auch einmal die unten von mir eingefärbte Formel erklären,
mit der dieser 2-lagige Sensor oben ausgelesen wird?
Mein Englisch ist dafür offen gestanden zu mieß. :o

Daher stellt sich - weil die Differenz in der Leitfähigkeit der beiden Dioden eine Funktion der Wellenlänge des auftreffenden Lichtes ist - eine Änderung der Wellenlänge, also die Differenz in der Änderung der Leitfähigkeit der beiden Dioden, geteilt durch die Summe der Änderungen der Wellenlänge, als einwertige Funktion der Wellenlänge des auftreffenden Lichtes dar, die unabhängig von der Intensität des auftreffenden Lichtes ist.

Ich steige aber gerade einfach nicht hinter die zugehörige Logik. :rolleyes:

Denke Dir Licht als sichtbares Spektrum elektromagnetischer Wellen. Gehe nun davon aus, dass die Eindringtiefe der elektromagnetischen Wellen in Silizium von der Wellenlänge abhängt. Gehe weiter davon aus, dass im Verhältnis zur kürzeren Wellenlänge auch das absorbierende Sensorteilchen (die schwingungsempfindliche, ihre Leitfähigkeit ändernde Diode) dünner sein muss (verhält sich umgekehrt wie Resonanz, bei der wird eine Schwingung verstärkt, hier wird sie absorbiert) und je länger die Wellenlänge wird um so dicker muss das Sensorteilchen sein.

Und zum bildlichen Verständnis, du magst es ja gerne bunt, noch eine Skizze :
Anhang anzeigen 672750

In diesem Beispiel hätte die Mischfarbe Orange, bedingt durch die - von der Wellenlänge des detektierten Lichtes abhängige - unterschiedliche Leitfähigkeit der Sensordioden den Wert 156µA, denn dieses Orange enthält Blauanteile, welche die Leitfähigkeit des oberen Sensors soweit Ändern, dass 3µA fliessen, Grünanteile, die im Mittleren 53µA und Rotanteile, die im unteren Sensor 100µA fliessen lassen.

Die Skizze dient aber nur der Eklärung des Funktionsprinzips und erhebt keinen Anspruch auf die Richtigkeit der angegebenen Werte - nur um etwaigen Missverständnissen vorzubeugen.

Gruss,

Browny.
 
Zuletzt bearbeitet:
...
Nicht anders als der Bayer, liefert es zuverlässig 3 Luminanzwerte,
aus denen ein Pixel in Farbe und Intensität beschrieben werden kann.:cool::D ...
...hier liegt Dein Denkfehler. Der Foveon arbeitet nicht mit Intensitätswerten, sondern mit dem Gemisch elektromagnetischer Wellen, die wir landläufig als Licht bezeichnen in all seinen unterschiedlichen Wellenlängen. Die Teilchen die da Schwingen nennen wir Photonen weil sie eben in dem Frequenzbereich schwingen, den wir als Licht wahrnehmen. In anderen Frequenzbereichen bezeichnen wir das ganze als Radiowellen oder in den höheren Bereichen als Röntgen- oder Gammastrahlung. Es handelt sich aber immer um die gleichen Teilchen die da schwingen - die Photonen.

Und gemessen wird nicht die Feldstärke (Intensität, oder Anzahl der Photonen je Millimeter), wie beim Bayer Sensor, sondern ihre Frequenz mit der dazugehörigen Wellenlänge. Das geschieht, vereinfacht ausgedrückt, dadurch, dass die Schwingung der Photonen die Leitfähigkeit des Sensors verändert.

Um dies zu realisieren muss die Dicke des Sensors im richtigen Verhältnis zur Wellenlänge stehen und daher ist der Blau-Sensor der dünnste und der für Rot eben der Dickste.

Diese Art der Farbgewinnung ist übrigens dafür verantwortlich, dass Du bei Bildern eines Foveon X3 Sensors kein Chrominanz-Rauschen hast.

Ist doch eigentlich alles ganz einfach...

Gruss,

Browny.

P.S. noch was zum quälen ... Photonen.
 
Zuletzt bearbeitet:
Der A/D-Wandler rechnet gar nichts um. Er tastet den von der Diode gelieferten Spannungspegel ab und gibt dafür einen digitalen Wert aus. Gerechnet wird dabei nicht.

:(

Ich weiß das ein A/D Wandler nicht rechnet. Nur es wir im Volksmund so weiter gegeben damit es ein Leihe besser nachvollziehen kann. Diese fragt sonst dann, wie der A/D Wandler den umwandelt. Um den aus dem Weg zu gehen sagen wir in der Elektronik ganz gerne umrechnen.;)

Wie der Sensor die Farben sieht ist nun klar. Wie sieht es aber mit den Helligkeitswerten im Bild aus? Dieser werden ja bestimmt nicht geschätzt. Diese Werte werden wohl aus der Intensität (Schwingungen der Photonen) der verschiedenen Wellenlängen berechnet. Daraus wird dann wohl die Helligkeitsinformation des Bildes entnommen. Das ist dann vorher sicherlich in endlosen Testreihen probiert worden. Das würde dann auch erklären warum der Sensor im Schwachlicht gegenüber den Bayer nicht so gut abschneidet. Es fehlen dann einfach bestimmte Wellenlängen des Lichtes. Die zu schwachen Schwingungen der Photonen regen also die Sensorempfindlichkeit oder Leitfähigkeit nicht mehr genügend an. Also wird Rot diejenige Farbe sein, welche als erstes "ausfällt". Das wiederum würde dann unter anderem das Lieblingsrauchen unserer SD`s mit Gelb und Grün erklären.


Gruß Sven
 
Zuletzt bearbeitet:
...Wie der Sensor die Farben sieht ist nun klar. Wie sieht es aber mit den Helligkeitswerten im Bild aus? Dieser werden ja bestimmt nicht geschätzt. Diese Werte werden wohl aus der Intensität (Schwingungen der Photonen) der verschiedenen Wellenlängen berechnet. ...

Keine Ahnung ...

Das "Farbsehen" des Sensors ist recht einfach zu erklären. Bei den Helligkeitswerten wird das Ganze jetzt kompliziert. Sehr kompliziert. Traditionell wird in der bildverarbeitenden RGB-Elektronik (TV, Digitalkamera etc.) die Helligkeitsinformation (Luminanzinformation Y-Signal) aus dem Grün-Kanal gewonnen. Die Methode wie diese Information beim X3-Sensor gewonnen wird ist wohl das Patent von Foveon und da läßt man sich, verständlicher Weise, nicht besonders tief in die Karten schauen.

Zum Einen basiert die Signalgewinnung auf einer ausgeklügelten Hardware, zum Anderen auf etwas komplizierteren Algorythmen zur Berechnung der erforderlichen Werte. In die Berechnung fließen sicher irgendwo die Amplituden der Schwingungen (Intensität), der Weißabgleich und die ISO-Empfindlichkeit des Sensors ein. Aus der Methode zur Berechnung der Helligkeitsinformation ergibt sich u.A. die Möglichkeit der, als "X3 Fill Light" bekannten, Beeinflussung des Bildinhaltes usw..

Sicher ist lediglich, dass nach der Digitalisierung der Farbinformation über Filterung und Pipelining die Signale aufbereitet und einem etwas komplizierteren Rechenprozess unterzogen werden, welcher mit mehreren Referenzen - Farbsehen des menschlichen Auges, Helligkeitsdifferenzierung des menschlichen Auges, ISO-Standard, Ausgleich von Farbverschiebungen bei variierender Empfindlichkeit und Szenenhelligkeit, Änderung der Farben bei wechselnden Basisfarben der Lichtquelle (Weißabgleich), Unterdrückung der Signale von Quellen die für das Rauschen verantwortlich sind etc. und nicht zuletzt auch der zur Bildverarbeitung gebräuchlichen Farbräume RGB und AdobeRGB - am Ende das Farbbild ergibt.

Wie sich das im Detail darstellt werden wir als Laien wohl nicht in letzter Konsequenz nachvollziehen können. Sicher ist nur, dass das Rauschen überwiegend aus dem Aufbereiten des Luminanzsignals entsteht. Wie das zu beseitigen ist stellt eine Aufgabe für die Entwickler des Sensorchips und seiner Peripherie und für die Software-Spezialisten, die uns die RAW-Konverter bauen, dar.

Gruss,

Browny.
 
also auf den ersten blick kommt mir brownys neue entdeckung auch éin wenig supekt vor.
aber ich sehe schon,was das alles wieder fürn theater wird:ugly:

hab mir das patent mal flüchtig durchgelesen,jdenfalls einen relevanten zeil,den browny netterweise übersetzt hat.mensch meier,kaum auf deutsch zu verstehen,geschweige denn auf englich:confused:

mein verdacht ist jedenfalls,dass da nun wieder einiges falsch verstanden wird.
aus einer double-layer diode leitet browny einfach mal den 3 layer foveon ab:cool:
aber so geht es vieleicht nicht.
das patent beschreibt,wie eine fotodiode es schaffen kann,und darauf beruht wohl das patent,eine beliebige wellenlänge zu identifizieren,nämlich nach dem double-layer prinzip.diese prinzip ist für den foveon-chip meiner meinung nach vollkommen unbrauchbar und irrelevant.
meiner meinung nach,jedenfalls wie ich das patent auf den ersten blick verstehe,gehört diese sache nicht in das zentrum unserer überlegungen.
das was die double-layer diode macht,wird doch schlicht und einfach durch die eigenschaft des siliziums ersetzt,nämlich die bestimmung der wellenlänge:o

irgendwie sehe ich uns schon wieder ganz von vorn anfangen:cool:

grüße
 
...das was die double-layer diode macht,wird doch schlicht und einfach durch die eigenschaft des siliziums ersetzt,nämlich die bestimmung der wellenlänge:o
...und wie kommst Du an eine verwertbare Information welche Wellenlänge wie tief in das Silizium eindringt, ohne ein Mischmasch wilder Helligkeitswerte zu erhalten die überhaupt nichts über den Spektralanteil aussagen, der da aufgefangen wird ?

Die Sensordioden kann ich theoretisch in (fast) beliebiger Anzahl innerhalb des Siliziums hintereinander schalten, in zwei, drei, vier usw. Lagen, je nachdem wie langwellig der Bereich werden soll den ich messen will...

Die Diodenpaare haben, in dem Frequenzbereich für den sie bestimmt sind, eine ausreichend hohe Effizienz. Die Dicke ihrer reaktiven Schicht muss dem Frequenzbereich entsprechen dem sie zugeordnet sind. Offensichtlich ist so ein Diodenpaar nur für einen relativ schmalen Bereich des Spektrums einsetzbar (Bandbreite). Um nun den gesamten Bereich des sichtbaren Lichtes auszuwerten bedarf es mehrerer Meßstellen innerhalb des Siliziums, also mehrerer "Diodenpaare". Hier hat man naheliegenderweise die Bereiche Blau, als kürzeste-, Grün, als mittlere- und rot als längste Wellenlänge gewählt.

Genau so gut hätte man theoretisch mit vier Sensoren im CMYK Farbraum oder einer x-beliebigen Anzahl weiterer Sensoren in jedem anderen z.B. einem nach oben und unten erweiterten Farbraum arbeiten können. Theoretisch deshalb, weil die Eindringtiefe des Lichtes in das Silizium nicht unendlich groß ist, sondern nur an der Oberfläche der Siliziumschicht feststellbar ist. Nun muß man zwangsläufig alle Sensoren in diesem recht dünnen Bereich des Siliziums unterbringen. So ergeben sich nun einmal physikalische, oder besser mechanische Grenzen, die mit der herkömmlichen Halbleiterfertigungstechnologie nicht überschritten werden können.

Wieviele Meßstellen man in dem selektiven Siliziumbereich unterbringt hängt also von der erforderlichen Dicke der Sensoren für den zu messenden Frequenzbereich und der Eindringtiefe der längsten zu messenden Welle des Spektrums ab.

Welche Art von Dioden da wie in das Silizium eingebaut werden um die Wellenlängen zu messen ist weiter unten in der Patentschrift beschrieben. Man bedenke aber, daß von der Patentierung des Double Layer Modells bis zur Entwicklung des Foveon Sensors einige neue Technologien zur Herstellung geeigneter "Dioden" für dieses Messverfahren entwickelt wurden und immer noch weiter entwickelt werden.

Das Modell der Double Layer Dioden zur Messung von Lichtwellenlängen eignet sich aber hervorragend zur Erklärung der Farbmessmethode des Foveon Sensors, weil dieser auf dem gezeigten Modell aufbaut. Das in der Patentschrift prinzipiell erklärte Modell hat wahrscheinlich mit dem Foveon Sensor weniger technische Gemeinsamkeiten, als ein VW-Käfer mit einem Phaeton, aber genau wie die beiden Autos auf vier Rädern rollen, werden bei den beiden Modellen (Double Layer Dioden und X3-Sensor) die gleichen physikalischen Grundlagen genutzt, die Auswertung der Wellenlängen durch Eindringtiefe und Absorptionsdicke.

Gruß,

Browny.
 
WERBUNG
Zurück
Oben Unten