• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Charakter des Foveonrauschens

Skater

Themenersteller
Der Foveon rauscht auf Grund seiner Konstruktion ja auf seine sehr eigene Art und Weise. :o

Ich selber halte dabei nur den feinkörnigen, grünen oder gelben Griesel für das eigentliche Rauschen.
Die ebenfalls oft sichtbaren, flächigeren "Flecken" sind etwas anderes. :grumble:

Um dem etwas auf die Spur zu kommen, habe ich mal 2 extrem unterbelichtete Bilder gemacht,
um es ordendlich rauschen zu lassen. ;)

Dabei habe ich im "M"-Modus bei 1/400 und F 7.1 jeweils bei ISO 100 und ISO 1600 belichtet.

Anschließend habe ich, durch das Hochziehen des Fill-Light-Reglers, das Rauschen so verstärkt,
dass es unübersehbar wurde.

Das Motiv ist natürlich egal, aber ich wollte schon, dass man noch ahnen kann, was da abgebildet ist.

Zu den Bildern:
1) ISO 100: Splitt-Darstellung SPP-Automatikmodus / rauschverstärkte Darstellung
2) ISO 1600: Splitt-Darstellung SPP-Automatikmodus / rauschverstärkte Darstellung
3) Alle Varianten vereinigt in einem Bild mit Bezeichnung.
4) Crop des verrauschten ISO 100 Darstellung
5) Crop des verrauschten ISO 1600 Darstellung

Ich denke man kann recht gut erkennen, dass das ISO-1600-Bild zwar heller,
aber auch viel stärker glattgebügelt wirkt.
Man kann in der Darstellung sehen, dass es "Farbinseln" gibt.
Das ist kein originäres Rauschen mehr, sondern vermutlich weichgezeichnete Entrauschungsartefakte.

Das ISO-100-Bild ist griesiger, aber auch detailierter.
Ich mußte dieses Crop erheblich kleiner beschneiden,
damit es noch unter den 500 KB Forumsgröße bleibt. :rolleyes:
(Trotzdem ist die JPG komprimierungstufe 3.)

Offensichtlich werden die höheren ISOs entrauscht, vermutlich schon in der Kamera.
Diese Entrauschung muß beim Foveon kanalspezifisch erfolgen,
das ist der Art der Farbtrennung des Foveon geschuldet. ;)

Schönen Gruß
Pitt
 
... wir lernen: Lieber korrekt belichten, das Foveon-Rauschen ist hässlich :P

Wie würden die unterbelichteten Bilder eigentlich aussehen, wenn du statt dem Fill Light-Regler ganz normal den Belichtungsregler hochgezogen hätte?

Was für die fotografische Praxis sicherlich von mehr Relevanz ist, wäre zu wissen wie das Rauschverhalten bei weniger krassen Fehlbelichtungen ist. Und wie gut es sich von Noise Ninja & Co bekämpfen lässt.
 
... wir lernen: Lieber korrekt belichten, das Foveon-Rauschen ist hässlich :P
:cool:
Wie würden die unterbelichteten Bilder eigentlich aussehen, wenn du statt dem Fill Light-Regler ganz normal den Belichtungsregler hochgezogen hätte?
Ich schicke Dir gerne die originalen X3Fs zu,;)
jedenfalls falls Du die wirklich haben möchtest. :evil::lol::ugly:
Was für die fotografische Praxis sicherlich von mehr Relevanz ist, wäre zu wissen wie das Rauschverhalten bei weniger krassen Fehlbelichtungen ist. Und wie gut es sich von Noise Ninja & Co bekämpfen lässt.
Von fotografischer Relevanz würde ich bei dem Thema eher weniger ausgehen. :rolleyes:

Aber um aufs Entrauschen einzugehen:

Da es in den einzelnen Farbkanälen unterschiedlich rauscht,
muß die Entrauschung halt auch kanalspezifisch erfolgen. :rolleyes:

Ich habe mal Noise-Ninja benutzt, da gab es Profile für die SDs.:top:

Das Ergebnis war auch ok, vor allem bei Farbverläufen,
aber es gehen natürlich Details verloren. :rolleyes:

Schönen Gruß
Pitt
 
@skater,eingangsposting

tja,bilder,die wir so alle kennengelernt haben.

was mir auf den ersten blick dazu einfällt:

wäre vielleicht schön gewesen,wenn du noch die x3f reingenommen hättest,damit man eine vorstellung von der unterbelichtung hat.
auf jeden fall haben wir zwei stufen von unterbelichtung,das 100 iso und das um 4 blenden heller belichtete bild mit iso 1600 bei gleicher belichtungszeit.

von daher ist das iso 1600 bild wohl ein produkt,was man halt so kennt,wenn man normal belichtet.
auffallend ist,dass im 100% crop teilweise die dachziegel wunderbar rauschfrei abgebildet sind und dann wieder direkt daneben so`n farbklumpen,der gern auch meganta ausfällt.
wenn das aufgrund eines weichzeichnungseffektes resultieren würde,dann wäre auch die saubere abbildung daneben entsprechend unkenntlich.
deswegen halte ich diesen erklärungsansatz für unwahrscheinlich.
obgleich spp natürlich die info kriegt,vorsicht iso 1600,also entrauschfunktion auf maximum,
denke ich und das zeigt auch die erfahrung,dass das entrauschen nicht(version 2.4) oder wenig(version 2.5) glattbügelt.
obwohl spp einen guten noise-filter hat,gehen die farbklekse damit nicht weg.
scheint ein problem weniger von entrauschen zu sein,weil es eben kein rauschen ist.
vielleicht machen sich hier die messungenauigkeiten des sensors bemerkbar,als beispiel dafür die ziegel im crop.
richtig kalibrierte pixel werden auch korrekt weitergerechnet,bei schlecht kalibrierten kollabiert die auslesung und verklumpt die unbekannten signale zu einer willkürlichen mono-farbansammlung.
der rest des bildes entspricht dann wieder rauschmäßig dem normalen erscheinungsbild einer unterbelichtung mit verstärkten signalen,wie es auch die bayern-fans kennen.
da beide beispiele kurze belichtungszeit haben,spielt thermisches rauschen als ursache keine rolle.

das iso 100 beispiel macht mir da irgendwie mehr kopfzerbrechen.
kann man mal sehen,wie auch iso 100 rauschen kann:ugly:

da du bei dunkelheit aufgenommen hast,waren eigentlich kaum noch farben im motiv.deshalb ist das bild in der fläche undifferenziert monochrom grün(warum gerade grün?) verrauscht.kanten,die sich abheben sind relativ scharf abgebildet.
ich würde hier das resultat dem schwachlichtproblem zuordnen.
es kommt praktisch kein licht auf den sensor,nach farben differenzierte wellenlägen schon gar nicht.da frag ich mich,was der sensor damit anfangen soll.keine einzige der fotodioden kann aus der zu schwachen bis nicht vorhandener erregung ein eindeutiges signal produzieren.
hier wäre ein ccd sensor,der viel lichtempfindlicher als ein cmos ist,im vorteil.
im gegensatz zu der iso 1600 aufnahme kann man ein viel gleichmäßigeres rauschen sehen,was womöglich auf eine größere unempfindlichkeit von messfehlern bei kleinerer iso hindeutet.die messfehler machen sich viel gleichmäßiger bemerkbar und werden in der auslesung noch als verwertbar toleriert/erkannt und als relativ exakter bildpunkt dargestellt,es kommt nicht zu einer verklumpung.
grüße und viel spaß beim weitergrübeln:D
 
...
denke ich und das zeigt auch die erfahrung,dass das entrauschen nicht(version 2.4) oder wenig(version 2.5) glattbügelt.
obwohl spp einen guten noise-filter hat,gehen die farbklekse damit nicht weg....

Diese Info muß ich noch nachreichen: ich benutze noch SPP 2.3.
(Irgendwie ist der Download der 2.5 Version 2x gescheitert und ich hatte danach keine Zeit mehr dafür.
Die 3.x Versionen von SPP schmieren auf meinem Powerbook leider immer ab.)

An sonsten:
Der grüne Griesel im rauschverstärkten ISO-100-Bild scheint mir besser erklärbar,
als die Flecken im ISO-1600-Bild.

Die Lichtknappheit führt halt zu einer Unterbelichtung vor allem im untersten Subpixel,
(rot = 1/3 des Lichtes!)
während der mittlere Subpixel (grün) bereits etwas mehr gesättigt wird.
(rot und grün = 2/3 des Lichtes!)

Den grünen Sensor erreichen bei Weißlicht doppelt so viele Photonen.
Wenn also Rot bei Schwachlicht zuerst ausfällt, dann wird es halt grün.:rolleyes:

Viel Blau war im Motiv eh nicht drin gewesen (Dämmerung im Regen!),
aber ich kann mich ohnehin kaum erinnern,
je mal blauen Griesel in einem Bild gehabt zu haben.
Der Griesel ist fast immer grün oder gelb, nur ganz selten auch magenta. :rolleyes:

Vermutlich rauscht es im Blaukanal einfach nicht. :cool:

Schönen Gruß
Pitt
 
ähem,meine überlegung zu den farbflecken muss ich revidieren.
hatte den ausschnitt mit den dachziegeln anders in erinnerung.
was man hier sieht ist nur normales grünrauschen.

auffallend ist jedoch,dass die kleckse sich vorwiegend in den dunkleren bereichen bilden,rote/meganta und grüne/gelbliche,vereinzelt auch bläuliche mit grün gemischt.
da von den grünen und roten pixellagen sogut wie keine eindeutigen signale kommen,hat die engine auch nichts zu rechnen und fabriziert halt irrelevante farbklumpen in diesen farben.
vielleicht ändert sich das ja beim neuen prozessor der sd15 oder eine neue version von spp erkennt die klekse und beseitigt sie durch eine farbinterpolation,wobei die bilder zwar ansehnlicher,aber nicht besser werden würden.
die bayern-sensoren produzieren keine speziellen farbagglomerationen.sie sind eindimensional,das licht trifft alle pixel gleichmäßig.
na klar sind das alles nur spekulationen,möglichkeiten der erklärung.leider wird man wohl bei den foveontypischen farbkleksen nicht zu einem gesicherten kenntnisstand gelangen,obwohl dieses phänomen ja alle sigma-user betrifft und eine erklärung schon nicht schlecht wäre.
sigma weiß vielleicht selber die ursache nicht oder hält diese erscheinung für irrelevant.
grüße
 
Die Frage ist doch, wie kann man denn Sensor bei der Lichtausbeute noch verbesseren. Das scheint das Hauptproblem zu sein. Wie soll das aber bei dem 3 Schichtaufbau möglich sein. Microlinsen sind ja schon vorhanden. Die Schichttiefe kann ja auch nicht geändert werden. Wie Empfindlich sind die Pixel gegenüber den Mitbewerbern. Sind diese in diesem Bereich besser? Es gibt ja halt pysikalische Grenzen welche das Silizium uns vorgibt. In der Solarproducktion gibt es ja auch schon Siliziumalternativen welche sogar etwas mehr Wirkungsgrad besitzen und Lichtempfindlicher sind. Vieleicht ist das ja ein Ansatz. Davon würden ja alle Chiphersteller profitieren, welche dann ntürlich bei Schachlicht noch besser sind. Der Foveon kann schon vom Aufbau auf absehbare Zeit nicht die Schwachlichteigenschaften einen Bayerchip erreichen. Es geht also nur über die Verstärkung des Licht`s. Noch bessere Microlinsen? Wie kann man das Einfallende Licht noch besser verstärken bevor es auf den Sensor trifft damit noch verwertbare Informationen in die zwei tieferen Schichten vordringen?

Gruß Sven
 
Zuletzt bearbeitet:
...
auffallend ist jedoch,dass die kleckse sich vorwiegend in den dunkleren bereichen bilden,rote/meganta und grüne/gelbliche,vereinzelt auch bläuliche mit grün gemischt.
da von den grünen und roten pixellagen sogut wie keine eindeutigen signale kommen,hat die engine auch nichts zu rechnen und fabriziert halt irrelevante farbklumpen in diesen farben.
vielleicht ändert sich das ja beim neuen prozessor der sd15 oder eine neue version von spp erkennt die klekse und beseitigt sie durch eine farbinterpolation,wobei die bilder zwar ansehnlicher,aber nicht besser werden würden.
So sehe ich das auch. :top:
Das Rauschen wird erst im Rot und dann im Grünkanal sichtbar.:eek:

Wobei die Entrauschung ja das Rot mangels Info nicht ersetzen kann.
Beim Blau ist immer eine Info da, egal wie schwach, daher rauscht da nix.:D

Das Rot fällt aber ganz aus, und wo soll die Verarbeitungs-Engine da Infos herzaubern?

Der einzige Weg, den ich da sehe ist, bei komplett fehlenden Rotsignal den ganzen Pixel zu anulieren, :eek:
ihn also entweder zu "schwärzen" oder aus einer Interpolation der Nachbarn zu generieren. :rolleyes:

Beides ist nicht sehr schön! :rolleyes:

Schönen Gruß
Pitt
 
Die Frage ist doch, wie kann man denn Sensor bei der Lichtausbeute noch verbesseren. Das scheint das Hauptproblem zu sein. Wie soll das aber bei dem 3 Schichtaufbau möglich sein. Microlinsen sind ja schon vorhanden. Die Schichttiefe kann ja auch nicht geändert werden.
vielleicht ändert sich das ja beim neuen prozessor der sd15 oder eine neue version von spp erkennt die klekse und beseitigt sie durch eine farbinterpolation,wobei die bilder zwar ansehnlicher,aber nicht besser werden würden.Wie Empfindlich sind die Pixel gegenüber den Mitbewerbern. Sind diese in diesem Bereich besser? Es gibt ja halt pysikalische Grenzen welche das Silizium uns vorgibt. In der Solarproducktion gibt es ja auch schon Siliziumalternativen welche sogar etwas mehr Wirkungsgrad besitzen und Lichtempfindlicher sind. Vieleicht ist das ja ein Ansatz. Davon würden ja alle Chiphersteller profitieren, welche dann ntürlich bei Schachlicht noch besser sind. Der Foveon kann schon vom Aufbau auf absehbare Zeit nicht die Schwachlichteigenschaften einen Bayerchip erreichen. Es geht also nur über die Verstärkung des Licht`s. Noch bessere Microlinsen? Wie kann man das Einfallende Licht noch besser verstärken bevor es auf den Sensor trifft damit noch verwertbare Informationen in die zwei tieferen Schichten vordringen?

Gruß Sven

Foveon muß die Roterfassung verbessern, da diese aktuell zu erst rauscht.

Dazu gibt es 2 Möglichkeiten:
a) mehr Sensorfläche für Rot
b) weniger verlustbehafteter Datenauslesung.

Weg a)
...verbietet sich, da der rote ohnehin schon der größte der 3 Sensoren ist.
Er würde nur zusammen mit der Gesamtpixelgröße wachsen können.
Da macht das Marketing nicht mit. :rolleyes:

Weg b1)
... hier ist die Fertigung gefragt:

Da der Weg der Auslesung z.Z. über die Lichtseite erfolgt
müssen die Rot-Daten ca 20 Mikrometer vertikal durch das Sensorsubstrat nach oben geschafft werden.
Da diese Leitungen Neuland sind, bzw waren als Foveon damit begonnen hat,
ist hier in der Fertigung vielleicht noch Luft für Verbesserungen.

Weg b2)
... und hier die Konstruktion:

Elegant fände ich, wenn Foveon die Auslesung nicht mehr über die Lichtseite realisieren würde.
Der Blausensor kann leichter vergrößert werden als der rote, da er 3x soviel Photonen detektiert.

So steht ihm auch ein 3x höherer Energiepegel zur Datenauslesung "nach unten" zur Verfügung,
als umgekehrt einem gleich großen Rotsensor.

Zusätzlich verschattenn die aktuellen Ausleseleitungen den Sensor und verkleinern die Detektionsfläche.
Deshalb sind ja überhaupt die Mikrolinsen erforderlich.
Da auch diese vermutlich etwas Leistung kosten werden,
könnte man sie bei einer "Schattenseiten-Auslesung" vielleicht ja einfach weglassen. :cool:

Sony hat gerade etwas ähnliches wie dieser "Schattenseiten-Auslesung" realisiert.
Vielleicht besteht da ja wirklich Hoffnung.

Ich sehe die aktuellen Probleme jedenfalls nicht in der Farbtrennung durchs Silizium-Material.
Selbst wenn es da einige Verluste geben sollte,
ein transparenteres Filter-/Trägersubstrat würde vielleicht die Fertigung vereinfachen,
gleichzeitig aber auch die sensorinternen vertikalen Datenleitungen verlängern.

Schönen Gruß
Pitt

P.S. Ich hänge zur Veranschaulichung mal wieder meine gesammelten Werke an. ;)
 
Ich spekulier' jetzt mal und hab' das bestimmt nicht ausreichend zu Ende gedacht. Außerdem vereinfacht meine Formulierung die Situation stark.

Nehmen wir mal für einen Moment an, daß es Toleranzen bei der Sensor-Fertigung gibt und schauen uns die dritte schematische Zeichnung in Skaters Beitrag #9 an.

Wenn sich die Toleranzen so auswirken, daß der Abstand zwischen Sensoren A und B 1) zu gering oder 2) zu groß ist, dann hätte dies folgende Auswirkungen:

1) bedeutet, daß der Anteil von "grünen Wellenlängen" bei B zu groß ist. Dies entspricht einer Verschiebung in Richtung Gelb.

2) bedeutet, daß der Anteil von "grünen Wellenlängen" bei B zu klein ist. Dies entspricht einer Verschiebung in Richtung Magenta.

Ich denke, daß meine Annahme über die Auswirkung der Toleranzen nicht so weit hergeholt ist, denn die Sensoren B in der mittleren Schicht dürften schwerer genau zu positionieren sein als die Sensoren A und C außen.

Die Tatsache, daß es flächige Flecken gibt, spricht m. E. auch für Toleranzen.

Habe ich ausreichend deutlich gemacht, daß dies reine Spekulation ist und ich eigentlich keine Ahnung habe? :)
 
Diese Info muß ich noch nachreichen: ich benutze noch SPP 2.3.
(Irgendwie ist der Download der 2.5 Version 2x gescheitert und ich hatte danach keine Zeit mehr dafür.
Die 3.x Versionen von SPP schmieren auf meinem Powerbook leider immer ab.)

...
... für den Mac nimmst Du SPP 3.2. Die Version 2.5 ist für Windows PCs. Mit 3.2 wird´s laufen.
 
Ich spekulier' jetzt mal und hab' das bestimmt nicht ausreichend zu Ende gedacht. Außerdem vereinfacht meine Formulierung die Situation stark.

Nehmen wir mal für einen Moment an, daß es Toleranzen bei der Sensor-Fertigung gibt und schauen uns die dritte schematische Zeichnung in Skaters Beitrag #9 an.

Wenn sich die Toleranzen so auswirken, daß der Abstand zwischen Sensoren A und B 1) zu gering oder 2) zu groß ist, dann hätte dies folgende Auswirkungen:

1) bedeutet, daß der Anteil von "grünen Wellenlängen" bei B zu groß ist. Dies entspricht einer Verschiebung in Richtung Gelb.

2) bedeutet, daß der Anteil von "grünen Wellenlängen" bei B zu klein ist. Dies entspricht einer Verschiebung in Richtung Magenta.
Deine Beschreibungen der Farbverschiebung stimmt zwar,
aber die die Auswirkung wäre doch sicher eher marginal.;)

Es würde doch lediglich eine einmalige Kallibrierung der Farbkorrekturmatrize nötig,:p
und die ist doch bei jeder Sensorproduktion obligatorisch. :cool:

Dabei gehe ich davon aus, dass die Schichtdicken innerhalb eines Dies,
oder sogar eines einzelnen Wavers nicht abweichen.:)
Da halte ich signifikante Abweichungen für eher unwahrscheinlich.
Ich denke, daß meine Annahme über die Auswirkung der Toleranzen nicht so weit hergeholt ist, denn die Sensoren B in der mittleren Schicht dürften schwerer genau zu positionieren sein als die Sensoren A und C außen.
In der Theorie sind die Tiefen für die Absorptionsschichten:
ca. 0,2 Mikrometer für Blau
ca. 0,6 Mikrometer für Grün
ca. 1,8 Mikrometer für Rot

Tatsächlich realisiert waren im X3-Sensor der SD10:
ca. 0,0 Mikrometer für Blau
ca. 0,6 Mikrometer für Grün
ca. 2,0 Mikrometer für Rot

(Habe ich irgendwo aus dem Netz, aber woher genau weiß ich jetzt nicht mehr.)
Das zeigt, dass die genaue Lage gar nicht sooo wichtig ist.
Man muß nur hinterher einmalig nachmessen, äähh... kallibrieren! :p)
um festzustellen, welche Farbe genau ein Sensor eigentlich liefert. :cool:

(Ich habe mal das RedFox-Bild aus diesem Thread angehängt,
in dem man die tatsächliche Farblage der Foveon-"RGB", wie ich finde, recht gut beurteilen kann)
Mir scheint das Rot noch am dichtesten am RGB-Standad dran zu sein.)

Die nachträgliche Ermittlung eröffnet die theoretische Möglichkeit zusätzlicher Farbenmessungen,
meinetwegen in 1,2 Mikrometer Tiefe, um die Farbauflösung noch zu steigern. :top:
Allerdings steigt damit dann auch die Komplexität des Sensors noch weiter an. :ugly:
Die Tatsache, daß es flächige Flecken gibt, spricht m. E. auch für Toleranzen.
Müßten die Flecken dann nicht eigentlich immer auftreten?
Auch bei gutem Licht?

Ich habe ja schon weiter oben vermutet, dass es sich dabei um Entrauschungsartefakte handelt. ;)
Es fällt halt auf, dass die ISO 1600-Aufnahme sehr großflächige Flecken/Verklumpungen/was-auch-immer zeigt,
während die ISO-100-Aufnahme nur Grünen Griesel aufweißt. :cool:
Habe ich ausreichend deutlich gemacht, daß dies reine Spekulation ist und ich eigentlich keine Ahnung habe? :)
Tun wir hier doch alle. :p

Schönen Gruß
Pitt
 
... für den Mac nimmst Du SPP 3.2. Die Version 2.5 ist für Windows PCs. Mit 3.2 wird´s laufen.

Keine Ahnung wora es liegt,
aber die 3.xx Versionen schmierten ab einem Zeitpunkt x bei mir gnadenlos ab. :(

Bis dahin war alles ok, aber seit dem war nix mehr zu machen.
Leider, denn die 3.xx hatten einige Vorteile.

Mit der 2.5 hast Du natürlich recht, da habe ich mich wohl falsch erinnert. ;)

Schönen Gruß
Pitt
 
Zuletzt bearbeitet:
@skaters darstellung des schematischen aufbaus

der foveon ist ein cmos-sensor,d.h. ca.30% der oberfläche ist lichtempfindlich,der rest der fläche wird für die signalverarbeitung "vor ort" verwendet.
hat den vorteil einer paralellen auslesbarkeit(schneller,direkter,infos können unabhängig voneinander bearbeitet werden)im gegensatz zur seriellen auslesung der ccd-chips,wo die info der pixel in einem puffer zwischengelagert werden müssen,bis sie dran sind(eine möglichkeit ist full-frame)

um die lichtausbeute zu erhöhen,verwendet man microlinsen,die glaub ich auch in den canon sensoren eingebaut werden.

die schematischen darstellungen von skater geben in dieser hinsicht nur einen teil der komplexität des sensors wieder.

es werden hier nur die foveon eigenheiten dargestellt,die man sich dann noch in eine komplexe macrostruktur reindenken muß.

ich könnte mir vorstellen,dass foveon einen gegebenen cmos sensor weitgehendst adaptiert hat,um nicht komplett die architektur neu entwickeln und patentrechtlich umschiffen zu müssen.

den bestehenden sensor hat die firma dann in silikon getaucht und darunter noch zwei pixellagen mit eingegossen.alles verdrahtet und die kabel nach oben in den vorhandenen aufbau integriert.oder so ähnlich:rolleyes:

pitt,deshalb wird es wohl ein wunschdenken bleiben,die auslesebahnen nach unten zu legen,weil dieser vorgang eine komplette neuentwicklung eines bisher nicht existierenden sensors bedingt.
und da denke ich,ist auch nach der übernahme durch sigma nicht das now-how und das entwicklungspotential vorhanden.

zum schema

Anhang anzeigen 667235Anhang anzeigen 667236Anhang anzeigen 667237

bild 3 suggeriert,als wenn das licht an den oberen pixeln vorbei in die unteren lagen geht.ich denke,dass ist so nicht.die pixel befinden sich direkt untereinander.das licht geht meiner meinung nach durch die pixel hindurch.
wie in bild 2 erkennbar,ist gar kein platz auf der oberen lage,um licht für die unteren lagen seperat durchzulassen.
dieser aspekt wurde hier noch nicht ausreichend erkannt.
der blau pixel ist aus platzgründen der kleinste,weil oben noch ausleseinstrumentarien platz finden müssen.
nun kommt insgesamt soviel licht in den unteren etagen an,wie der engpass der blauen photodiode zulässt.
zwar sind die grünen und noch mehr die roten pixel größer,was aber eigentlich überhaupt kein positiven effekt hat,es war eben halt genug platz vorhanden.
es wäre meiner meinung nach also eher erwünscht,die unteren pixel in der größe dem blauen anzupassen,also zu verkleinern.skaters meinung,zur behebung der signalschwäche der unteren layers durch vergrößerung entgegen zu wirken,ist wohl falsch.
mit einer vergrößerung des roten pixels wäre nur mehr unbeteiligte fläche geschaffen.
ich denke zu bild 3,dass es eher heißen müßte
blau=a-b-c
grün=b-c
rot=c

grüße
 
@skaters darstellung des schematischen aufbaus

der foveon ist ein cmos-sensor,d.h. ca.30% der oberfläche ist lichtempfindlich,der rest der fläche wird für die signalverarbeitung "vor ort" verwendet.
:eek: Wow, mir war schon vorher klar, dass 3 von einander isolierte, nebeneinanderliegende Leitungen,
unter dem Lightshield eine Menge Platz schlucken würden,
aber so schlecht hätte ich das Verhältnis nun doch nicht eingeschätzt. :rolleyes:

Dieses Schaltungsgedöhns ist aber eh nicht so meine Baustelle.:ugly:
...
die schematischen darstellungen von skater geben in dieser hinsicht nur einen teil der komplexität des sensors wieder.

es werden hier nur die foveon eigenheiten dargestellt,die man sich dann noch in eine komplexe macrostruktur reindenken muß.
Abgesehen von der Zeichnung #3 sind das übernommene Darstellungen,
die ich z.T. aus dem Patent oder aus anderen Quellen übertragen hatte.

Keine davon erhebt den Anspruch alle Aspekte des Foveon zu würdigen.
Patentzeichnungen sind darüber hinaus gerne irreführend schematisiert,
da man der Konkurrenz nicht ungewollt Tips geben möchte. :ugly:
ich könnte mir vorstellen,dass foveon einen gegebenen cmos sensor weitgehendst adaptiert hat,um nicht komplett die architektur neu entwickeln und patentrechtlich umschiffen zu müssen.

den bestehenden sensor hat die firma dann in silikon getaucht und darunter noch zwei pixellagen mit eingegossen.alles verdrahtet und die kabel nach oben in den vorhandenen aufbau integriert.oder so ähnlich:rolleyes:
Das liegt zwar nahe, ist aber glaube ich zu simpel gedacht.
1997 war meines Wissens noch niemand in der Lage vertikale Leitungen im Silikon zu giessen.
Warum auch, es gab vermutlich auch kaum Bedarf an sowas. :rolleyes:
pitt,deshalb wird es wohl ein wunschdenken bleiben,die auslesebahnen nach unten zu legen,weil dieser vorgang eine komplette neuentwicklung eines bisher nicht existierenden sensors bedingt.
und da denke ich,ist auch nach der übernahme durch sigma nicht das now-how und das entwicklungspotential vorhanden.
Das fürchte ich ja auch, aber das was Sony hier macht läst mich trotzdem hoffen.

Da ist die von Dir erwähnte oberflächliche Logik nämlich buchstäblich im Silizium versenkt worden.
Wenn Foveon das lizensiert, könnten sie ja möglicherweise sogar ganz auf vertikale Leitungen verzichten.
Dann lägen einfach 3 Layerschichten samt Logik im Silizium übereinander,
und es gäbe die von mir vermuteten, rauschenverursachenden Verluste nicht mehr. :rolleyes:
...
bild 3 suggeriert,als wenn das licht an den oberen pixeln vorbei in die unteren lagen geht.ich denke,dass ist so nicht.die pixel befinden sich direkt untereinander.das licht geht meiner meinung nach durch die pixel hindurch.
wie in bild 2 erkennbar,ist gar kein platz auf der oberen lage,um licht für die unteren lagen seperat durchzulassen.
dieser aspekt wurde hier noch nicht ausreichend erkannt.
Hmm, interessanter Gedanke.
Ich war mir lange nicht sicher, ob er so stimmen kann oder nicht.
Ich tendiere aber inzwischen eher zu meiner Darstellung in #3.:p

Meine Logik ist dabei idie Folgende:

Die Sensoren müssen sehr unterschiedlich viele Photonen einsammeln.
Um ein verrechenbares Ergebnis zu produzieren, muß das Verhältnis idealer Weise so aussehen:
Blau = 1
Grün = 2/3
Rot = 1/3

Wenn Du jetzt einfach nur 3 gleiche Sensoren übereinanderschichtest sieht das aber anders aus:
Blau sammelt meinetwegen 50% aller Photonen ein.
Das Silizium der ersten Schicht absorbiert jetzt 1/3 der verbleibenden 50% = 16,66 % ein.
--> Verbleiben nur mehr etwa 33 %! :eek:

Davon frißt der Grünsensor jetzt wieder 50% von 33 % -->16,66 %

Jetzt ist wieder das Silizium an der Reihe: 1/3 von 16,66 % --> 5,55 %
Der Rotsensor müßte seine Detektion also aus nur etwa 5% des Lichtes ermitteln.:grumble:

Nun sind die 50% je Messung jetzt natürlich nur willkürlich von mir eingesetzt worden,
um die damit verbundene Problematik zu verdeutlichen,
aber die eigentliche Messung besteht nun mal aus Photonen-Zählung,
und zwar eine zerstörerische- sprich die Dinger werden eingesammelt
und sind dann nicht mehr für weitere Messungen verfügbar. :p

Man muß also, wie auch immer, dafür sorgen, das der blaue Sensor weniger
und der rote Sensor mehr Photonen zählen kann. ;)

Ich weiß, das der blaue nur wenige Molekülschichten dick ist,
wahrscheinlich ist er also fast transparent, um, auf Kosten seiner eigenen Messung,
zusätzliche Photonen für die anderen Sensoren durchzulassen.

Der grüne Sensor ist dicker, aber dünner als der Rote, denn der läßt sichr nix mehr durch.:rolleyes:

Ich habe aber eben Zweifel, ob die variierte Sensordicke alleine ausreicht,
um das Informationsgefälle zwischen den Sensoren auszugleichen.:confused:

Das ist nur so ein Gefühl meinerseits, aber ich denke es ist am Ende legitim, dass man,
wenn man schon die Leistung des untersten Sensors nicht mehr steigern kann,
die des obersten Sensors schwächt.

Und der einfachste Weg sowas zu realisieren ist... tara... ihn kleiner zu machen. :p
Es ist einfach eine Frage des Gleichgewichtes.:grumble:

Deshalb bin ich nicht ganz so sicher, ob Foveon nicht genau das gemacht haben könnte. :rolleyes:
der blau pixel ist aus platzgründen der kleinste,weil oben noch ausleseinstrumentarien platz finden müssen.
nun kommt insgesamt soviel licht in den unteren etagen an,wie der engpass der blauen photodiode zulässt.
zwar sind die grünen und noch mehr die roten pixel größer,was aber eigentlich überhaupt kein positiven effekt hat,es war eben halt genug platz vorhanden.
es wäre meiner meinung nach also eher erwünscht,die unteren pixel in der größe dem blauen anzupassen,also zu verkleinern.skaters meinung,zur behebung der signalschwäche der unteren layers durch vergrößerung entgegen zu wirken,ist wohl falsch.
mit einer vergrößerung des roten pixels wäre nur mehr unbeteiligte fläche geschaffen.
ich denke zu bild 3,dass es eher heißen müßte
blau=a-b-c
grün=b-c
rot=c

grüße
Naja, vielleicht hast ja Du recht, aber ich bin mir da eben nicht so sicher.:p:

Schönen Gruß
Pitt
 
Wenn Du jetzt einfach nur 3 gleiche Sensoren übereinanderschichtest sieht das aber anders aus:
Blau sammelt meinetwegen 50% aller Photonen ein.
Das Silizium der ersten Schicht absorbiert jetzt 1/3 der verbleibenden 50% = 16,66 % ein.
--> Verbleiben nur mehr etwa 33 %!

Davon frißt der Grünsensor jetzt wieder 50% von 33 % -->16,66 %

Jetzt ist wieder das Silizium an der Reihe: 1/3 von 16,66 % --> 5,55 %
Der Rotsensor müßte seine Detektion also aus nur etwa 5% des Lichtes ermitteln.

hm,ich kann deiner mathematik nicht ganz folgen.
der sensor ist,wie ich meine,nicht auf so ein starres schema festzulegen.
und warum sollte das silizium soviel vom licht absorbieren,im idealfall geht da gar kein wirkungsgrad verloren.

also so würde ich mein model der durchlässigen pixel nicht interpretieren.
eher so:
den "blauen" pixel(ist natürlich genau so ein teil wie für grün oder rot,ist halt nur in der "blauen"ebene fixiert)erreicht 100% vom verwertbaren licht(sensorflächenanteil plus microlinse).
jep,jetzt kann ich mir`s vorstellen,an dieser stelle hatte ich immer probleme:ugly:
denn wie schafft es der blaue sensor,die photonen zu messen,die bei ihm halt machen,wo rechts und links aber auch die grünen und roten vorbeisausen:eek:
es ist natürlich ganz einfach,aber manchmal sieht man den wald...
nachdem nun der lichtstrahl den blauen passiert hat,sind noch grün und rot übrig.durch den grünen sensor gelangen letztendlich nur noch die roten anteile,die auf dem grundsensor halt machen.
der blaue mißt alles,entsendet meistens das stärkste signal.
der grüne mißt natürlich grün und rot,der rote nur rot.
wie bekomme ich nun den korrekten wert für blau?
indem der prozessor von den 100% die werte von grün und rot abzieht.und so weiter.
eigentlich genauso wie das model der nicht durchlässigen sensoren.

was spricht nun für das model von durchlässigen sensoren?

-es werden die tatsächlichen anteile der farben erfasst,da alle drei farbsensoren ihren anteil aus derselben lichtmenge extrahieren
-die pixel können in ihrer größe maximiert werden

soweit die theorie.wir können uns nun auch vorstellen,warum foveon eine cmos architektur gewählt hat.weil das auslesen einer pixelsäule ein gleichzeitiger prozess sein muß,ein serielles auslesen ist unmöglich.

nachdem,wie ich meine,der aufbau des foveonsensors in seinen grundzügen korrekt dargestellt ist,könnte man jetzt zum thema des rauschens vor allem der farbagglomerationen zurückkommen.
fällt mir im moment aber nix ein.
grüße
 
Zuletzt bearbeitet:
hm,ich kann deiner mathematik nicht ganz folgen.
der sensor ist,wie ich meine,nicht auf so ein starres schema festzulegen.
und warum sollte das silizium soviel vom licht absorbieren,im idealfall geht da gar kein wirkungsgrad verloren.
Wie glaubst Du denn, funktioniert das Foveon-Prinzip? :eek:

Nach meinem Verständnis wird in den oberen 0,6 Mikrometern des Siliziumsubstrats 1/3 der Lichtleistung absorbiert,
und zwar alle Wellenlängen kleiner als 550 nm! (Grün!)

Das zweite 1/3 der Lichtleistung absorbiert das Silizium dann in der Tiefe zwischen 0,6 bis 2,0 Mikrometer.
Dabei werden dann die Wellenlängen zwischen 550 nm und etwa 650 nm geschluckt!

Alles was in 2 Mikrometer Tiefe noch ankommt ist langwelliger als 650 nm. (Also Rot oder Infrarot).

Genau das meint man bei Foveon mit "Eindringtiefe",
und auf diesem Prinzip basiert die Farbtrennung dieses Sensors!

In dem man 3 Sensoren auf, bzw in den beiden angegebenen Tiefen des Siliziums platziert,
erhält man alle Informationen, die man zur Farbtrennung braucht.
also so würde ich mein model der durchlässigen pixel nicht interpretieren.
eher so:
den "blauen" pixel(ist natürlich genau so ein teil wie für grün oder rot,ist halt nur in der "blauen"ebene fixiert)erreicht 100% vom verwertbaren licht(sensorflächenanteil plus microlinse).
jep,jetzt kann ich mir`s vorstellen,an dieser stelle hatte ich immer probleme:ugly:
denn wie schafft es der blaue sensor,die photonen zu messen,die bei ihm halt machen,wo rechts und links aber auch die grünen und roten vorbeisausen:eek:
es ist natürlich ganz einfach,aber manchmal sieht man den wald...
nachdem nun der lichtstrahl den blauen passiert hat,sind noch grün und rot übrig.durch den grünen sensor gelangen letztendlich nur noch die roten anteile,die auf dem grundsensor halt machen.
der blaue mißt alles,entsendet meistens das stärkste signal.
der grüne mißt natürlich grün und rot,der rote nur rot.
wie bekomme ich nun den korrekten wert für blau?
indem der prozessor von den 100% die werte von grün und rot abzieht.und so weiter.
eigentlich genauso wie das model der nicht durchlässigen sensoren...
Also da kann ich Dir wirklich nicht mehr ganz folgen. :confused:

Das Sensormaterial kann doch keine Farben wahrnehmen,
beim Foveon genau so wenig wie beim Bayer! ;)).

Die Selektion der Farben erfolgt beim Foveon ausschließlich durch das Silizium,
und zwar etwa analog zu einem zweistufigen Sieb. (s.o.)! :cool:
(Beim Bayer ist es ein einstufiges Sieb, aber der selbe Sensor! :p)

Alles was die eigentlichen Sensoren leisten, ist Photonen zu zählen,
indem sie ihre Energieladung in messbare elektrische Energie umwandeln. :)

Diese Zählung erfolgt aber zerstörerisch, denn wenn der Sensor ein Photon detektiert,
dann gibt dieses seine Ladung ab und kann nicht noch einmal gemessen werden. :grumble:

Dadurch stehen sie in den jeweils tieferen Sensoretagen aber nicht mehr zur Verfügung
und beeinflussen somit deren Ergebnisse. :eek:

Genau diese Problematik hatte ich mit meinem Rechenbeispiel zeigen wollen, denn,
auch wenn sicher deutlich weniger als 50% aller Photonen vom einzelnen Sensor geschluckt werden,
das Problem besteht ja schließlich auch bei bei kleineren Absorptionsraten. ;)

Also muß bei der Konstruktion des Sensors möglicherweise die Messleistung der oberen Sensoren,
insbesondere des Obersten, bewußt reduziert werden, um ein besseres Gleichgewicht zwischen den Sensoren herzustellen. :)

Was nützt es schon, wenn der oberste Sensor nie rauscht, der unterste aber immer! :evil:

Schönen Gruß
Pitt
 
Zuletzt bearbeitet:
Ich spekulier' jetzt mal und hab' das bestimmt nicht ausreichend zu Ende gedacht. Außerdem vereinfacht meine Formulierung die Situation stark.

Nehmen wir mal für einen Moment an, daß es Toleranzen bei der Sensor-Fertigung gibt und schauen uns die dritte schematische Zeichnung in Skaters Beitrag #9 an.

Wenn sich die Toleranzen so auswirken, daß der Abstand zwischen Sensoren A und B 1) zu gering oder 2) zu groß ist, dann hätte dies folgende Auswirkungen:

1) bedeutet, daß der Anteil von "grünen Wellenlängen" bei B zu groß ist. Dies entspricht einer Verschiebung in Richtung Gelb.

2) bedeutet, daß der Anteil von "grünen Wellenlängen" bei B zu klein ist. Dies entspricht einer Verschiebung in Richtung Magenta.



zugegeben ist es verlockend,einen teil der rauschproblematik einer unpräzisen kalibrierung der sensoren anzukreiden.
wenn man sich so die maßeinheiten ansieht,0,2 tausendstel mm silikonstärke über dem blauen sensor,0,6 über dem grünen und 2,0 über rot :o
also normaler maschinenbau ist das nicht;)
vor allem solche maße in der serie einzuhalten ist schon etwas,was ich mir gar nicht vorstellen kann.
dennoch wird es nach der fertigung geräte geben,mit denen jeder einzelne sensor endgeprüft wird und sensoren,die nicht den toleranzen entsprechen (wahrscheinlich geht es sowieso nur um die anzahl der toten pixel)werden ausgesondert.

zu deiner these

eine verschiebung von B nach oben hätte keine auswirkung auf das messergebnis,da die grünen und roten lichtwellen sich nicht in diesem abschnitt verändern.
eine verschiebung nach unten hätte eine auswirkung und zwar die,dass keinerlei grüne wellen gemessen werden,sondern nur rote.
die farbe grün gäbe es also im fertigen bild gar nicht,da der gemessene wert dergleiche ist wie für rot gemessen wird.rot würde also das grün neutralisieren,der gerechnete wert wäre null.blau würde zu stark gewichtet werden,nämlich um den anteil des fehlenden grüns zu viel.einzig rot würde korrekt erscheinen.
aber diese problematik des höhenversatzes wird es nicht geben,zumal mögliche fertigungstoleranzen in die berechnung eingehen und entsprechend dicke sensoren eingebaut werden.

ich tendiere,und da schließe ich mich skater an,zu der meinung,dass der foveon sensor eine präzise farbtrennung vornimmt.

gäbe es fehlkalibrierungen,dann würden ja auch die farben generell nicht stimmen.ein "normales" foto wäre dann nicht möglich.
ich schließe also aus,dass die ursache für die foveontypischen farbagglomerationen eine folge von mangelnder farbtrennung ist.

das normale rauschen hat dieselben ursachen wie bei bayer.

hauptursache ist das grundrauschen.definiert als störsignale,die in ihrer negativen auswirkung(verfälschte messwerte)signifikant vom signal-rauschabstand bestimmt werden.dieser wert hängt ab vom pixelabstand und der isolierung der signalleitungen.
das grundrauschen nimmt bei wärme zu.rauschfreier fotografiert man also besser im winter.wärmer hingegen wirds bei langzeitbelichtungen.

wenn andere kameras weniger mit dem rauschen zu kämpfen haben,dann liegt das an den variablen : signal-rauschabstand,noise-filter im prozessor(jpeg) oder noise-filter im konverter(raw).

foveontypisches grundrauschen gibt es also nicht.

was bleibt ist die frage,warum die sigma-files oftmals lokale konzentrationen von rauschen aufweisen,bis hin zu einer verdichtung von einfarbiger fleckigkeit(je höher die iso,desto krasser das symptom).
da kann man spekulieren.mit der farbtrennung des sensors hat das aber nichts zu tun.wenn das phänomen sensorbedingt ist,kann es nur an der kanalspezifischen lichtausbeute liegen.
die folge wären fehlende oder unvollständige informationen für den prozessor.

das problem des rauschens wäre natürlich mit einem schlag relativiert,wenn man den signal-rauschabstand verbessert und/oder für mehr licht sorgt.
beides könnte sigma vereinen in einem vf-sensor mit unterproportionaler erhöhung der pixelzahl.

kann doch nicht so schwer sein dieses :rolleyes:

grüße
 
WERBUNG
Zurück
Oben Unten