• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Charakter des Foveonrauschens

hjAnhang anzeigen 670294

also schön finde ich,dass du den blauen pixel ins silikon integriert hast,da ist skater eine schlamperei untergekommen:D
Naja, ich habe mal die Info bekommen,
dass man sich bei Foveon die 0,2 Mikrometerschicht geschenkt hat.

Als der Sensor ab 1997 designed wurde,
stellte eine so dünne Siliziumschicht wohl eine zu große Hürde dar.
(Technisch und finanziell!)

Die UV-Sperrfilter vorm Sensor kamen vermutlich einfach billiger. :rolleyes:
Hinzu kamen eventuell auch Probleme mit der Energieabschirmung zwischen den beiden oberen Sensoren. :rolleyes:
ansonsten verstehe ich deinen korrekturansatz nicht auf anhieb.
mehr als rgb wird ja nicht gebraucht!
aus rgb kannst du alles machen.die anderen spektralfarben werden nicht gemessen,von daher sind es auch keine problemfarben.
natürlich könnte der foveon auch mit anderen farbräumen arbeiten,braucht man nur die sensoren etwas hoch oder runterkurbeln.
aber prinzipiell geht es halt nur in einem farbraum.
grüße
Brownys Rechenansatz verstehe ich auch nicht. :rolleyes:

Wegen des Farbraumes verweise ich noch einmal auf das RedFox-Bild aus einem alten Thread,
das ich damals zum einfachen Vergleichen mit Standard-RGB bearbeitet hatte. :)

Man kann da gut sehen, dass die in X3F gespeicherte Farbinfo nix mit Standard-RGB zu tun hat
und vom RAW-Konverter erst zu Standard-RGB umgewandelt werden muß. ;)

Nur Rot stimmt auf den ersten Blick überein. :cool:

Die exakte Sensorlage im Silizium halte ich auch für untergeordned wichtig,
solange die Sensoren nur das ganze Spektrum einigermaße gleichmäßig erfassen. :p

Man muß dann halt nur hinterher klären, wo genau die Sensoren nun gelandet sind. :lol:
Dieser Vorgang heißt dann Kalibrieren und stellt so etwas wie einen einmalig durchzuführenden Weißabgleich dar.:)
(Als Ausgangspunkt für alle zukünftigen! )

Schönen Gruß
Pitt
 
o.k.,dann beuge ich mich mal im rahmen dieses threads der wohl allgemein vorherrschenden meinung der "farbenblinden" sensoren.

eine wesentliche bedingung des rauschens ist die lichtausbeute.
lässt sich diese pixelintern erhöhen?

ein paar gedanken über die verlagerung des ausleseprozesses auf die lichtabgewandte seite des foveonsensors.

eine erste verwertungselektronik der detektion ist beim cmos interner baustein eines jeden sensors(entgegen meiner darstellung über die ausleseelektronik weiter oben).übrig bleiben für den umzug nach unten also nur die auslesebahnen,die aber zwischen den sensoren verlaufen und träger der microlinsen sind.wenn die signalwege nun unterwärts verlaufen,könnte man die "roten" sensoren vergrößern,da eine abschattung durch die lightshields keine einflussgröße mehr wäre und damit könnten auch die anderen sensoren
wachsen.

vergrößerung des "roten"sensors

von oben gesehen sind der blaue sensor vollständig,beim grünen und roten nur die jeweiligen randbereiche sichtbar.
um dieselben anteilsgrößen vom licht zu messen,müssen die licht aufnehmenden flächen gleich groß sein.
die optimale größe,bezogen auf die lichtausbeute,eines pixels wäre = der größe eines sensors der untersten ebene.
die größe des "roten" sensors wird aber schon maximiert sein,da hätte man nur noch spielraum durch die verlagerung der nach oben gelegten signalleitungen.
eine solche optimierung würde die lichtausbeute verbessern,aber möglicherweise auf kosten des signal-rausch abstandes.


grüße
 
... eben da liegt das Problem. Der Sensor liefert auch die Zwischenwerte in unterschiedlicher Intensität,
Hmm, welche Zwischenwerte sollen das sein?

Mal sehen:

Die Sensoren messen nur das Photonenniveau in der jeweiligen Tiefe des Siliziums.
Dass sind also alle Photonen, die es bis zum jeweiligen Sensor oder tiefer schaffen. :p

Es müssen dann, für die oberen Sensoren, die tiefer gelegenen Sensorwerte subtrahiert werden,
genauso wie ich es in meiner Version des Schaubildes dargestellt hatte. :)

Das Ergebnis sind dann alle Photonen, deren Färbung sich zwischen den beiden Sensoren befinden.

Wenn man so will, gibt es demnach einen Roten, einen Grün-Roten und einen Blau-Grünen Sensor. ;)

Aber wenn man ohnehin mittelt, ist das Ergebniss natürlich besser,
(näher am RGB-Standard!) wenn man die Pixel "weiter oben" platziert. :cool:
Also nicht etwa dort, wo die exakt grünen Photonen absorbiert werden,
sondern dort, wo sich bei der erforderlichen Mittelung tatsächlich eine Grünmessung ergibt. :cool::eek:

Die im Patent angegebenen Sensortiefen dürften das aber wohl schon berücksichtigen.:cool:

Demnach wird z.B. gar nicht grün gemessen, sondern so etwas wie türkis,
welches dann durch die Verrechnung mit Rot zu einem Grün wird. :top:

Das ist mal wieder ein neuer Aspekt für mich! :rolleyes:
Prima... wieder was gelernt! :evil::top:
mit denen kann aber die herkömmliche EBV-Software nichts anfangen, da sie diese selbst aus R, G und B errechnen will. Das ist auch der Grund dafür, dass ein Foveon Bild welches nur aus direkten Sensor RAW Daten besteht in der herkömmlichen EBV-Software überwiegend als Graustufenbild angezeigt wird. Die Software versucht für jede Farbe eine Näherung an die Mittelwerte aller Farbinformationen zu berechnen. Daher bezeichnete ich die Spektralabschnitte als "problematisch".
Ich bin zwar nicht ganz sicher, aber vielleicht haben wir gerade ja das Selbe beschrieben. :rolleyes:
Nur Dein Rechenansatz... der erschließt sich mir nicht. :rolleyes:

Schönen Gruß
Pitt
 
...
Demnach wird z.B. gar nicht grün gemessen, sondern so etwas wie türkis,
welches dann durch die Verrechnung mit Rot zu einem Grün wird. :top:

nee,nee,
das bringt alles durcheinander:eek:
du beschreibst einen farbraum,den es nicht gibt.wenigstens in der theorie muß man von festen größen ausgehen:rolleyes:
 
o.k.,dann beuge ich mich mal im rahmen dieses threads der wohl allgemein vorherrschenden meinung der "farbenblinden" sensoren.
:p;)
eine wesentliche bedingung des rauschens ist die lichtausbeute.
lässt sich diese pixelintern erhöhen?

ein paar gedanken über die verlagerung des ausleseprozesses auf die lichtabgewandte seite des foveonsensors.

eine erste verwertungselektronik der detektion ist beim cmos interner baustein eines jeden sensors(entgegen meiner darstellung über die ausleseelektronik weiter oben).übrig bleiben für den umzug nach unten also nur die auslesebahnen,die aber zwischen den sensoren verlaufen und träger der microlinsen sind.wenn die signalwege nun unterwärts verlaufen,könnte man die "roten" sensoren vergrößern,da eine abschattung durch die lightshields keine einflussgröße mehr wäre und damit könnten auch die anderen sensoren
wachsen.
Exakt, wobei aber auch der vertikale Datentransport noch Platzbedarf hat,
was die Größe des unteren Sensors etwas beschneiden wird. :)
vergrößerung des "roten"sensors

von oben gesehen sind der blaue sensor vollständig,beim grünen und roten nur die jeweiligen randbereiche sichtbar.
um dieselben anteilsgrößen vom licht zu messen,müssen die licht aufnehmenden flächen gleich groß sein.
die optimale größe,bezogen auf die lichtausbeute,eines pixels wäre = der größe eines sensors der untersten ebene.
die größe des "roten" sensors wird aber schon maximiert sein,da hätte man nur noch spielraum durch die verlagerung der nach oben gelegten signalleitungen.
eine solche optimierung würde die lichtausbeute verbessern,aber möglicherweise auf kosten des signal-rausch abstandes.


grüße
Das glaube ich nicht!: :p;)

Das absolute Energieniveau des obersten Sensors ist schließlich 3 x höher!:)

Ich halte ja bekanntlich die Rauschneigung aktueller Foveon vor allem für eine Folge der vertikalen Leitungen.
Diese werden layerweise, also Schicht für Schicht aufgebaut und können daher eigentlich nicht die gleiche Leitfähigkeit haben,
die horzontal verlaufende Leitungen vorweisen können. :rolleyes:

Daher glaube ich ja, dass aktuell ein gewisser Teil des lichtgespeisten Ladungsniveas der untersten Sensoretage,
für den vertikalen Informationstransport hoch zur Lichtseite verbraten wird. :grumble:

Der Rote Sensor braucht dafür aber 3x soviel Fläche, wie der Blaue! :eek:
Wenn man das jetzt umkehrt, könnte der Blaue also mit weniger Fläche trotzdem mehr "Transportleistung" zur Verfügung stellen. :top:

Bedenken bereitet mir bei diesem Szenario eher der Mittlere Sensor:
der muß aktuell nach oben nur 0,6 Mikrometer überwinden,
untenrum dann aber etwa die 2,5-fache Distanz. :rolleyes:

Schönen Gruß
Pitt
 
nee,nee,
das bringt alles durcheinander:eek:
du beschreibst einen farbraum,den es nicht gibt.wenigstens in der theorie muß man von festen größen ausgehen:rolleyes:
Lach! :lol::lol::lol: Stimmt natürlich! :top:

Das war auch nur ein anschaulicher Gedanke, um besser zu begreifen,
was da im Sensor eigentlich genau vor sich geht. :p

Ich gehe davon aus, dass Foveon das seinerzeit mal per "reverse Engeniering" ermittelt hat.
Sie haben vermutlich so lange frühe Baumuster des Sensors mit RGB-Farben getestet, bis die Ergebnisse stimmten.:cool:
Danach wußten sie, in welcher Tiefe sie die jeweiligen Sensoren vergraben müssen,
um eine Farbe x zu erhalten!

Was ich da beschrieben habe, sollte mir nur veranschaulichen, wie möglicherweise! :rolleyes:)
vielleicht tatsächlich der innere Prozess der Farbtrennung aussieht. :rolleyes:
Aber in der Praxis ist es tatsächlich für uns eher irrelevant. ;)

Uns interessiert schließlich nur, dass das gelieferte Ergebnisse stimmt! :cool:

Also ist Rot rot, Grün grün und Blau blau, genau so wie es der jeweilige Sensor behauptet. :cool:
Deshalb können wir auch ruhig weiter vom roten, grünen und blauen Sensor sprechen. :cool::D

Fertigungstoleranzen, sind damit kein Grund für Falschfarben,
denn sie können schließlich mittels Kalibrierung eliminiert werden. :cool:

Wahrscheinlich könnte Foveon heute umgekehrt sogar, an Hand dieser Kalibrierung,
sehr exakt die genaue Lage der jeweiligen Sensorlayern im Silizium angeben,
wenn sie nur wollten, und wenn es nur irgendwen interessieren würde. ;):ugly:

Schönen Gruß
Pitt
 
ICh denke Browny meinte es so:

Es wird ja nicht nur ein reines Blau/Rot/Grün ausgelesen sondern alle Werte der jeweiligen Schichtdicke (wie im Schema also verschiedene Spektralfarbenwerte). Diese Werte müssen vom Bildproz. und der Software richtig gewichtet werden. Aus diesem Grund hat der Foveon wohl seinen Vorteil bei der Farbauflösung. Foveon kann also auch die Mischtöne in die Berechnung mit einfließen lassen. Daher scheint ja auch die Menge an Dateninformationen, welche zu verarbeiten sind, so hoch. Würden diese Werte nicht verwertet werden wäre das Sensorprinzip wohl nicht besser als beim Bayersensor. Sigma konnte dank Fuji mit den neuen Bildprozessoren einen guten Schritt in der Informationsverarbeitung des Sensors machen (siehe DP1). Damit ist Sigma auf dem richtigen Weg. Hier muß am meisten optimiert werden inkl. der Software. Das passiert ja mit der SD15 und DP2.
Wie aber schon gesagt wurde, die genaue Lage der Sensorschichten ist nicht ganz so wichtig. Wichtig ist der Wert nur für die Algorithmen zum berechnen des Bildes. Foveon muß also ganz genau den Ort wissen wo Rot/Grün/Blau absolut gemessen werden. Da wird, wie Skater schon sagte, jeder Sensor wohl genau ausgemessen. Zumindest sollte er das um genau diesen Wert zu erhalten.


Gruß Sven
 
Zuletzt bearbeitet:
weiss nicht,kann mir nicht vorstellen,dass 4,6mp jeweils einen individuellen verrechnungsalgotithmus haben.
grüße
Naja, "Sensor" meint da natürlich nicht Sensorpixel! ;):rolleyes:

Ich denke, dass eine Foundery sicher stellen kann (und muß!:grumble:),
dass innerhalb eines Wavers, zumindest aber innerhalb eines Dies,
keine Abweichungen in den Schichtdicken auftreten. :cool:

Wäre das nämlich so, dann hätten alle entsprechenden Prozesse untragbare Ausbeuten. ;)
Aber das ist natürlich auch wieder eher nicht so meine Baustelle.:ugly:

Schönen Gruß
Pitt
 
ICh denke Browny meinte es so:

Es wird ja nicht nur ein reines Blau/Rot/Grün ausgelesen sondern alle Werte der jeweiligen Schichtdicke (wie im Schema also verschiedene Spektralfarbenwerte). Diese Werte müssen vom Bildproz. und der Software richtig gewichtet werden. Aus diesem Grund hat der Foveon wohl seinen Vorteil bei der Farbauflösung. Foveon kann also auch die Mischtöne in die Berechnung mit einfließen lassen.
Ein interessanter Ansatz, aber leider halte ich ihn nicht für richtig. :rolleyes:

Das was der Sensor mißt, mag die Summe aller Absorbtionsfarben bis zum nächst-tieferen Sensor sein,
aber durch die Messung und die anschließende Verrechnung geht diese Vielfalt unwiederbringlich verloren. :rolleyes:

Was dort am Ende ausgelesen wird, ist ein Mittelwert X, der für genau eine Farbe steht. :rolleyes:
In diesem Punkt unterscheidet sich der Foveon leider nicht vom Bayer,
jeder Sensor steht nur für genau nur eine Farbe. :o
Daher scheint ja auch die Menge an Dateninformationen, welche zu verarbeiten sind, so hoch. Würden diese Werte nicht verwertet werden wäre das Sensorprinzip wohl nicht besser als beim Bayersensor.
Naja, so schlimm ist das ja nun auch nicht. ;)
Du hast nur leider keinen Zugriff auf die unzähligen Zwischenwerte,
es sei denn...
...Du baust noch weitere Sensoren ein! :cool:

Damit könnte man dann tatsächlich eine bessere Farbermittlung als beim Bayer erhalten,
...bei gleichbleibender Schärfe! :cool::top:
Wenn die Bayerfraktion da gegen halten würde, wäre das Ergebnis auf Pixelebene noch verwaschener,
als es bei aktuellen Bayer-Bildern jetzt schon ist.:eek:
Sigma konnte dank Fuji mit den neuen Bildprozessoren einen guten Schritt in der Informationsverarbeitung des Sensors machen (siehe DP1). Damit ist Sigma auf dem richtigen Weg. Hier muß am meisten optimiert werden inkl. der Software. Das passiert ja mit der SD15 und DP2.
Ja, da hoffe ich auch drauf. :top:

(Fuji könnte ja ruhig auch mal ein paar von diesen aktive Grünsensoren springen lassen,
vielleicht würde das auch mal was bringen. :cool::evil:)

Außerdem werden die Founderys ja auch nicht schlechter,
so dass es vielleicht auch noch verbesserte Hardware gibt. :)
Wie aber schon gesagt wurde, die genaue Lage der Sensorschichten ist nicht ganz so wichtig. Wichtig ist der Wert nur für die Algorithmen zum berechnen des Bildes. Foveon muß also ganz genau den Ort wissen wo Rot/Grün/Blau absolut gemessen werden. Da wird, wie Skater schon sagte, jeder Sensor wohl genau ausgemessen. Zumindest sollte er das um genau diesen Wert zu erhalten.


Gruß Sven
Jupp! :cool:

Schönen Gruß
Pitt
 
kruegchen hat das schon richtig verstanden. Beim Foveon kommt man alleine mit RGB-Denken nicht weiter. Man muss das Farbspektrum auf Pixelebene betrachten und die Werte der 3 Sensorschichten als einen Farbwert für die Pixelposition, welcher sich aus den 3 gemessenen Werten der Sensorschichten ergibt. Der steht nämlich nach der A/D-Wandlung bereits fest.
 
ICh denke Browny meinte es so:

Es wird ja nicht nur ein reines Blau/Rot/Grün ausgelesen sondern alle Werte der jeweiligen Schichtdicke (wie im Schema also verschiedene Spektralfarbenwerte). Diese Werte müssen vom Bildproz. und der Software richtig gewichtet werden. .

also nein,ich denke nicht,dass die sensoren irgendein wischi-waschi spektrum messen.
die messen überhaupt kein spektrum,sondern eine definierte farbe/wellenlänge.
eine reine farbe gibt es im sinne einer punktgenauen wellenlänge nicht.
was man als reines blau z.b.bezeichnen würde hat den wellenlängenbereich von 460-480 nm.und genau hier wird in der entsprechenden eindringtiefe der sensor plaziert.

wenn es bei der platzierung vor dem produktionsstart untolerierbare aber fertigungstechnisch nicht weiter optimierbare divergensen gibt(wie vielleicht den obersten sensor aufs statt ins silikon montieren),dann können komplette sensorebene eingemessen und programmiert werden oder eben einzelne pixel,die anhand eines testbildes ungefähr auf sollmaß gebracht werden.
wobei ich die ebenenkalibrierung für realistischer halte,da in der automatischen fertigung schon alle sensoren plan eingebracht werden,halt nur nicht präzis im erwünschten bereich.

grüße
 
Das was der Sensor mißt, mag die Summe aller Absorbtionsfarben bis zum nächst-tieferen Sensor sein,
aber durch die Messung und die anschließende Verrechnung geht diese Vielfalt unwiederbringlich verloren. :rolleyes:

Was dort am Ende ausgelesen wird, ist ein Mittelwert X, der für genau eine Farbe steht. :rolleyes:
In diesem Punkt unterscheidet sich der Foveon leider nicht vom Bayer,
jeder Sensor steht nur für genau nur eine Farbe. :o

rot:
genau,was eine pixelsäule an infos auf den weg schickt,mag aus den tollsten farbspektren generiert sein,letztendlich sind das aber genau 3 verschiedene stromspannungen aus drei messungen,die gegeneinander verrechnet einer farbe zugeordnet werden.

und dieses schema funktioniert ausgezeichnet,solange die signale ausreichend stark oder überhaupt vorhanden sind = ausreichend licht.

blau:
mit einem klitzekleinen unterschied in der treffgenauigkeit,auch die richtige farbe erwischt zu haben.

grüße
 
kruegchen hat das schon richtig verstanden. Beim Foveon kommt man alleine mit RGB-Denken nicht weiter.
RGB-Denken kannst Du mir glaube ich nicht vorhalten,
aber ich verstehe Deinen Ansatz trotzdem nicht. :rolleyes:
Man muss das Farbspektrum auf Pixelebene betrachten und die Werte der 3 Sensorschichten als einen Farbwert für die Pixelposition, welcher sich aus den 3 gemessenen Werten der Sensorschichten ergibt.
Hmm, das Ergebnis aller 3 Sensoren ist also eine Farbe? Aha! :evil:
Der steht nämlich nach der A/D-Wandlung bereits fest.
Schon, aber doch erst, nachdem das Bildprozessing die einzelnen Messwerte so verrechnet hat,
dass die einzelnen "RGB-Farbwerte" (ok, ok, mehr oder weniger RGB! ;)) isoliert sind. :grumble:

Der einzige der 3 Sensoren, der einfach nur den passenden Farb-Wert ausspuckt,
ohne das vorher ein Berechnungsvorgang erforderlich ist, ist nun mal der Unterste/Rote. :p

Ich habe mal wieder was gemalt, um zu illustrieren, was ich in meinem Post #41 überlegt hatte. ;)

Das was Dir, glaube ich jedenfalls, vorschwebt, ist eher sowas, wie Fuji es versucht:
Sensoren, die nur eine bestimmte Farben sehen und alles andere durchlassen. :cool:

Schönen Gruß
Pitt
 
RGB-Denken kannst Du mir glaube ich nicht vorhalten,
aber ich verstehe Deinen Ansatz trotzdem nicht. :rolleyes:

...

Der einzige der 3 Sensoren, der einfach nur den passenden Farb-Wert ausspuckt,
ohne das vorher ein Berechnungsvorgang erforderlich ist, ist nun mal der Unterste/Rote. :p

...

Was verstehst Du eigentlich unter "messen". Die Berechnungen finden doch erst nach dem A/D-Wandler statt, wenn ein digitales Signal vorliegt.

Betrachten wir einmal einen einzelnen Pixel, ohne Auslesematrix.

Seh´ mal die blaue, grüne und rote Fläche als die lichtempfindlichen Schichten im Sensor und hänge an jede Schicht einen A/D-Wandler.

Dann sieht das Ganze so aus :

Anhang anzeigen 671113

Was Du jetzt noch berechnen musst ist Dein Luminanz, Schwarz- und Weisswert. Schwarz und Weiss sind durch 0 bzw. 255 auf jedem Sensor vorgegeben. Alle anderen Werte dazwischen werden gemessen. Einziges Problem sind hier die Rundungsdifferenzen (z.B. bei dem orange beleuchteten Pixel der Blauwert von eigentlich 7,65 [3% von 255]), die korrigiert werden müssen und die durch das "Rauschen" des Chips bei angelegter Spannung verursachten Fehler. Die muss man rausrechnen und je genauer das gelingt um so sauberer wird Dein Bild. Ausserdem musst Du aus der Summe der Sensorsignale den Luminanzwert gewinnen und das geschieht überwiegend aus dem Grünsensor.

Fertig.

Gruss,

Browny.
 
Zuletzt bearbeitet:
kruegchen hat das schon richtig verstanden. Beim Foveon kommt man alleine mit RGB-Denken nicht weiter. Man muss das Farbspektrum auf Pixelebene betrachten und die Werte der 3 Sensorschichten als einen Farbwert für die Pixelposition, welcher sich aus den 3 gemessenen Werten der Sensorschichten ergibt.QUOTE]

rot :
meinst du,was jeder einzelne pixel(von den 4.6mp)tatsächlich an farbe generiert?

alles andere verstehe ich schon.
du beschreibst wie ein farbpunkt(also der verrechnete wert eines pixels=3sensoren) gebildet wird.
aber warum sollte man da mit rgb denken nicht weiterkommen?
die einzelnen sensoren mögen ja von einer idealmessung abweichen,was a)kalibriert werden konnte oder b) immer noch hinreichend genau ist,so dass bei gutem licht und weißabgleich auch korrekte farben entstehen können.
ob das mal hinhaut oder nicht,ist wohl nicht eine sache einer prinzipiell unzureichenden spektralen erfassung der einzelnen sensoren.
wenn teilweise falschfarben produziert werden,muß es an etwas anderem liegen,meiner meinung nach.
grüße
 
Was verstehst Du unter "messen".

Betrachten wir einmal einen einzelnen Pixel, ohne Auslesematrix.

Seh´ mal die blaue, grüne und rote Fläche als die lichtempfindlichen Schichten im Sensor und hänge an jede Schicht einen A/D-Wandler.

Dann sieht das Ganze so aus :

Anhang anzeigen 671113

Was Du jetzt noch berechnen musst ist Dein Luminanz, Schwarz- und Weisswert. Schwarz und Weiss sind durch 0 bzw. 255 auf jedem Sensor vorgegeben. Alle anderen Werte dazwischen werden gemessen. Einziges Problem sind hier die Rundungsdifferenzen (z.B. bei dem orange beleuchteten Pixel der Blauwert von eigentlich 7,65 [3% von 255]), die korrigiert werden müssen und die durch das "Rauschen" des Chips bei angelegter Spannung verursachten Fehler. Die muss man rausrechnen und je genauer das gelingt um so sauberer wird Dein Bild.

Fertig.

Gruss,

Browny.
Tja, so funktioniert das auch ... beim Bayer, :evil:
denn da ist jeder einzelne Sensorpixel prinzipiell unabhängig und liefert genau eine Farbe.:cool:

Beim Foveon sind die übereinander liegenden Pixel aber nun mal von einander abhängig.
Nur in Verbindung mit denen darunter liefern sie farbspezifische Werte ab.:grumble:

Noch mal: was Dir vorschwebt sieht für mich aus wie ein farbensehender Sensor ala Fuji.:cool:
Die könntest Du in x-belibiger Reihenfolge anordnen, das wäre egal,
denn theoretisch absorbieren die nur eine ganz bestimmte Wellenlänge
und lassen alls anderen unbeeinträchtigt durch.! :cool:

Tatsächlich habe ich etwas den Eindruck, als wenn Du das Pferd irgendwie von hinten aufzäumst, ;)
denn was Du da beschreibst ist eine recht gute Beschreibung wie "RGB" funktioniert: Ausgerechnet! :evil::ugly:

Schönen Gruß
Pitt
 
...rot :
meinst du,was jeder einzelne pixel(von den 4.6mp)tatsächlich an farbe generiert?

richtig.

alles andere verstehe ich schon.
du beschreibst wie ein farbpunkt(also der verrechnete wert eines pixels=3sensoren) gebildet wird.
...nicht der verrechnete Wert, denn gerechnet wird da nichts. Es wird gemessen, analog, dann im A/D-Wandler in einen digitalen Wert umgesetzt aus dem sich die Farbe automatisch ergibt. Kannst Du in PS nachvollziehen. Mach die Palette auf und schreibe die Werte für die einzelnen Farben, also die (jetzt mal angenommen) von den Sensorschichten gemessenen Werte in die Felder R, G und B. Das Ergebnis ist Deine Farbe nach der A/D Wandlung.
 
...
aber warum sollte man da mit rgb denken nicht weiterkommen?
die einzelnen sensoren mögen ja von einer idealmessung abweichen,was a)kalibriert werden konnte oder b) immer noch hinreichend genau ist,so dass bei gutem licht und weißabgleich auch korrekte farben entstehen können.
ob das mal hinhaut oder nicht,ist wohl nicht eine sache einer prinzipiell unzureichenden spektralen erfassung der einzelnen sensoren.
wenn teilweise falschfarben produziert werden,muß es an etwas anderem liegen,meiner meinung nach.
grüße

Zum Beispiel an den vertikalen Datenleitungen! :evil:
Oder daran, dass zuviel rotes licht von den oberen Sensoren detektiert wird. :rolleyes:

Schönen Gruß
Pitt
 
Tja, so funktioniert das auch ... beim Bayer, :evil:...

neeeee ! Alles Quatsch. Beim Bayer funktioniert das eben nicht so !!!! :grumble::grumble::grumble:

Die orange Farbe hat einen Blauanteil von 3% den fängt Deine blauempfindliche Schicht auf, einen Grünanteil von 53% - der bleibt in der grünempfindlichen Schicht hängen, denn weiter kommt er nicht in das Silizium und einen Rotanteil von 100%, der geht bis unten durch. Die A/D-Wandler jeder Schicht liefern nun die 3 Farbwerte, die Du nur noch zusammenrechnen musst um die, auf das Pixel treffende, Farbe zu bekommen. Es handelt sich dabei um einwandfreie Messwerte, wie bei einem digitalen Voltmeter, nur dass hier an 3 Stellen gleichzeitig gemessen wird.

Der Blausensor interessiert sich nicht für Grün und Rot, die lässt der einfach durch (Eindringtiefe und Wellenlänge), der Grüne bekommt nur noch sehr, sehr wenig Blau ab, liegt aber in dem Bereich, in welchen viel Grün eindringen kann und der Rote sieht halt nur noch den roten Lichtanteil, von dem der Grüne nichts wissen will oder kann, weil er einfach nicht tief genug drinsteckt (der Grüne) in dem Silizium.

So schwer kann das doch nicht sein.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten