• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Charakter des Foveonrauschens

So schwer kann das doch nicht sein.
Offensichtlich doch. Vielleicht sollten sich die Foveon-Jünger mal mit den Grundlagen beschäftigen. Ich empfehle als Literatur die US-Patente 4011016 und 4309604.
 
neeeee ! Alles Quatsch. Beim Bayer funktioniert das eben nicht so !!!! :grumble::grumble::grumble:

Die orange Farbe hat einen Blauanteil von 3% den fängt Deine blauempfindliche Schicht auf, einen Grünanteil von 53% - der bleibt in der grünempfindlichen Schicht hängen, denn weiter kommt er nicht in das Silizium und einen Rotanteil von 100%, der geht bis unten durch. Die A/D-Wandler jeder Schicht liefern nun die 3 Farbwerte, die Du nur noch zusammenrechnen musst um die, auf das Pixel treffende, Farbe zu kommen. Es handelt sich dabei um einwandfreie Messwerte, wie bei einem digitalen Voltmeter, nur das hier an 3 Stellen gleichzeitig gemessen wird.

So schwer kann das doch nicht sein.
Eben! so schwer ist das nicht!

Was hast Du davon, wenn das Silizium die richtigen Photonen in die richtige Tiefe durchläßt,
wenn sie dann nicht ein "A/D-Wandler" einsammelt. (Nennt sich "Sensor"! :evil:)

Und dieser Sensor schluckt farbunspezifisch, er sieht nämlich keine Farbe,
sondern er detektiert die Photonen unabhängig von ihrer Farbe.

Er besteht nämlich gar nicht aus Silizium! :grumble:

Also kann der jeweilige Pixel nur die unterschiedlichen Ladungsniveaus in der jeweiligen Subpixeletage feststellen.

Der oberste ist kaum mehr als ein Belichtungsmesser.
Der registriert einfach die Helligkeit an der Oberfläche.

Der mittlere registriert bei weißem Licht maximal 2/3 und der unterste maximal nur 1/3 der Photonenmenge des Obersten.;)

Wenn die gemessenen Werte jetzt jeweils geringer sind, als 1/3 = Rot, bzw 2/3 grün und 3/3 bei Blau, :evil:
dann kann der Sensor daraus die Abweichung von der jeweiligen Referenzfarbe ermitteln.

Die wiederum erhälst Du bei den oberen Subsensoren nur, indem Du die jeweils darunter gelegenen subtrahierst.
Für sich alleine betrachtet sind die Sensoren nämlich ziemlich sinnfrei. :evil:

Das meinte ich mit "abhängig" beim Foveon!

Beim Bayer sind die Farben alle gleich, 1/3, da braucht nix gemittelt oder sonst wie in Bezug zu einander gebracht werden. :cool:

Schönen Gruß
Pitt
 
...ob das mal hinhaut oder nicht,ist wohl nicht eine sache einer prinzipiell unzureichenden spektralen erfassung der einzelnen sensoren.
wenn teilweise falschfarben produziert werden,muß es an etwas anderem liegen,meiner meinung nach.
...
...es liegt zum einen an dem, durch den "Lochstrom" produzierten Rauschen des Siliziums und zum anderen an der Berechnung des Luminanzwertes. Rauschen sind "Störspitzen" innerhalb des Signals und werden u.U. beim generieren des Luminanzwertes überbewertet, wodurch dann Farbflecken entstehen, denn Rauschen ist kein gleichmäßiges, regelmäßig wiederkehrendes Signal welches man berechnen könnte, sondern eine Folge zufällig auftretender Störimpulse ohne zeitliche Regelmäßigkeit und damit unberechenbar.

Das Ergebnis sind dann die bekannten Farbflecken, da an diesen Stellen die Berechnung des Luminanzsignals dem Rauschen einen zu hohen Wert zugewiesen hat. Somit haben diese Stellen einen zu hohen Helligkeitswert und - da vom Rauschen und nicht aus der Messung resultierend - einen irrelevanten Farbwert.

Gruss,

Browny.
 
Eben! so schwer ist das nicht!

Was hast Du davon, wenn das Silizium die richtigen Photonen in die richtige Tiefe durchläßt,
wenn sie dann nicht ein "A/D-Wandler" einsammelt. (Nennt sich "Sensor"! :evil:)

...
...ach da liegt Dein Denkfehler !

Ein (Foto-)Sensor ist kein A/D-Wandler. Ein Sensor liefert immer nur ein analoges Signal, welches erst durch ein geeignetes Bauteil in digitale Impulse umgesetzt werden muss. Erst mit diesen kannst Du dann rechnen in Bits und Bytes. Mit dem vom Sensor gelieferten Signal kannst Du eventuell den Zeiger eines µAmperemeters zum Ausschlag bringen, aber mehr nicht (siehe Belichtungsmesser).

Gruss,

Browny.
 
Zuletzt bearbeitet:
...
Und dieser Sensor schluckt farbunspezifisch, er sieht nämlich keine Farbe,
sondern er detektiert die Photonen unabhängig von ihrer Farbe.

Er besteht nämlich gar nicht aus Silizium! :grumble:

Also kann der jeweilige Pixel nur die unterschiedlichen Ladungsniveaus in der jeweiligen Subpixeletage feststellen.

...
... eben - und die "Subpixeletagen" sind halt nun einmal durch die unterschiedliche Eindringtiefe unterschiedlicher Wellenlängen farbselektiv.
 
richtig.

...nicht der verrechnete Wert, denn gerechnet wird da nichts. Es wird gemessen, analog, dann im A/D-Wandler in einen digitalen Wert umgesetzt aus dem sich die Farbe automatisch ergibt. Kannst Du in PS nachvollziehen. Mach die Palette auf und schreibe die Werte für die einzelnen Farben, also die (jetzt mal angenommen) von den Sensorschichten gemessenen Werte in die Felder R, G und B. Das Ergebnis ist Deine Farbe nach der A/D Wandlung.

rot
wenn du von der farbe,die ein pixel generiert sprichst,dann ist die gerechnet,ansonsten werden ladungen/entladungen=spannung gemessen,das stimmt schon.

grün
indirekt automatisch schon.
ansonsten hat der wandler ausschließlich die aufgabe,die analogen signale in digitale umzuwandeln.dies paket geht dann in den prozessor und der verrechnet die 3 werte eines pixels und ordnet die danach der jeweiligen farbe zu.zunächst wird wohl grün und blau gerechnet und das ergebnis dann mit rot.
und hier ist meiner meinung nach auch die quelle so manchen übels zu suchen.

blau
die entgültige farbe verlässt erst den prozessor.

grüße
 
...denn Rauschen ist kein gleichmäßiges, regelmäßig wiederkehrendes Signal welches man berechnen könnte, sondern eine Folge zufällig auftretender Störimpulse ohne zeitliche Regelmäßigkeit und damit unberechenbar.

Das Ergebnis sind dann die bekannten Farbflecken, da an diesen Stellen die Berechnung des Luminanzsignals dem Rauschen einen zu hohen Wert zugewiesen hat. Somit haben diese Stellen einen zu hohen Helligkeitswert und - da vom Rauschen und nicht aus der Messung resultierend - einen irrelevanten Farbwert.

Gruss,

Browny.

mindestens teilweise gut nachvollziehbar:top:
verständlich und plausibel
 
...ach da liegt Dein Denkfehler !

Ein (Foto-)Sensor ist kein A/D-Wandler. Ein Sensor liefert immer nur ein analoges Signal, welches erst durch ein geeignetes Bauteil in digitale Impulse umgesetzt werden muss. Erst mit diesen kannst Du dann rechnen in Bits und Bytes. Mit dem vom Sensor gelieferten Signal kannst Du eventuell den Zeiger eines µAmperemeters zum Ausschlag bringen, aber mehr nicht (siehe Belichtungsmesser).

Gruss,

Browny.

ich glaube der halbe thread bezieht seine energie aus missverständnissen:D

ich glaube nicht,browny,das skater das so meint,wie du meinst,dass er das meint:o

ich glaube,skater hat deine letzte grafik nicht richtig eingeordnet und geht davon aus,dass du von a/d wandlern sprichst,anstatt von sensoren.
dabei war die zeichnung doch nur rein hypothetisch gemeint,angenommen es wäre so...
 
...ach da liegt Dein Denkfehler !

Ein (Foto-)Sensor ist kein A/D-Wandler. Ein Sensor liefert immer nur ein analoges Signal, welches erst durch ein geeignetes Bauteil in digitale Impulse umgesetzt werden muss. Erst mit diesen kannst Du dann rechnen in Bits und Bytes. Mit dem vom Sensor gelieferten Signal kannst Du eventuell den Zeiger eines µAmperemeters zum Ausschlag bringen, aber mehr nicht (siehe Belichtungsmesser).

Gruss,

Browny.

Genau so ist es. Ein Sensor ist nichts weiter als ein Messgerät, welches viele Messpunkte zur Verfügung hat.

Gruß Sven
 
Das wird Browny damit ja meinen. Und Du meinst sicherlich nicht Silikon sondern Silizium. Den das Silikon das kann.....? Dann könnte man ja jede Kunstbrust zum Sensor umbauen;).
Nee das funktioniert nun wirklich nicht.

Gruß Sven

ich sach ja,wenn man haare spalten will.

sorry für den freudschen versprecher:cool:,obgleich man schon ein implantat verwenden könnte. man bräuchte dann nur noch das silizium extrahieren.

grüße
 
Zuletzt bearbeitet:
Um die Verwirrung komplett zu machen :

Anhang anzeigen 671377

Der Farbwert wird gemessen - sonst nix.

Gruss,

Browny.

löblich,
dennoch habe ich das gefühl,als wenn du von photoshop aus rückwärts denkst:cool:

um missverständnissen vorzubeugen,deiner meinung nach werden vom foveon sensor aus drei a/d wandler angesteuert,also einer pro farbschicht?


ansonsten denkst du echt rückwärts.
die sensoren geben ja keine prozente von irgendwas raus,sondern verstärkte stromspannungen.
aber wie kommst du darauf,dass die signale in einer matrix vor den a/d wandlern verrechnet werden?
so eine matrix ist doch total überflüssig,finde ich.
warum sollten die signale der dioden nicht direkt,meinetwegen in einen,einer ebene zugeordneten wandler fließen und von dort direkt in den prozessor,wo dann die verrechnung pro pixel und die zuordnung des errechneten wertes zu einer farbe,z.b. orange,stattfindet.
ich kann mir jetzt nicht vorstellen,dass analoge signale besser verrechnet werden können.ah,jetzt verstehe ich vielleicht,warum du immer auf "farbe messen"hinaus willst:evil: klar,passt besser in dein schema rein:ugly:
fragt sich nur,wie man ein messwert vom anderen abziehen will:rolleyes:

und deine digitalen werte,entsprechend orange,könnten auch xyz heißen,wenn die engine nachher xyz dem orange zuordnet.

grüße
 
Um die Verwirrung komplett zu machen :

Anhang anzeigen 671377

Der Farbwert wird gemessen - sonst nix.
...

Seufz. :rolleyes:

Ja wie denn bitte! :eek::grumble:

Hälst du den Finger ans Silizium oder teilt Dir das Material telepathisch mit was los ist? :rolleyes:
Was glaubst Du denn, wie nützlich eine Info ist, an die Du nicht herankommst? :evil:

Dein Schema erklärt nämlich überhaupt nicht,
wie Deine Schaltung eigentlich an die, im Silizium enthaltene, Farbinfo herankommen will,
bzw. wie genau sie aus dem Silizium ausgelesen werden soll. :grumble:

Nochmal: Die eigentlichen Sensorpixel sind farbenblind.
Das sind stinknormale Luminanz-Sensoren, die ausschließlich "schwarz-weiß "sehen" können. :cool:

Und schlimmer noch: die beiden oberen Subpixeletagen sind auch noch total überbelichtet,
vollkommen wertlos.... nix mehr zu retten... :ugly::evil::lol:

Also noch mal auf Anfang:
Weil meine vorherigen Zeichnungen offensichtlich zu unübersichtlich waren,
und weil ich, dank Euch, inzwischen ja auch wieder ein paar weitere Aspekte dazugelernt habe,
habe ich wieder mal was gemalt, dieses mal sogar mit Rechen-Beispiel! :p :rolleyes:

Und damit ich nicht wieder Verwirrung stifte, was die Farbigkeit des Silizium angeht,
habe ich ein monochromes Beispiel gewählt, und das Silizium selber auch monochrom dargestellt. ;)

Außerdem habe ich die Zahlenwerte und Formeln mit der jeweiligen Ergebnis- oder Zwischenfarbe unterlegt.
Vielleicht erleichtert das ja das Verständnis etwas. ;)

Schönen Gruß
Pitt

Edit: ich habe die Zeichnung doch noch mal geändert.
Es ist doch etwas übersichtlicher, wenn die etwaigen Farben unterlegt sind.
 
Zuletzt bearbeitet:
Seufz. :rolleyes:

Ja wie denn bitte! :eek::grumble:

Hälst du den Finger ans Silizium oder teilt Dir das Material telepathisch mit was los ist? :rolleyes:
Was glaubst Du denn, wie nützlich eine Info ist, an die Du nicht herankommst? :evil: ...

arrrrg !!! :ugly:

"United States Patent 4011016

A double-layer photodiode is created in an integral structure to form two diodes, the upper diode having a relatively thin active region and the lower diode a relatively thick active region.

Light whose wavelength is to be measured is directed onto the upper diode. The thickness of the first diode is chosen so that, in the spectrum of light wavelengths being measured, the energy of the shortest wavelength is entirely absorbed therein.

As the radiation wavelength increases, the absorption by the upper diode decreases exponentially, and the unabsorbed light is transmitted through the thin active region into the thick active region of the lower diode where it is absorbed.

The thickness of the active region of the lower diode is chosen so that it absorbs substantially all of the energy of longest wavelength in the spectrum being measured.

The absorption of the photon energy in each diode creates electron-hole pairs therein which produce in each diode a change in conductivity which is proportional to the absorbed energy.

Therefore, since the difference in conductivities of the two diodes is a function of the wavelength of the incident light, as the wavelength changes, the difference between changes in the conductivity of the two diodes, divided by the sum of the changes in conductivity, is a function which is a single-valued function of the wavelength of the incident light and which is independent of the intensity of the incident light.

A measuring circuit connected to the double-layer diode provides a direct reading of the wavelength.
"

Jetzt brauchst Du für "wavelength" nur noch FARBE einzusetzen und wirst feststellen, dass die Sensordioden wohl doch farbselektiv - je nach Dicke und Einbettungstiefe des Sensors im Silizium - auf einen bestimmten schmalen Bereich des Wellenlängengemischs des Lichtspektrums ansprechen.

Die Berechnung die Du aufzeigen willst ist fast richtig und findet im Signalprozessor statt, jedoch nicht mit den von Dir angenommenen Intensitätswerten sondern mit den Prozentwerten der gemessenen Farbe innerhalb des Farbspektrums des gemessenen Lichtes welches auf das Pixel trifft.

Die Farbseparation ist völlig unabhängig von der Intensität der gemessenen Farbe innerhalb des Lichtspektrums und gibt direkt den prozentualen Anteil der jeweiligen Farbe (R,G,B) innerhalb des einfallenden Lichtes wieder.

Der einzelne Farbsensor "sieht", entgegen Deiner Annahme, doch Farbe (Wellenlänge des Lichts innerhalb des Spektrums, daher habe ich mein Beispiel auch mit orangefarbenen Licht dargestellt). Was nicht gemessen werden kann ist der Helligkeitswert des Lichtes. Die Farberkennung ist völlig unabhängig von der Lichthelligkeit.

Diese Unabhängigkeit von der Lichthelligkeit (Luminanz) ist aber andererseits auch das Problem bei der Anwendung dieses Prinzips für die Fotografie. Du musst nämlich die Helligkeitswerte (das Luminanzsignal zu jeder Farbe auf jedem Pixel) auch gewinnen und da wird´s dann etwas schwieriger. Hierin liegt auch der Grund für das "Foveon spezifische" Rauschen in den X3F-Bildern.

Gruss,

Browny.
 
Zuletzt bearbeitet:
löblich,
dennoch habe ich das gefühl,als wenn du von photoshop aus rückwärts denkst:cool:

um missverständnissen vorzubeugen,deiner meinung nach werden vom foveon sensor aus drei a/d wandler angesteuert,also einer pro farbschicht?

...
...na ja - Du kannst auch jedem der 4,7Mio. Pixel drei 8 Bit A/D-Wandler mitgeben, bloß - wer bezahlt dann den Sensor noch ?

...ich kann mir jetzt nicht vorstellen,dass analoge signale besser verrechnet werden können.ah,jetzt verstehe ich vielleicht,warum du immer auf "farbe messen"hinaus willst klar,passt besser in dein schema rein fragt sich nur,wie man ein messwert vom anderen abziehen will...

Und nochmal - die Farbe wird direkt gemessen, nicht er- / verrechnet :

Light whose wavelength is to be measured is directed onto the upper diode. The thickness of the first diode is chosen so that, in the spectrum of light wavelengths being measured, the energy of the shortest wavelength is entirely absorbed therein.

As the radiation wavelength increases, the absorption by the upper diode decreases exponentially, and the unabsorbed light is transmitted through the thin active region into the thick active region of the lower diode where it is absorbed.


Und zu PS (oder EBV-Software allgemein) - da liegt ein weiteres Problem. Der Sensor ist in der Lage direkte Farbinformationen zu liefern. Diese müssen dann aber zu RAW-Files umgerechnet werden, welche man wieder rückwärts konvertieren kann damit sie dem bisherigen Standard in der Bildverarbeitung nach RGB / AdobeRGB entsprechen.

Gruss,

Browny.
 
Zuletzt bearbeitet:
So langsam verstehe ich auch die Leute, die sich über "Foveon Jünger" lustig machen.

Da gibt´s doch tatsächlich "Fotografen" die, ganz stolz, mit einem Kamerasystem arbeiten welches nach ganz anderen physikalischen Grundlagen funktioniert, als das übliche Bayer-Prinzip und dann versuchen die dieses Prizip nach Bayer-Grundlagen zu verstehen. Mit farbenblinden Sensoren, die sie in eine Siliziumschicht stecken um mit der unterschiedlichen Eindringtiefe der Spektralanteile von Licht in Silizium das Bayer-Filter zu ersetzen. :rolleyes:

Hiiiilllfffeeee ! :evil:
 
WERBUNG
Zurück
Oben Unten