• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Vergrößerungs-Potential Foveon-Fotos vs. Bayer-Fotos

  • Themenersteller Themenersteller Gast_51960
  • Erstellt am Erstellt am
  • Schlagworte Schlagworte
    foveon
In Bezug auf die Rauschentstehung stimme ich Dir zu. :)
 
... Da es ja gewisse Wahrscheinlichkeiten für die Kollision eines Photons mit einem Atom gibt, dürften die Eindringtiefen vermutlich einer Normalverteilung unterliegen.
...


theoretisch sollte man davon ausgehen,dass jedes photon signalrelevant ist.
was du funktionstechnisch mit einer normalverteilung der eindringtiefe meinst,ist mir nicht klar.

weitere fragen sind:

wie können photonen einen dotierten bereich durchdringen,ohne mitgezählt zu werden?
meine antwort wäre: die lichtgeschwindigkeit ist schneller als die reaktionsfähigkeit des energiewandlungsapperates.

wird in den subpixeln nuanciert gemessen oder alle werte zu grundfarben zusammengefasst?
falls nur reines rgb gemessen wird,wie soll daraus z.b.ein hellblau generiert werden?
eine fotografierte hellblaue wand löst nur signale im blausensor aus. gemischt kann da also nichts werden.

zu der information blau muß noch eine weitere information kommen,die sagt,dass es ein hellblau ist.

mir fällt da i.m. echt keine antwort für ein.
 
theoretisch sollte man davon ausgehen,dass jedes photon signalrelevant ist.
Abgesehen von der Quanteneffizienz: ja.

was du funktionstechnisch mit einer normalverteilung der eindringtiefe meinst,ist mir nicht klar.
Photonen gleicher Wellenlänge können in unterschiedlichen Tiefen ein Elektron auslösen. Im Mittel werden das aber die meisten Photonen in einem Bereich tun, welcher von ihrer Wellenlänge abhängt. So mögen sich also durchaus auch grüne Photonen im roten oder blauen Bereich niederschlagen; die Masse wird es im grünen tun. Ich nehme an, dass das ein Übriges zur problematischen Farbseparation beim X3 tut.

wie können photonen einen dotierten bereich durchdringen,ohne mitgezählt zu werden?
Eine Dotierung bedeutet ja zuerst einmal nur die Reduzierung der Bandlücke durch die Bereitstellung zusätzlicher ungebundener Elektronen/Löcher (Donatoren/Akzeptoren) im Valenzband. Ob ein Photon dann auch wirklich auch mit diesen kollidiert und dabei seine Energie zur Anhebung des [Defekt]elektrons in das Leitungsband abgibt, ist ja ein ganz anderes Thema.

meine antwort wäre: die lichtgeschwindigkeit ist schneller als die reaktionsfähigkeit des energiewandlungsapperates.
Ich denke nicht, da beides den gleichen physikalischen Gesetzen unterliegt. Es wird wohl wirklich allein an den Wahrscheinlichkeiten der Eindringtiefe liegen. Nach E=h*c/lambda haben rote Photonen eine (deutlich) niedrigere Energie und damit vermutlich auch eine deutlich niedrigere Kollisionswahrscheinlichkeit als blaue Photonen.

wird in den subpixeln nuanciert gemessen oder alle werte zu grundfarben zusammengefasst? falls nur reines rgb gemessen wird,wie soll daraus z.b.ein hellblau generiert werden? eine fotografierte hellblaue wand löst nur signale im blausensor aus.
Eine hellblaue (also nicht vollends blau gesättigte) Wand strahlt einen großen Teil Photonen verschiedener blauer Wellenlängen, aber auch einen kleinen Teil Photonen vieler anderer Wellenlängen aus. Die landen dann primär im Bereich des jeweiligen Sensors, so dass das RAW-Bild also ein starkes Signal im Blaukanal, aber auch ein geringes Signal im Rot- und Grünkanal enthält. So wie also fast jede Lichtquelle (z.B. ein schwarzer Strahler) Photonen aller möglichen Wellenlängen aussendet, reagieren auch die RGB-Schichten eines CMOS-Sensors auf verschiedene Wellenlängen gleichzeitig.

Womit wir dann wieder bei der schon besprochenen Absorptionskurve von Sensor und ggf. vorgeschaltetem Farbfilter wären.
 
...machts doch nicht so kompliziert.

Schon etwas älter, aber die uralte Physik dazu hat sich ja nicht geändert :
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.120.6831&rep=rep1&type=pdf
 
...machts doch nicht so kompliziert.
Du postest einen Link mit der Ankündigung, der würde den Sachverhalt vereinfachen. Was ich dann lese, ist aber ein Dokument, welches
- nichts zum Sachverhalt beiträgt
- nicht einmal etwas Neues oder Bestrittenes verkündet
- allein durch die Länge (für Englischunkundige auch durch die Sprache) sogar deutlich komplizierter ist
und welches vor allem
- wieder mal nur ein Lobgesang auf einen Foveon-Sensor ist.

Sag mal, was geht in einem vor, dass man immer wieder Sachen wiederholt, die von anderen gar nicht bestritten werden, mit dem Thema aber nichts zu tun haben?

Weisst Du, genau dieses Dokument habe ich vor etwas über 3 Jahren auch gewälzt, als ich mich für Sigma-Kameras interessierte. Damals gaben dann die Rauscharmut und höhere (Luminanz-) Auflösung den Ausschlag für eine Canon. Nun habe ich zwischenzeitlich auch eine SD14 - fotografiere auch ganz gern mal mit ihr - die 5DII (das ist dann mein Lobgesang) hat sie aber nie ersetzt. Sie ist schön für Erinnerungsfotos, wo mir sonst JPG bzw. eine Digiknipse reichen würde, hat aber schönere Farben und mehr Freistellung. Wenn ich aber Bilder nachbearbeiten möchte, bleibt die SD14 zuhause. Denn mit dem RAW, das ich in der Kameravorschau (bzw. dem eingebetteten JPEG) sehe, ist da nicht mehr all zu viel Potential übrig. Und seit einem Test im Juni letzten Jahres ist meine Entscheidung relativ eindeutig.
 
Photonen gleicher Wellenlänge können in unterschiedlichen Tiefen ein Elektron auslösen. Im Mittel werden das aber die meisten Photonen in einem Bereich tun, welcher von ihrer Wellenlänge abhängt. So mögen sich also durchaus auch grüne Photonen im roten oder blauen Bereich niederschlagen; die Masse wird es im grünen tun. Ich nehme an, dass das ein Übriges zur problematischen Farbseparation beim X3 tut.

hab ich mir auch so vorgestellt,dass du das meinst,nur ausgeschrieben ists deutlicher.

ansonsten gibt es erstmal nichts an deinen fundierten kurzdarstellungen auszusetzen.


Eine hellblaue (also nicht vollends blau gesättigte) Wand strahlt einen großen Teil Photonen verschiedener blauer Wellenlängen, aber auch einen kleinen Teil Photonen vieler anderer Wellenlängen aus. Die landen dann primär im Bereich des jeweiligen Sensors, so dass das RAW-Bild also ein starkes Signal im Blaukanal, aber auch ein geringes Signal im Rot- und Grünkanal enthält. So wie also fast jede Lichtquelle (z.B. ein schwarzer Strahler) Photonen aller möglichen Wellenlängen aussendet, reagieren auch die RGB-Schichten eines CMOS-Sensors auf verschiedene Wellenlängen gleichzeitig.

schöön,
offensichtlich und einfach
meine temporäre irritation rührte von der verquerten denkweise,dass die farben,die im spektralbereich der subpixel auftauchen auch hier selektiert werden.:rolleyes:
kann vorkommen,wenn man nur sensorbezogen denkt.
 
Ja, das ist das übliche Problem - dass wir im Alltag aufgrund unserer Illusion von Farbe eine Farbe (eigentlich Farbvalenz) mit dem spektralen Farbreiz verwechseln. Aber erst die Farbwahrnehmung macht aus der spektralen Verteilung unseren Sinneseindruck. Und das ist der Grund, warum das CIE-Normvalenzsystem eingeführt und darauf aufbauend die diversen Farbräume definiert wurden.

Edit: sehe gerade, dass ich Dich missverstanden habe. Will jetzt aber die Links nicht löschen - ich finde die erläutern die Zusammenhänge der Farben recht gut. :)
 
Zuletzt bearbeitet:
Du postest einen Link mit der Ankündigung, der würde den Sachverhalt vereinfachen. Was ich dann lese, ist aber ein Dokument, welches
- nichts zum Sachverhalt beiträgt
- nicht einmal etwas Neues oder Bestrittenes verkündet
- allein durch die Länge (für Englischunkundige auch durch die Sprache) sogar deutlich komplizierter ist
und welches vor allem
- wieder mal nur ein Lobgesang auf einen Foveon-Sensor ist.

Sag mal, was geht in einem vor, dass man immer wieder Sachen wiederholt, die von anderen gar nicht bestritten werden, mit dem Thema aber nichts zu tun haben? ...

Sooo - Lobgesang auf einen Foveon-Sensor : "Copyright 2003 Society of Photo-Optical Instrumentation Engineers"

...und nichts zum Sachverhalt beiträgt ? Mit dem Thema nichts zu tun haben ?

"3.2 Spectral characteristics
Even with the large changes in absorption depth with wavelength, the response curves of devices using the semiconductor material overlap considerably (Figure 6)9. The steep slope in the silicon curve in the 400-475 nm range provides substantial separation of the blue signal from the red and green below, but the relatively shallow slope above 475 nm results in a significant contribution of longer wavelength illumination to the top two signals. Fortunately, the relatively thin absorption regions of the top two diodes minimize this. In addition, some of the short-wavelength photons will make their way into the middle diode. It is this overlap that makes possible the discrimination of wavelength below 450 nm that is so difficult using color filters. The extended response at both ends of the visible spectrum also makes incorporation of a sharp-cut visible filter essential.
"

Genau hierin erklärt sich die Aufzeichnung der hellblauen Fläche als hellblaue Fläche und das wird dann hier vertieft dargestellt :

"4.3 Performance
The total quantum efficiency of the F7 at 625nm is approximately 49% including the effects of fill factor. Total quantum efficiency is over 45% from about 530nm to beyond 660nm. Testing is underway to establish the limits of wavelength response. The F7 is expected to have useful sensitivity extending from below 300nm to 1000nm or higher.

Well capacity is approximately 77,000 electrons per photodiode but the usual operating point (for restricted nonlinearity) corresponds to about 45,000 electrons. Photo response non-uniformity (PRNU) is less than ±1%. Several fixed-pattern and random noise reduction techniques have been incorporated into the F7 design to realize very good noise performance for the CMOS technology. The total fixed pattern noise from all sources is less than ±1%. The primary contributor to dark noise is ktC noise from diode reset. This noise is approximately 70 electrons. It is possible to reduce this to about 40 electrons by implementing a reset-read-expose-read cycle for the frame and then subtract the first frame from the second. Lag is zero.

The typical dynamic range of the F7 is 61db. This can be increased by the use of a larger portion of the non-linear portion of the transfer curve as long as care is taken to carefully correct the non-linearity. The signal-to-noise ratio is shot-noise limited with an exposure approximately 10% of the nominal maximum signal point. Dark current is approximately 1.0 nA/cm2 at 25C, allowing exposures up to several seconds without cooling. Noise contribution from dark current is very small and dark current uniformity is better than ±1%.
"

Schreibst Du Deine Antworten in dem Ton, weil die Fakten nicht in Dein Denkmodell passen ? Vielleicht sollte man endlich einmal aufhören nur 3-farbig selektiv in Rot, Grün und Blau zu denken sondern ein Spektrum auch als solches zu begreifen und zudem damit aufhören Photonen und ihre Energie wie Sandkörnchen darzustellen die aus einem Kristallgitter je nach zufälliger Auftreffgeschwindigkeit mehr oder weniger zufällig tief im Kristallgitter Elektronen- / Loch-Paare aus dem Silizium schiessen.

Gruss,

Browny.
 
Hey Browny,

Deine Überzeugung in allen Ehren - und ich kann auch nachvollziehen, sich davon ausgehend nicht so schnell was erzählen zu lassen:
ich sehe das ergebnisorientiert, und da kann Foveon weder auflösungstechnisch mithalten noch von der "Farbtreue" Vorteile einfahren.

Und auch die Sache mit dem Dynamikumfang ist nicht eindeutig (zumindest auf APS-C bezogen; wie das bei FF aussieht, kann ich mangels Erfahrung nicht sagen). Foveon hat, platt gesagt, Vorteile durch die Reserven in den hellen Partien. Das macht "expose to the right" besser realisierbar als mit dem oft hart und schnell clippenden CFA; dafür rauscht es schnell in den dunklen Partien beim oft notwendigen Aufhellen in den dunklen Partien in schwierigen Lichtsituationen mit hohem Dynamikumfang.

Rein aus dem Bauch heraus scheint mir das den menschlichen Sehgewohnheiten näher zu sein, als CFA und somit auch weniger "Frickelei" ebv-technischer Natur nach sich zu ziehen. Prinzipiell ist das aus meiner Sicht der "sauberere" Weg.
Trotzdem sehe ich das hier Gezeigte. Das sind eben die Fakten, wo Foveon sich, empirisch und technisch betrachtet, in vielen Bereichen geschlagen geben muss.

Nichtsdestotrotz ist Fotografie für mich nicht eine möglichst "realitätsgetreue" Abbildung (bin eh radikaler Konstruktivist ;-) ), sondern ist Malen mit Licht. Und dass dies natürlich auch mit Foveon sehr schön geht, zeigen beispielweise die Bilder von Felix oder Ines im SD14-Beispielfred.

Da braucht man keine Grabenkämpfe mit links zu diversen, technischen Papers rauszukramen - das ist einer angemessenen Darstellung der Gegebenheiten eher wenig zuträglich, obwohl im Verlauf dieses freds viele interessante Aspekte diskutiert und Beispiele gezeigt wurden - vielen Dank dafür an alle Beteiligten (und damit natürlich vor allem an all diejenigen, die durch ihre Beharrlichkeit und auch ihr Fachwissen oder "lediglich" ihre Sichtweise hier die Diskussion am Laufen gehalten haben)!

In diesem Sinne: immer gut Licht und möge doch jeder nach seine Facon glücklich werden.

VG,
Torsten

edit: und natürlich, wie hier auch schon oft formuliert wurde, hoffe ich, dass Foveon weiter entwickelt wird und wir einen Foveon bekommen werden, der mit gesteigerter Auflösung und besserer SNR dem CFA Konkurenz machen kann.
 
Zuletzt bearbeitet:
Hey Browny,

Deine Überzeugung in allen Ehren - und ich kann auch nachvollziehen, sich davon ausgehend nicht so schnell was erzählen zu lassen:
ich sehe das ergebnisorientiert, und da kann Foveon weder auflösungstechnisch mithalten noch von der "Farbtreue" Vorteile einfahren.
...

Zwei banale Beispiele :
Anhang anzeigen 1377502
Augenbrauen
Anhang anzeigen 1377503
Knopf
Anhang anzeigen 1377504

Anhang anzeigen 1377505
Anhang anzeigen 1377506

Was macht ein anderer Sensor hier besser ?

Zitat aus dem weiter oben verlinkten PDF :

"5.1 Optical considerations
Although the stacked photodiode structure eliminates artifacts generated by the offsets of the color receptors in color filter array sensors, some subtle effects remain that should be considered. First, there is a potential with stacked photodiodes to have the sensitivity vary with f-number because lower-angle rays might escape detection by escaping from the side of the diode. However, the diode geometry is designed to minimize this and the effect has not been demonstrated. Next, the presence of low-angle rays might shift the color response due to the variation in ray path length
through the silicon. This is possible, but because of the high index of refraction of silicon, incoming rays are bent strongly toward the normal. For most practical optics, the path length variation would be 20% at most. This effect could probably be demonstrated but has not yet been rigorously examined. Finally, the variation in absorption depth in silicon with temperature could result in a significant color shift in cryogenically-cooled cameras. This effect will need to be studied in detail and may require application of a set of temperature-dependent color matrix values. Similar effects are seen in two color single photodiodes.

Although the sensor optical effects are generally minor, the quality of the optics used with the stacked-photodiode sensors can seriously impact image quality. Most significant is chromatic aberration, which is quite visible in monochrome images taken with the F7. Generally, color filter arrays mask chromatic aberration because geometrically the effects are on the order of one pixel. However, F7 images clearly show radially-symmetric color fringing resulting from lenses that suffer from an excess of this problem. Similarly, unsharpness in focus, astigmatism, and other lens defects can have clearly-observable negative effects on images made with stacked-photodiode sensors. Users of the SD-9 camera have often noted how important it is to use the best optics in obtaining the highest image quality from these
sensors.
"

Mit anderen Worten Fehler in den verwendeten Objektiven wirken sich direkt in der Bildqualität der Aufnahmen aus. Selbst geringe CAs werden noch vom Sensor aufgelöst und mindern die Vergrösserbarkeit der Bilder. Wenn ich also mit qualitativ besseren Objektiven an den SDs arbeite erziele ich auch ausreichend hohe Bildqualität mit ausreichend Vergrösserungspotential. Achte bei Deinen Aufnahmen einfach einmal darauf.

Gruss,

Browny.
 
Zuletzt bearbeitet:
Zitat von KeinKorn
... Dass beim Foveon pro Bild mindestens genausoviel berechnet und zum Entrauschen interpoliert werden muss wie bei CFA-Sensoren haben wir ja inzwischen etabliert. ...

...ist bei Dir etabliert, ich erlebe es (fast) jeden Tag anders.

Was willst Du hier »anders erleben«?? Du blendest die Realität aus, das ist alles.
Die Interpolation zum Entrauschen macht SPP (sonst sehen die X3Fs aus wie mit nem Mobiltelefon geknipst, wie wir wissen). Und soll ich Dir zum 3. Mal vorrechnen ab welcher Printgröße beim X3F mehr Farbwerte dazugeraten werden müssen als bei einem Bild aus einer FF-DSLR (von denen Du ja keine kennst, wie wir wissen)?
Ist es so schwer zu kapieren dass Du mit Glauben und Werbe-Botschaften an mathematischen Fakten einfach nicht vorbeikommst?

Sooo - Lobgesang auf einen Foveon-Sensor : "Copyright 2003 Society of Photo-Optical Instrumentation Engineers"

Wer das Copyright auf das Paper hat ist doch irrelevant: Zumindest einer der Autoren hat zum Zeitpunkt der Veröffentlichung für Foveon gearbeitet, und der wird ja wohl kaum ein Produkt seines Arbeitgebers runtermachen.

...und nichts zum Sachverhalt beiträgt ? Mit dem Thema nichts zu tun haben ?

Der Sachverhalt um den es hier geht ist die Vergrößerungsfähigkeit von Foveon-Fotos im Vergleich zu aktuellen CFA-DSLRs.
Dazu trägt die in dem Paper enthaltene Beschreibung des Sensors der SD9 / SD10 nun wirklich gar nichts bei.
Oder möchtest Du hier den Nachweis führen dass sogar die SD9 / SD10 mit ihren sagenhaften 3,4MP höhere Gesamtauflösung bieten als aktuelle CFA-DSLRs? Das wird ja immer alberner.

Aber sei's drum -- was genau willst Du uns überhaupt mit den hier reingepasteten Stellen aus dem Paper vermitteln?

Genau hierin erklärt sich die Aufzeichnung der hellblauen Fläche als hellblaue Fläche und das wird dann hier vertieft dargestellt :

Wieso? In dem von Dir zitierten Satz werden die Probleme bei der Farb-Separation des Sensors in Abhängigkeit von der Wellenlänge beschrieben: Eben genau dass ein erheblicher Anteil an Photonen an einer falschen Tiefe im Silizium absorbiert wird (rot in den oberen beiden Schichten, blau in der Grünen). Effektiv das Problem dass in dem Artikel von Hasselblad beschrieben wird.
Und wie Du darauf kommst dass die Verrechnung der Signale aus den Sensor-Schichten durch eine Beschreibung der in der Sensor-HW und -FW integrierten Entrauschungs-Verfahren (soviel zu direkt ohne nachträgliche mathematische Behandlung gewonnenen Farbwerten!) sowie der Signal-Rausch-Charakteristik des Sensors hervorgeht darfst Du nochmal im Detail darlegen.

Vielleicht sollte man endlich einmal aufhören nur 3-farbig selektiv in Rot, Grün und Blau zu denken sondern ein Spektrum auch als solches zu begreifen und zudem damit aufhören Photonen und ihre Energie wie Sandkörnchen darzustellen die aus einem Kristallgitter je nach zufälliger Auftreffgeschwindigkeit mehr oder weniger zufällig tief im Kristallgitter Elektronen- / Loch-Paare aus dem Silizium schiessen.

Wem möchtest Du hier dermaßen infantile Vorstellungen unterstellen?
Und wesentlich interessanter: Wie wird denn dann Deiner Ansicht nach konkret aus einem Spektrum einfallender Photonen im Foveon-Sensor das resultierende RGB-Signal gebildet?
Das wird jetzt sehr spannend, zu sehen ob Deinen üblichen Mystifizierungs-Versuchen belastbare Fakten folgen.

Ansonsten find ich es -- wieder mal -- signifikant für die totale Stagnation in Sachen Weiterentwicklung des Konzepts Foveon dass wir hier über ein Paper diskutieren dass ein 7 Jahre altes Sensor-Design motivieren soll. Seitdem hat es genau einen neuen Sensor gegeben, mit dem der meiner Ansicht nach völlig falsche Weg der Pixel-Verkleinerung bei gleicher Sensor-Fläche gewählt wurde um die Gesamt-Auflösung um sagenhafte 25% zu steigern (wenn man dagegen bei gleichem Pixel-Pitch z.B. auf Crop 1,2 gegangen wäre wäre man mit über 7MP heute noch konkurrenzfähig was die Vergrößerungsfähigkeit angeht!)... und es ist auf Jahre hinaus keinerlei Innovation in Sicht :(.
 
Sooo - Lobgesang auf einen Foveon-Sensor : "Copyright 2003 Society of Photo-Optical Instrumentation Engineers"
Ich wusste schon beim Schreiben, dass exakt diese Antwort von Dir kommt. Ich kann aber auch lesen, wer der Autor ist ;)
Ich gehe zu Deinen Gunsten davon aus, dass Du zumindest sonst das Objekt einer Lobrede (worüber ich schrieb) von ihrem Autor unterscheiden kannst.

...und nichts zum Sachverhalt beiträgt ? Mit dem Thema nichts zu tun haben ?
Nun, da gibt es also diesen Absatz, der tatsächlich einen Teil des Threadthemas behandelt. Und trotzdem trägt er nach meiner Meinung nichts zum Sachverhalt bei, weil er außer genauen (für das Prinzip irrelevanten und sich ohnehin auf einen älteren Foveon-Sensor beziehenden) Daten keine Prinzipien erläutert, die hier im Thread nicht schon geklärt wurden. Der entscheidende Punkt aber ist: Du hast das Dokument als "weniger kompliziert" beworben und dass es das aufgrund Länge, Sprache, Ausdrucksweise nun gerade nicht ist, wieder einmal "vergessen".

Genau hierin erklärt sich die Aufzeichnung der hellblauen Fläche als hellblaue Fläche und das wird dann hier vertieft dargestellt :
Offensichtlich hat dem Fragesteller meine vorhergehende kürzere Erläuterung gereicht. Die Frage war also nicht, ob der Text das wiederholt, was schon einige Beiträge diverser Poster und auch einige Links vorher erläutert wurde, sondern ob Deine grossspurige Ankündigung der Unkompliziertheit ("warum so kompliziert") erfüllt wurde.

Schreibst Du Deine Antworten in dem Ton, weil die Fakten nicht in Dein Denkmodell passen ?
Den Ball kriegst Du zurück. Du wurdest inzwischen mehr als einmal und nicht nur von mir gebeten, auf Strohmann-Argumente und Nebelkerzen zu verzichten. Deine Abhandlungen über YUV-Verhältnisse und Auslesebandbreite sind, wenn Du wirklich nicht nur keine Ahnung hattest, schon dicht an der Grenze zu einer Chewbacca-Verteidigung gewesen. Mehr über das Thema gibt es z.B. hier (*).

Vielleicht sollte man endlich einmal aufhören nur 3-farbig selektiv in Rot, Grün und Blau zu denken sondern ein Spektrum auch als solches zu begreifen
Wer der Poster hier ist denn eigentlich genau "man"? Ich für meinen Teil habe, wenn ich das richtig sehe, deutlich vor Dir (und sogar zu Gunsten des Foveon) über die spektrale Absorptionskurve geschrieben.

und zudem damit aufhören Photonen und ihre Energie wie Sandkörnchen darzustellen die aus einem Kristallgitter je nach zufälliger Auftreffgeschwindigkeit mehr oder weniger zufällig tief im Kristallgitter Elektronen- / Loch-Paare aus dem Silizium schiessen.
Huiuiui jetzt wird es spannend. Wer hat denn von Sandkörnchen, Auftreffgeschwindigkeit und "mehr oder weniger zufälliger Tiefe" geschrieben? Das lese ich jetzt gerade irgendwie nur in Deinem Beitrag. Aber ich erläutere gern auch das:
- Den Welle-Teilchen Dualismus kennst Du? Dann weisst Du ja sicherlich auch, dass zur Erklärung des bereits verlinkten Photoelektrischen Effekts das Quantenmodell des Lichtes - vulgo Photonen - herangezogen wird. Von Sandkörnchen unterscheidet sie dann aber doch eine ganze Menge.
- Auftreffgeschwindigkeit. Tja. Was glaubst Du denn, wie groß die bei Photonen ist? ;) - Richtig: in der Regel die Lichtgeschwindigkeit im entsprechenden Medium. Da die Energie der Photonen sich aber aus h*c/lambda berechnet, ist diese für den Photoelektrischen Effekt komplett irrelevant. Denn mit c ändert sich i.d.R. lambda proportional. Und nein, eine geschwindigkeitsabhängige Energiekomponente ähnlich m/2*v^2 gibt es da nicht, weil Photonen nur eine relativistische, aber keine Ruhemasse haben (mal abgesehen davon, dass diese Formel bei v=c wohl eher nicht so gilt).
- Niemand hat von einer "mehr oder weniger zufälligen" Photoneneindringtiefe geschrieben. Ich habe von einer Normalverteilung geschrieben. Vielleicht gibst Du die Aussagen Anderer lieber wörtlich und im Kontext als mit eigenen Worten und bewusst sinnentstellend wieder. Sonst wird das langsam ein Fall für die Moderation.

Wer das Copyright auf das Paper hat ist doch irrelevant: Zumindest einer der Autoren hat zum Zeitpunkt der Veröffentlichung für Foveon gearbeitet, und der wird ja wohl kaum ein Produkt seines Arbeitgebers runtermachen.
Ich hatte schon überlegt, ob ich mir die Mühe dieser Überprüfung auch noch machen sollte. Danke dass Du das gemacht und meinen (nicht geäußerten) Verdacht bestätigt hast.

(*) Für alle, die bei Schopenhauer die gleiche Assoziation haben wie ich:
J-J-Jean-Paul-Sartre
Schopenhauer, Hegel, Kant, Wittgenstein, Wittgenstein
Heidegger, Sokrates, Nietzsche (buhh), Nietzsche (buhh)
.. und Beate Uhse :D
 
Zuletzt bearbeitet:
Zwei banale Beispiele :
...
Was macht ein anderer Sensor hier besser ?

  • Das fiese Bleeding von der Reflektion auf der Lehne der Bank in die Haare der linken Dame -- Trayloader hatte in diesem Thread schon ein ähnliches Problem-Bild eingestellt.
  • Das Brillengestell der linken Dame ist nur noch als Klötzchen-Salat gerendert, mit ner 5D II o.ä. wäre es noch klar aufgelöst.
Aber die Frage ist natürlich müßig, denn Du müsstest zu ihrer Beantwortung ein Vergleichs-Foto mit einer FF-DSLR einstellen, was Du nicht kannst, weil Du so ein Gerät nicht hast.
Wieder mal nur sinnloses Werbegetröte.
 
hab jetzt ein wenig mehr zeit, um nochmal konzentrierter auf dein posting einzugehen.

Photonen gleicher Wellenlänge können in unterschiedlichen Tiefen ein Elektron auslösen. Im Mittel werden das aber die meisten Photonen in einem Bereich tun, welcher von ihrer Wellenlänge abhängt. So mögen sich also durchaus auch grüne Photonen im roten oder blauen Bereich niederschlagen; die Masse wird es im grünen tun. Ich nehme an, dass das ein Übriges zur problematischen Farbseparation beim X3 tut.


ist es nicht eher so,dass photonen gleicher wellenlänge auch ein gleiches verhalten haben in bezug auf die eindringtiefe? einzig inhomogenes trägersubstrat kann da m.e. nach unregelmäßigkeiten verursachen.
gibt es da zahlen,wie hoch denn die ausfallrate ist?

Eine Dotierung bedeutet ja zuerst einmal nur die Reduzierung der Bandlücke durch die Bereitstellung zusätzlicher ungebundener Elektronen/Löcher (Donatoren/Akzeptoren) im Valenzband. Ob ein Photon dann auch wirklich auch mit diesen kollidiert und dabei seine Energie zur Anhebung des [Defekt]elektrons in das Leitungsband abgibt, ist ja ein ganz anderes Thema.

die dotierung/aufteilung des siliziums in p-n bereiche ist der photoelektrische bereich=photodiode.

meine frage war,wie es grün und rot schaffen,den blauen und rot schafft,den grünen sensor zu passieren,ohne ihre energie abzugeben. weniger gefragt habe ich nach einer allgemeinen wahrscheinlichkeit einer absorbtion.


Ich denke nicht, da beides den gleichen physikalischen Gesetzen unterliegt.

naja,irgendwie unterliegt alles den gleichen physikalischen gesetzen.
aber nehmen wir mal an,die lichtgeschwindigkeit wäre gleich schnell dem prozess der photoelektrischen umwandlung,dann wäre da noch der faktor der gerichtetheit von energie. die photonen wollen immerhin mit tempo lichtgeschwindigkeit geradeaus fliegen. auch wenn sie nur eine sehr geringe masse besitzen,reicht sie möglicherweise aus,um eine eindeutige präverenz gegenüber der kraft zu erzeugen,die sie am "weiterfliegen" hindern will.
nun könnte man noch annehmen,dass photonen auf ihrer reise langsamer werden,je nachdem,wie oft sie ausgebremst werden.
da wie du gezeigt hast,die roten bestandteile des lichtes über wenig energie verfügen,werden sie möglicherweise schneller opfer und erreichen nur schwierig ihr ziel. gerade ihre energielosigkeit führt zum vorzeitigen stillstand. wenn betroffene rote photonen dann auch noch kollidieren, würde so das ergebnis in zweifacher hinsicht verfälscht. rot fehlt information,grün hätte zuviel.

Es wird wohl wirklich allein an den Wahrscheinlichkeiten der Eindringtiefe liegen. Nach E=h*c/lambda haben rote Photonen eine (deutlich) niedrigere Energie und damit vermutlich auch eine deutlich niedrigere Kollisionswahrscheinlichkeit als blaue Photonen.

ich frage,warum nicht alles licht in blau absorbiert wird und du antwortest,es liegt an der wahrscheinlichkeit der eindringtiefe.:rolleyes:

also wenn die energiemenge eines photons das hauptkriterium für eine absorbtionswahrscheinlichkeit ist,warum sollten dann überhaupt die roten irgendwann mal ein elektron anregen? vielleicht aus mitleid oder weil halt nichts besseres da ist.
allgemein ergänzend sei darauf hingewiesen,dass natürlich nicht die energiestärke eines photons gemessen wird,sondern nur seine anwesenheit.

Eine hellblaue (also nicht vollends blau gesättigte) Wand strahlt einen großen Teil Photonen verschiedener blauer Wellenlängen, aber auch einen kleinen Teil Photonen vieler anderer Wellenlängen aus. Die landen dann primär im Bereich des jeweiligen Sensors, so dass das RAW-Bild also ein starkes Signal im Blaukanal, aber auch ein geringes Signal im Rot- und Grünkanal enthält. So wie also fast jede Lichtquelle (z.B. ein schwarzer Strahler) Photonen aller möglichen Wellenlängen aussendet, reagieren auch die RGB-Schichten eines CMOS-Sensors auf verschiedene Wellenlängen gleichzeitig.

ich werde mir da mal vorsichtshalber den tuschkasten(ich hoffe noch vorhanden) meiner töchter ausborgen.
dann nehme ich blau,ein wenig grün und rot,mal sehen:)
 
Zuletzt bearbeitet:
Hi Browny,

Um die Fehlinformationen mal etwas zu reduzieren:


Hier hatte ich schon vor Längerem einen Vergleich zwischen DP1s und DP1 Filter gezeigt...

forums.dpreview.com/forums/readflat.asp?forum=1027&thread=33787177&page=1

Zitat von Browny:

Bei SD9 und SD10 war dies sogar perfekt gelungen. Hier hatte man das Problem bei der nachgeschalteten Signalverarbeitung. So enthielt z.B. gerade der rote Bereich noch zuviele IR-Anteile (kann man bei diesen Kameras aber durch entsättigen des Bildes in SPP, verschieben des Rotkanals mit dem Hue-Regler in PS und anheben der Farbsättigung leicht korrigieren), die SD14 benutzte dann ein Bandpassfilter mit anderer Durchlasskurve und bewertete die Farbinformationen bei der Konvertierung in den RGB-Farbraum anders als ihre Vorgängerinnen.

Die DP1 hatte das Phänomen "roter Trauben" bei direkten Aufnahmen einer starken Lichtquelle. Das resultierte aus der falschen Distanz des Bandpassfilters zum Sensor und wurde meines Wissens in der DP2 und DP1s korrigiert.

"(Der A/D Wandler in der SD14 aber nicht, so er innerhalb seiner Spezifikationen betrieben wird, oder?)"
... A/D-Wandler werden immer innerhalb ihrer Spezifikationen betrieben sonst erhält man keine verwertbaren digitalen Signale. Rauschen entsteht bei allen elektronischen Bauteilen z.B. aus der Tatsache, dass Elektronen fliessen müssen. http://www.lte.ei.tum.de/lehre/eb_pr...V2_Theorie.pdf

Der Abstand zum Sensor ist der Tupfengleiche!
Nur das Substrat, die Beschichtung, die Filtercharakteristik und die Größe ist eine Andere. :D

(Leider wurde die Größe unnötig verändert - das war das einzig tadellose am DP1 Filter! :o)

..zu den A/D Wandlern:
Es sollte bekannt sein, dass deren Rauschverhalten auch von der Temperatur abhängt.
Ist Sie höher, als die in den Spezifikationen für ein gewisses Rauschlevel angegebene, erreicht der Wandler eben nicht seine Spezifikation, sondern Rauscht mehr.
Dem Sensor geht es genauso, deshalb hatte ich ja schon vor fast 2 Jahren (in einem anderen Forum) darauf hingewiesen, dass man nach Möglichkeit das Temperaturverhalten der Kamera verbessern müsste und um bereits jetzt rauschärmere Aufnahmen machen zu können, seine Kamera nach Möglichkeit nicht vorwärmen sollte! :eek:

...das Alles trägt in seiner Wirkung auch zum Vergrößerungspotential von Bildern bei, da diese weniger Softwaremäßig vorbereitet werden müssen, wenn Sie schon gleich rauschärmer und mit der gleichen Dynamik in Allen Farben aufgenommen werden können.


Uli

P.S.:
Das dein Kommentar zum SD9 und SD10 Filter kaum stimmen kann, sollte nicht nur Dir einleuchten...
...wäre es perfekt gelungen, hätten die Farben gestimmt und eine zusätzliche Softwarekorrektur wäre nicht nötig gewesen.
:ugly:

damit auch Du das mit dem Filterabstand noch besser verstehst, schau dir doch einfach mal die Vergleichsfotos von DP1, DP2 und DP1s bei dem von mir erwähnten Hinweis auf .dpreview.com (der auch die Unterschiedlichen Filter der DP1 und DP1s zeigt) an.

Da sieht man m.E. schön die unterschiedliche Ausprägung der sogenannten "roten Trauben" - nicht nur in sachen Farbe und Intensität, sondern auch in ihrer Größe! :D

Die der DP1 sind gleich groß, wie die der DP1s.
Die DP2 hat größere...

Da kann man selbst ohne Demontage, oder weiteres Wissen, allein aufgrund der Geometrie der Reflektionen erkennen, dass der für die Reflexe relevante Abstand in der DP1 und DP1s der gleiche ist... ;)


Uli

P.S.:
Du darfst gerne noch ein paar Patente zu dem Thema verlinken, deine Aussage "Die DP1 hatte das Phänomen "roter Trauben" bei direkten Aufnahmen einer starken Lichtquelle. Das resultierte aus der falschen Distanz des Bandpassfilters zum Sensor und wurde meines Wissens in der DP2 und DP1s korrigiert." macht das aber auch nicht richtiger... :o
 
Ja, das ist das übliche Problem - dass wir im Alltag aufgrund unserer Illusion von Farbe eine Farbe (eigentlich Farbvalenz) mit dem spektralen Farbreiz verwechseln. Aber erst die Farbwahrnehmung macht aus der spektralen Verteilung unseren Sinneseindruck. Und das ist der Grund, warum das CIE-Normvalenzsystem eingeführt und darauf aufbauend die diversen Farbräume definiert wurden.

Edit: sehe gerade, dass ich Dich missverstanden habe. Will jetzt aber die Links nicht löschen - ich finde die erläutern die Zusammenhänge der Farben recht gut. :)

ich hab jetzt wirklich mal ausprobiert,mit tusche,filzer und ölfarbe ein hellblau zu kreieren.
ist nicht gelungen.das beste ergebnis war noch ein helleres grüngraublau,ansonsten die tendenz undefinierter matschfarbe in richtung dunkel. das ergebnis hätte ich normalerweise auch schon so prognostizieren können. möglich muß es sein,da es eine unumstößlich tatsache ist,dass aus rgb jede farbe darstellbar ist. soviel zur theorie und praxis;),bzw. reale farbwahrnehmung und digitaler möglichkeit,sich reiner spektralfarben zu bedienen.
 
Hallo lumicha,

mir scheint angesichts deiner jetztigen Nachfrage an ***** (https://www.dslr-forum.de/showpost.php?p=6848808&postcount=374), dass dir trotz meines kleinen Vergleichsbeispiels hier (im P.P.S.: zu finden):

https://www.dslr-forum.de/showpost.php?p=6713805&postcount=14

https://www.dslr-forum.de/showthread.php?p=6715993#post6715993

und der später selbst von Browny interessant ähnlich verglichenen Absorptions- Vorgänge und der bisherigen Ausführungen von *****, Dir das Themengebiet an sich noch ziemlich fremd ist.

Da weitere für dich klärende Ausführungen daher m.E. wohl aufwändiger werden könnten und vielleicht ***** sich tatsächlich die Zeit für eine ausführliche Erklärung nimmt, fände ich es sinnvoll diese Frage(n) in ein neues Thema auszugliedern.


Uli
 
Da weitere für dich klärende Ausführungen daher m.E. wohl aufwändiger werden könnten und vielleicht ***** sich tatsächlich die Zeit für eine ausführliche Erklärung nimmt, fände ich es sinnvoll diese Frage(n) in ein neues Thema auszugliedern.
Hallo Uli,
der Vorschlag ist sehr gut. Da ich aber eigentlich hoffe, die restlichen Fragen mit einigen Links aufklären zu können, mache ich das an der Stelle noch nicht.
Lumischa: solltest Du nach den Links doch noch Fragen haben, würde ich Dich bitten, dass Du dann einen neuen Thread aufmachst, z.B. in Foto-Talk. Wenn Du mir den Link zum Thread dann per PN schickst, werde ich ihn sicherlich auch nicht übersehen. :)

ist es nicht eher so,dass photonen gleicher wellenlänge auch ein gleiches verhalten haben in bezug auf die eindringtiefe?
Im Mittelwert der Tiefen, wo ein Elektron ausgelöst wird. Da der photoelektrische Effekt mit dem Teilchencharakter der Photonen erklärt wird, welcher wiederum auf der Quantenmechanik beruht und diese nur Wahrscheinlichkeiten beschreibt, welche in der Regel der gaußschen Normalverteilung unterliegen, findest Du bei genau selbiger die Verteilung der Eindringtiefen.

die dotierung/aufteilung des siliziums in p-n bereiche ist der photoelektrische bereich=photodiode. meine frage war,wie es grün und rot schaffen,den blauen und rot schafft, den grünen sensor zu passieren,ohne ihre energie abzugeben. weniger gefragt habe ich nach einer allgemeinen wahrscheinlichkeit einer absorbtion.
Nur die ist aber dafür verantwortlich, dass es auch zum photoelektrischen Effekt, also der Auslösung eines Elektrons aus dem Valenz- in das Leitungsband kommt. Die Dotierung dient nur dazu, die Bandlücke zwischen beiden Bändern zu reduzieren, also dafür zu sorgen, dass die von den Photonen mitgebrachte Energie überhaupt zur Auslösung eines Elektrons reicht. Sie bedeutet aber nicht, dass ein Photon zwangsweise an genau dieser Stelle das auch tut.

die photonen wollen immerhin mit tempo lichtgeschwindigkeit geradeaus fliegen. auch wenn sie nur eine sehr geringe masse besitzen,reicht sie möglicherweise aus,um eine eindeutige präverenz gegenüber der kraft zu erzeugen,die sie am "weiterfliegen" hindern will.
Was Du meinst, ist der sog. Compton-Effekt. Aufgrund der im Vergleich zum Elektron äußerst geringen "relativistischen Masse" des Photons tritt er aber erst nennenswert bei deutlich kurzwelligerer Strahlung als Licht auf.

nun könnte man noch annehmen,dass photonen auf ihrer reise langsamer werden,je nachdem,wie oft sie ausgebremst werden.
Bei den Wellenlängen des Lichtes ist quasi jede stattfindende "Kollision" eine plastische mit vollständiger Energieabgabe, s.o..

ich frage,warum nicht alles licht in blau absorbiert wird und du antwortest,es liegt an der wahrscheinlichkeit der eindringtiefe.:rolleyes:
Tut es auch, ätsch. :rolleyes:

also wenn die energiemenge eines photons das hauptkriterium für eine absorbtionswahrscheinlichkeit ist,warum sollten dann überhaupt die roten irgendwann mal ein elektron anregen? vielleicht aus mitleid oder weil halt nichts besseres da ist.
Oder weil ihre Wellenlänge auch nur um Faktor 2 größer ist als die von blau.

ich hab jetzt wirklich mal ausprobiert,mit tusche,filzer und ölfarbe ein hellblau zu kreieren. ist nicht gelungen.
Kann auch nicht. Was bisher mit RGB beschrieben wurde, ist die additive Farbmischung aktiver Lichtquellen. Was Du getestet hast, ist die subtraktive Farbmischung passiver bzw. reflektierter Farben. Das übliche Farbmodell hierbei ist CMY(K). Wenn Du mit blau auf eine reflektierende Fläche malst, werden die nichtblauen Anteile des Spektrums verschluckt. Durch weiteres Zumischen kannst Du nur weitere Anteile verschlucken, aber nicht die für hellblau notwendigen geringen rot/grün-Anteile "zumischen".

Ich hoffe, ich konnte damit alle verbliebenen Fragen (kurz genug) aufklären. Wenn nicht, bitte wie gesagt einen neuen Thread im Foto-Talk und kurze PN.
 
Zitat von lumischa
ich frage,warum nicht alles licht in blau absorbiert wird und du antwortest,es liegt an der wahrscheinlichkeit der eindringtiefe.


Tut es auch, ätsch. :rolleyes:

Tja und genau das ist der Knackpunkt an dem ganzen Foveon-Tischfeuerwerk. Die Wahrscheinlichkeits-Verteilung der Absorption über der Tiefe im Halbleiter-Substrat muss das Maximum an einer Stelle haben die von der Wellenlänge des Photons abhängig ist.
Meinem Verständnis nach geht das mathematisch nur auf wenn man die Wellen-Funktion aufstellt für das Gesamt-System Halbleiter + Photon. Ich habe auch schon mal versucht Papers zu finden die im Detail auf die wellenlängenabhängige Absorptions-Tiefe eingehen, aber ohne jeden Treffer... nun frage mich ob die Jungs aus der Festkörper-Fakultät überhaupt schon so weit sind derartig komplexe Systeme (überlegt Euch mal wieviele Silizium-Atome in das Modell eingehen müssen!!) in Gleichungen zu fassen, geschweige denn das dann quantitativ zu modellieren.
Evtl. haben die Frickler bei Foveon Inc. sogar »nur« experimentell durch sehr viel Basteln (= buchstäblich Tausende von Sensor-Prototypen) rausgefunden wo genau die p-n Grenzflächen im Sensor-Stack zu plazieren sind, ohne ein auch nur halbwegs vollständiges theoretisch abgesichertes Modell...
 
Zuletzt bearbeitet:
Naja.. ansatzweise kann man das schon berechnen; das meiste wird wohl über Simulation gelaufen sind und sicherlich werden sie auch einige Prototypen verballert haben. Wenn ich mich nicht irre, ging es Foveon ja vor der Übernahme durch Sigma finanziell nicht mehr so rosig.
 
WERBUNG
Zurück
Oben Unten