Gast_48373
Guest
In Bezug auf die Rauschentstehung stimme ich Dir zu. 

Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
... Da es ja gewisse Wahrscheinlichkeiten für die Kollision eines Photons mit einem Atom gibt, dürften die Eindringtiefen vermutlich einer Normalverteilung unterliegen.
...
Abgesehen von der Quanteneffizienz: ja.theoretisch sollte man davon ausgehen,dass jedes photon signalrelevant ist.
Photonen gleicher Wellenlänge können in unterschiedlichen Tiefen ein Elektron auslösen. Im Mittel werden das aber die meisten Photonen in einem Bereich tun, welcher von ihrer Wellenlänge abhängt. So mögen sich also durchaus auch grüne Photonen im roten oder blauen Bereich niederschlagen; die Masse wird es im grünen tun. Ich nehme an, dass das ein Übriges zur problematischen Farbseparation beim X3 tut.was du funktionstechnisch mit einer normalverteilung der eindringtiefe meinst,ist mir nicht klar.
Eine Dotierung bedeutet ja zuerst einmal nur die Reduzierung der Bandlücke durch die Bereitstellung zusätzlicher ungebundener Elektronen/Löcher (Donatoren/Akzeptoren) im Valenzband. Ob ein Photon dann auch wirklich auch mit diesen kollidiert und dabei seine Energie zur Anhebung des [Defekt]elektrons in das Leitungsband abgibt, ist ja ein ganz anderes Thema.wie können photonen einen dotierten bereich durchdringen,ohne mitgezählt zu werden?
Ich denke nicht, da beides den gleichen physikalischen Gesetzen unterliegt. Es wird wohl wirklich allein an den Wahrscheinlichkeiten der Eindringtiefe liegen. Nach E=h*c/lambda haben rote Photonen eine (deutlich) niedrigere Energie und damit vermutlich auch eine deutlich niedrigere Kollisionswahrscheinlichkeit als blaue Photonen.meine antwort wäre: die lichtgeschwindigkeit ist schneller als die reaktionsfähigkeit des energiewandlungsapperates.
Eine hellblaue (also nicht vollends blau gesättigte) Wand strahlt einen großen Teil Photonen verschiedener blauer Wellenlängen, aber auch einen kleinen Teil Photonen vieler anderer Wellenlängen aus. Die landen dann primär im Bereich des jeweiligen Sensors, so dass das RAW-Bild also ein starkes Signal im Blaukanal, aber auch ein geringes Signal im Rot- und Grünkanal enthält. So wie also fast jede Lichtquelle (z.B. ein schwarzer Strahler) Photonen aller möglichen Wellenlängen aussendet, reagieren auch die RGB-Schichten eines CMOS-Sensors auf verschiedene Wellenlängen gleichzeitig.wird in den subpixeln nuanciert gemessen oder alle werte zu grundfarben zusammengefasst? falls nur reines rgb gemessen wird,wie soll daraus z.b.ein hellblau generiert werden? eine fotografierte hellblaue wand löst nur signale im blausensor aus.
Du postest einen Link mit der Ankündigung, der würde den Sachverhalt vereinfachen. Was ich dann lese, ist aber ein Dokument, welches...machts doch nicht so kompliziert.
Photonen gleicher Wellenlänge können in unterschiedlichen Tiefen ein Elektron auslösen. Im Mittel werden das aber die meisten Photonen in einem Bereich tun, welcher von ihrer Wellenlänge abhängt. So mögen sich also durchaus auch grüne Photonen im roten oder blauen Bereich niederschlagen; die Masse wird es im grünen tun. Ich nehme an, dass das ein Übriges zur problematischen Farbseparation beim X3 tut.
Eine hellblaue (also nicht vollends blau gesättigte) Wand strahlt einen großen Teil Photonen verschiedener blauer Wellenlängen, aber auch einen kleinen Teil Photonen vieler anderer Wellenlängen aus. Die landen dann primär im Bereich des jeweiligen Sensors, so dass das RAW-Bild also ein starkes Signal im Blaukanal, aber auch ein geringes Signal im Rot- und Grünkanal enthält. So wie also fast jede Lichtquelle (z.B. ein schwarzer Strahler) Photonen aller möglichen Wellenlängen aussendet, reagieren auch die RGB-Schichten eines CMOS-Sensors auf verschiedene Wellenlängen gleichzeitig.
Du postest einen Link mit der Ankündigung, der würde den Sachverhalt vereinfachen. Was ich dann lese, ist aber ein Dokument, welches
- nichts zum Sachverhalt beiträgt
- nicht einmal etwas Neues oder Bestrittenes verkündet
- allein durch die Länge (für Englischunkundige auch durch die Sprache) sogar deutlich komplizierter ist
und welches vor allem
- wieder mal nur ein Lobgesang auf einen Foveon-Sensor ist.
Sag mal, was geht in einem vor, dass man immer wieder Sachen wiederholt, die von anderen gar nicht bestritten werden, mit dem Thema aber nichts zu tun haben? ...
Hey Browny,
Deine Überzeugung in allen Ehren - und ich kann auch nachvollziehen, sich davon ausgehend nicht so schnell was erzählen zu lassen:
ich sehe das ergebnisorientiert, und da kann Foveon weder auflösungstechnisch mithalten noch von der "Farbtreue" Vorteile einfahren.
...
Zitat von KeinKorn
... Dass beim Foveon pro Bild mindestens genausoviel berechnet und zum Entrauschen interpoliert werden muss wie bei CFA-Sensoren haben wir ja inzwischen etabliert. ...
...ist bei Dir etabliert, ich erlebe es (fast) jeden Tag anders.
Sooo - Lobgesang auf einen Foveon-Sensor : "Copyright 2003 Society of Photo-Optical Instrumentation Engineers"
...und nichts zum Sachverhalt beiträgt ? Mit dem Thema nichts zu tun haben ?
Genau hierin erklärt sich die Aufzeichnung der hellblauen Fläche als hellblaue Fläche und das wird dann hier vertieft dargestellt :
Vielleicht sollte man endlich einmal aufhören nur 3-farbig selektiv in Rot, Grün und Blau zu denken sondern ein Spektrum auch als solches zu begreifen und zudem damit aufhören Photonen und ihre Energie wie Sandkörnchen darzustellen die aus einem Kristallgitter je nach zufälliger Auftreffgeschwindigkeit mehr oder weniger zufällig tief im Kristallgitter Elektronen- / Loch-Paare aus dem Silizium schiessen.
Ich wusste schon beim Schreiben, dass exakt diese Antwort von Dir kommt. Ich kann aber auch lesen, wer der Autor istSooo - Lobgesang auf einen Foveon-Sensor : "Copyright 2003 Society of Photo-Optical Instrumentation Engineers"
Nun, da gibt es also diesen Absatz, der tatsächlich einen Teil des Threadthemas behandelt. Und trotzdem trägt er nach meiner Meinung nichts zum Sachverhalt bei, weil er außer genauen (für das Prinzip irrelevanten und sich ohnehin auf einen älteren Foveon-Sensor beziehenden) Daten keine Prinzipien erläutert, die hier im Thread nicht schon geklärt wurden. Der entscheidende Punkt aber ist: Du hast das Dokument als "weniger kompliziert" beworben und dass es das aufgrund Länge, Sprache, Ausdrucksweise nun gerade nicht ist, wieder einmal "vergessen"....und nichts zum Sachverhalt beiträgt ? Mit dem Thema nichts zu tun haben ?
Offensichtlich hat dem Fragesteller meine vorhergehende kürzere Erläuterung gereicht. Die Frage war also nicht, ob der Text das wiederholt, was schon einige Beiträge diverser Poster und auch einige Links vorher erläutert wurde, sondern ob Deine grossspurige Ankündigung der Unkompliziertheit ("warum so kompliziert") erfüllt wurde.Genau hierin erklärt sich die Aufzeichnung der hellblauen Fläche als hellblaue Fläche und das wird dann hier vertieft dargestellt :
Den Ball kriegst Du zurück. Du wurdest inzwischen mehr als einmal und nicht nur von mir gebeten, auf Strohmann-Argumente und Nebelkerzen zu verzichten. Deine Abhandlungen über YUV-Verhältnisse und Auslesebandbreite sind, wenn Du wirklich nicht nur keine Ahnung hattest, schon dicht an der Grenze zu einer Chewbacca-Verteidigung gewesen. Mehr über das Thema gibt es z.B. hier (*).Schreibst Du Deine Antworten in dem Ton, weil die Fakten nicht in Dein Denkmodell passen ?
Wer der Poster hier ist denn eigentlich genau "man"? Ich für meinen Teil habe, wenn ich das richtig sehe, deutlich vor Dir (und sogar zu Gunsten des Foveon) über die spektrale Absorptionskurve geschrieben.Vielleicht sollte man endlich einmal aufhören nur 3-farbig selektiv in Rot, Grün und Blau zu denken sondern ein Spektrum auch als solches zu begreifen
Huiuiui jetzt wird es spannend. Wer hat denn von Sandkörnchen, Auftreffgeschwindigkeit und "mehr oder weniger zufälliger Tiefe" geschrieben? Das lese ich jetzt gerade irgendwie nur in Deinem Beitrag. Aber ich erläutere gern auch das:und zudem damit aufhören Photonen und ihre Energie wie Sandkörnchen darzustellen die aus einem Kristallgitter je nach zufälliger Auftreffgeschwindigkeit mehr oder weniger zufällig tief im Kristallgitter Elektronen- / Loch-Paare aus dem Silizium schiessen.
Ich hatte schon überlegt, ob ich mir die Mühe dieser Überprüfung auch noch machen sollte. Danke dass Du das gemacht und meinen (nicht geäußerten) Verdacht bestätigt hast.Wer das Copyright auf das Paper hat ist doch irrelevant: Zumindest einer der Autoren hat zum Zeitpunkt der Veröffentlichung für Foveon gearbeitet, und der wird ja wohl kaum ein Produkt seines Arbeitgebers runtermachen.
Zwei banale Beispiele :
...
Was macht ein anderer Sensor hier besser ?
Photonen gleicher Wellenlänge können in unterschiedlichen Tiefen ein Elektron auslösen. Im Mittel werden das aber die meisten Photonen in einem Bereich tun, welcher von ihrer Wellenlänge abhängt. So mögen sich also durchaus auch grüne Photonen im roten oder blauen Bereich niederschlagen; die Masse wird es im grünen tun. Ich nehme an, dass das ein Übriges zur problematischen Farbseparation beim X3 tut.
Eine Dotierung bedeutet ja zuerst einmal nur die Reduzierung der Bandlücke durch die Bereitstellung zusätzlicher ungebundener Elektronen/Löcher (Donatoren/Akzeptoren) im Valenzband. Ob ein Photon dann auch wirklich auch mit diesen kollidiert und dabei seine Energie zur Anhebung des [Defekt]elektrons in das Leitungsband abgibt, ist ja ein ganz anderes Thema.
Ich denke nicht, da beides den gleichen physikalischen Gesetzen unterliegt.
Es wird wohl wirklich allein an den Wahrscheinlichkeiten der Eindringtiefe liegen. Nach E=h*c/lambda haben rote Photonen eine (deutlich) niedrigere Energie und damit vermutlich auch eine deutlich niedrigere Kollisionswahrscheinlichkeit als blaue Photonen.
Eine hellblaue (also nicht vollends blau gesättigte) Wand strahlt einen großen Teil Photonen verschiedener blauer Wellenlängen, aber auch einen kleinen Teil Photonen vieler anderer Wellenlängen aus. Die landen dann primär im Bereich des jeweiligen Sensors, so dass das RAW-Bild also ein starkes Signal im Blaukanal, aber auch ein geringes Signal im Rot- und Grünkanal enthält. So wie also fast jede Lichtquelle (z.B. ein schwarzer Strahler) Photonen aller möglichen Wellenlängen aussendet, reagieren auch die RGB-Schichten eines CMOS-Sensors auf verschiedene Wellenlängen gleichzeitig.
Um die Fehlinformationen mal etwas zu reduzieren:
Hier hatte ich schon vor Längerem einen Vergleich zwischen DP1s und DP1 Filter gezeigt...
forums.dpreview.com/forums/readflat.asp?forum=1027&thread=33787177&page=1
Zitat von Browny:
Bei SD9 und SD10 war dies sogar perfekt gelungen. Hier hatte man das Problem bei der nachgeschalteten Signalverarbeitung. So enthielt z.B. gerade der rote Bereich noch zuviele IR-Anteile (kann man bei diesen Kameras aber durch entsättigen des Bildes in SPP, verschieben des Rotkanals mit dem Hue-Regler in PS und anheben der Farbsättigung leicht korrigieren), die SD14 benutzte dann ein Bandpassfilter mit anderer Durchlasskurve und bewertete die Farbinformationen bei der Konvertierung in den RGB-Farbraum anders als ihre Vorgängerinnen.
Die DP1 hatte das Phänomen "roter Trauben" bei direkten Aufnahmen einer starken Lichtquelle. Das resultierte aus der falschen Distanz des Bandpassfilters zum Sensor und wurde meines Wissens in der DP2 und DP1s korrigiert.
"(Der A/D Wandler in der SD14 aber nicht, so er innerhalb seiner Spezifikationen betrieben wird, oder?)"
... A/D-Wandler werden immer innerhalb ihrer Spezifikationen betrieben sonst erhält man keine verwertbaren digitalen Signale. Rauschen entsteht bei allen elektronischen Bauteilen z.B. aus der Tatsache, dass Elektronen fliessen müssen. http://www.lte.ei.tum.de/lehre/eb_pr...V2_Theorie.pdf
Der Abstand zum Sensor ist der Tupfengleiche!
Nur das Substrat, die Beschichtung, die Filtercharakteristik und die Größe ist eine Andere.
(Leider wurde die Größe unnötig verändert - das war das einzig tadellose am DP1 Filter!)
..zu den A/D Wandlern:
Es sollte bekannt sein, dass deren Rauschverhalten auch von der Temperatur abhängt.
Ist Sie höher, als die in den Spezifikationen für ein gewisses Rauschlevel angegebene, erreicht der Wandler eben nicht seine Spezifikation, sondern Rauscht mehr.
Dem Sensor geht es genauso, deshalb hatte ich ja schon vor fast 2 Jahren (in einem anderen Forum) darauf hingewiesen, dass man nach Möglichkeit das Temperaturverhalten der Kamera verbessern müsste und um bereits jetzt rauschärmere Aufnahmen machen zu können, seine Kamera nach Möglichkeit nicht vorwärmen sollte!
...das Alles trägt in seiner Wirkung auch zum Vergrößerungspotential von Bildern bei, da diese weniger Softwaremäßig vorbereitet werden müssen, wenn Sie schon gleich rauschärmer und mit der gleichen Dynamik in Allen Farben aufgenommen werden können.
Uli
P.S.:
Das dein Kommentar zum SD9 und SD10 Filter kaum stimmen kann, sollte nicht nur Dir einleuchten...
...wäre es perfekt gelungen, hätten die Farben gestimmt und eine zusätzliche Softwarekorrektur wäre nicht nötig gewesen.![]()
Ja, das ist das übliche Problem - dass wir im Alltag aufgrund unserer Illusion von Farbe eine Farbe (eigentlich Farbvalenz) mit dem spektralen Farbreiz verwechseln. Aber erst die Farbwahrnehmung macht aus der spektralen Verteilung unseren Sinneseindruck. Und das ist der Grund, warum das CIE-Normvalenzsystem eingeführt und darauf aufbauend die diversen Farbräume definiert wurden.
Edit: sehe gerade, dass ich Dich missverstanden habe. Will jetzt aber die Links nicht löschen - ich finde die erläutern die Zusammenhänge der Farben recht gut.![]()
Hallo Uli,Da weitere für dich klärende Ausführungen daher m.E. wohl aufwändiger werden könnten und vielleicht ***** sich tatsächlich die Zeit für eine ausführliche Erklärung nimmt, fände ich es sinnvoll diese Fragein ein neues Thema auszugliedern.
Im Mittelwert der Tiefen, wo ein Elektron ausgelöst wird. Da der photoelektrische Effekt mit dem Teilchencharakter der Photonen erklärt wird, welcher wiederum auf der Quantenmechanik beruht und diese nur Wahrscheinlichkeiten beschreibt, welche in der Regel der gaußschen Normalverteilung unterliegen, findest Du bei genau selbiger die Verteilung der Eindringtiefen.ist es nicht eher so,dass photonen gleicher wellenlänge auch ein gleiches verhalten haben in bezug auf die eindringtiefe?
Nur die ist aber dafür verantwortlich, dass es auch zum photoelektrischen Effekt, also der Auslösung eines Elektrons aus dem Valenz- in das Leitungsband kommt. Die Dotierung dient nur dazu, die Bandlücke zwischen beiden Bändern zu reduzieren, also dafür zu sorgen, dass die von den Photonen mitgebrachte Energie überhaupt zur Auslösung eines Elektrons reicht. Sie bedeutet aber nicht, dass ein Photon zwangsweise an genau dieser Stelle das auch tut.die dotierung/aufteilung des siliziums in p-n bereiche ist der photoelektrische bereich=photodiode. meine frage war,wie es grün und rot schaffen,den blauen und rot schafft, den grünen sensor zu passieren,ohne ihre energie abzugeben. weniger gefragt habe ich nach einer allgemeinen wahrscheinlichkeit einer absorbtion.
Was Du meinst, ist der sog. Compton-Effekt. Aufgrund der im Vergleich zum Elektron äußerst geringen "relativistischen Masse" des Photons tritt er aber erst nennenswert bei deutlich kurzwelligerer Strahlung als Licht auf.die photonen wollen immerhin mit tempo lichtgeschwindigkeit geradeaus fliegen. auch wenn sie nur eine sehr geringe masse besitzen,reicht sie möglicherweise aus,um eine eindeutige präverenz gegenüber der kraft zu erzeugen,die sie am "weiterfliegen" hindern will.
Bei den Wellenlängen des Lichtes ist quasi jede stattfindende "Kollision" eine plastische mit vollständiger Energieabgabe, s.o..nun könnte man noch annehmen,dass photonen auf ihrer reise langsamer werden,je nachdem,wie oft sie ausgebremst werden.
Tut es auch, ätsch.ich frage,warum nicht alles licht in blau absorbiert wird und du antwortest,es liegt an der wahrscheinlichkeit der eindringtiefe.![]()
Oder weil ihre Wellenlänge auch nur um Faktor 2 größer ist als die von blau.also wenn die energiemenge eines photons das hauptkriterium für eine absorbtionswahrscheinlichkeit ist,warum sollten dann überhaupt die roten irgendwann mal ein elektron anregen? vielleicht aus mitleid oder weil halt nichts besseres da ist.
Kann auch nicht. Was bisher mit RGB beschrieben wurde, ist die additive Farbmischung aktiver Lichtquellen. Was Du getestet hast, ist die subtraktive Farbmischung passiver bzw. reflektierter Farben. Das übliche Farbmodell hierbei ist CMY(K). Wenn Du mit blau auf eine reflektierende Fläche malst, werden die nichtblauen Anteile des Spektrums verschluckt. Durch weiteres Zumischen kannst Du nur weitere Anteile verschlucken, aber nicht die für hellblau notwendigen geringen rot/grün-Anteile "zumischen".ich hab jetzt wirklich mal ausprobiert,mit tusche,filzer und ölfarbe ein hellblau zu kreieren. ist nicht gelungen.
Zitat von lumischa
ich frage,warum nicht alles licht in blau absorbiert wird und du antwortest,es liegt an der wahrscheinlichkeit der eindringtiefe.
Tut es auch, ätsch.![]()