• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Bayer - Lichtenergieausnutzung

Das klappt so nicht: Du kannst in den Dimensionen einer Kamera nicht die "Anzahl der Elektronen" messen, da das Einzelereignis unter die Messschwelle fällt. Im Endeffekt hast du nur die eingetroffene Gesamtenergie.
Klar kann man das. Das ist ja, was jetzt schon "geht". Es ergibt im Ergebnis die Helligkeit. Bei Sensorgen gibt's sogar 'ne Übersicht über das Können einzelner Sensoren hierzu. Zur Belastbarkeit der Zahlen kann ich zwar nichts sagen - ist hier aber egal.
Gruß, Wolfgang
 
Klar kann man das.
Na wenn du das besser weißt, brauch ich ja nichts mehr schreiben. :)

Bei Sensorgen gibt's sogar 'ne Übersicht über das Können einzelner Sensoren hierzu.
Das ist nichts weiter als die maximale Pixelladungsmenge geteilt durch eV. Eine Zählung ist das nicht.
Stell dir das so vor: Die Elektronen befinden sich im Valenzband. Sie sitzen da nicht alle auf dem gleichen fixen Niveau, sondern dieses stellt nur den statistischen Mittelwert ihrer Aufenthaltswahrscheinlichkeiten dar. Kommt ein Photon, wird die Energie des getroffenen Elektrons entsprechend erhöht. Im statistischen Mittel wird es damit - vereinfachend gesprochen - ins Leitungsband gehoben oder nicht. Real aber kann auch mal die Energie nicht ausreichen oder umgekehrt das "freigesetzte" Elektron hinterher einem weiteren genug Energie zur "Befreiung" verpassen. Und im Endergebnis ist die Ladung des Pixels proportional zur eingetroffenen Energiemenge - und nicht zur Anzahl der Ereignisse.
 
Zuletzt bearbeitet:
Hmm, das hört sich schwierig für mein Gedankenexperiment an. Nehmen wir mal an, Dein "Valenzband", auf dem die Elektronen sitzen, wäre sehr schmal. Ich nenne das mal eine quasi konstante Bindungsenergie. Dann möchte ich im Gedankenexperiment bei dem Ausmessen des Photoeffektes unterscheiden zwischen:
- erzeugtem Strom (=Ladung/Belichtungszeit) -> Helligkeit
- erzeugter elektr. Spannung -> Farbe

Bei "Deinem" breiten Valenzband kann man die Größen nicht trennen.

Meinst Du, ich hab jetzt nix gelernt???

Bis Morgen, Wolfgang;)
 
Dann möchte ich im Gedankenexperiment bei dem Ausmessen des Photoeffektes unterscheiden zwischen:
- erzeugtem Strom (=Ladung/Belichtungszeit) -> Helligkeit
- erzeugter elektr. Spannung -> Farbe
Der Lichteinfall ionisiert den Pixel und verpasst ihm eine Ladung, die dann kapazitiv die ISO Gain (Spannung) im an den Pixel angebundenen Transistor moduliert.

Bei "Deinem" breiten Valenzband kann man die Größen nicht trennen.
Die Breite des Valenzbandes spielt dabei IMO keine wirkliche Rolle.

Meinst Du, ich hab jetzt nix gelernt???
:confused:
Wenn ich hier was falsch verstehe oder du was weisst, was ich nicht weiß, immer raus damit. :)
 
Der Lichteinfall ionisiert den Pixel und verpasst ihm eine Ladung, die dann kapazitiv die ISO Gain (Spannung) im an den Pixel angebundenen Transistor moduliert.

Die Breite des Valenzbandes spielt dabei IMO keine wirkliche Rolle.

:confused:
Wenn ich hier was falsch verstehe oder du was weisst, was ich nicht weiß, immer raus damit. :)
Zu Beginn erst zum Letzten: Ich weiß nur die Grundlagen des Photoeffekts sowie der klassischen Atommodelle oder allgemein der Quantenphysik.

So wie Du zu Beginn schreibst, wird der "Partner" bei der Ionisation - das herausgelöste Elektron - nicht weiter untersucht. Zur erfolgreichen Ionisation spielt die Bindungsenergie des einzelnen Elektrons keine Rolle, wenn diese klein ist gegenüber der energieschwächsten Photonen (rot).

Bei meinem Gedankenexperiment benötige ich die kinetische Energie der bei der Ionisation frei werdenden Elektronen. Addiert man dazu die Bindungsenergie, bekommt man ein unmittelbares Maß für die Farbe des eingefallenen Photons. Liegt die Bindungsenergie in einem breiten "Valenzband", bekommt man ein entsprechend ungenaues Farbergebnis hierdurch.

Aber da das herausgelöste Elektron anscheinend gar nicht untersucht wird, muss man halt Bayer filtern - noch.

Gruß, Wolfgang
 
Bei meinem Gedankenexperiment benötige ich die kinetische Energie der bei der Ionisation frei werdenden Elektronen. Addiert man dazu die Bindungsenergie, bekommt man ein unmittelbares Maß für die Farbe des eingefallenen Photons.
Das würde aber voraussetzen, dass die Photonenenergie vollständig auf das Elektron übertragen wird (zentraler elastischer Stoß). Ohne mich jetzt in der Materie genau auszukennen, würde es mich sehr wundern, wenn das zutrifft.

Außerdem müsste man die Energie jedes einzelnen Elektrons messen – während der gesamten Belichtungszeit. Oder doch zumindest die Fotoelektronen in genügend vielen "Töpfen" sammeln, um ein vernünftiges Lichtspektrum ableiten zu können. Die Gesamtenergie würde nur einen Rückschluss auf die Durchschnittsfarbe während der Belichtung liefern. Eine Beleuchtung mit D65 könnte man nicht von monochromatischen Licht passender Wellenlänge unterscheiden.

L.G.

Burkhard.
 
Ich denke, dass die Singularität des "photoelektrischen Effekts" nur eine Krücke im Verständnis des Potentialtopfes ist und wir es real mit nicht mehr als dem statistischen Mittel von Wahrscheinlichkeiten zu tun haben. Das schließt dann sowohl die Messung des Einzelereignisses (gemäß Heisenberg) als auch die Teilung der Gesamtenergie durch "Einzelelektronen" (weil stochastisch verteilt weitere Elektronen ionisiert werden können) aus.
 
Zuletzt bearbeitet:
Das würde aber voraussetzen, dass die Photonenenergie vollständig auf das Elektron übertragen wird (zentraler elastischer Stoß). Ohne mich jetzt in der Materie genau auszukennen, würde es mich sehr wundern, wenn das zutrifft.
Nein. Es gibt in der Quantenphysik keinen zentralen elastischen Stoß. Den gibt es nur beim Billard. Da aber die einzig beteiligten Energieformen die Strahlungsenergie des Photons, die Bindungsenergie des Elektrons im Atom/Molekül und die kinetische Energie des Elektrons sind und das Photon vollständig absorbiert wird, gilt die einfache Summenformel:
Bindungsenergie + kinetische Enegie des Elektrons = Strahlungsenergie des Photon
Außerdem müsste man die Energie jedes einzelnen Elektrons messen – während der gesamten Belichtungszeit.
Auch das ist sicher nicht richtig. Wie ******** schreibt, ist die Auswertung statistisch vorzunehmen. Im Ergebnis genügt ja auch eine Zahl für die Helligkeit und eine Zahl für die Farbe (jeweils pro Pixel natürlich).

Gruß, Wolfgang
 
Nein. Es gibt in der Quantenphysik keinen zentralen elastischen Stoß. Den gibt es nur beim Billard.
Hatte eben auch nachgeschlagen: beim Photoeffekt hast du Recht, die Energie wird vollständig übertragen. (Aber Gegenbeispiel: Compton-Effekt.)

Auch das ist sicher nicht richtig. Wie ******** schreibt, ist die Auswertung statistisch vorzunehmen. Im Ergebnis genügt ja auch eine Zahl für die Helligkeit und eine Zahl für die Farbe (jeweils pro Pixel natürlich).
Da liegst du falsch, habe ich oben schon begründet. Was soll denn die eine Zahl für die Farbe aussagen? Und wie gewinnst du aus zwei Werten drei (unabhängige) Werte für R, G und B (oder X, Y, Z …)? Das kann nicht klappen.

L.G.

Burkhard.
 
So wie ich es verstehe ist Foveon eine Bauweise die theoretisch weniger bis gar keine Energie verliert, da Energie nicht teilweise abgeschirmt, sondern in drei Stufen, nur zumessende Lichtanteile abgezweigt werden.
Wenn ich einen Detektor habe, der 100% der Quanten detektiert, habe ich trotz folgende Probleme:
  • Erhöhtes Rauschen bei nicht perfekter Farbseparation durch die Umrechnung vom Kamerafarbraum in den Monitorfarbraum.
  • Alle Farben sind gleich hell: Ein sattes Sonneblumen-Gelb ist genauso hell wie ein sattes Kornblum-Blau
In der Praxis sieht man bei high-ISO aber eher einen großen Nachteil zu aktuellen Bayer-Sensoren (massives Rauschen bei SIGMA Sensoren).
Woran liegt es, das?
Schlechte Farbseparation, hohe Defektdichte durch viele Layer, ...
Welche Ideen gibt es/gab es/habt Ihr persönlich noch um diesen Umstand der unnötigen Dissipation zu vermeiden?
Spektrometer hinter jedem Pixel.
Farbkanäle werden numerisch erzeugt.
 
Da liegst du falsch, habe ich oben schon begründet. Was soll denn die eine Zahl für die Farbe aussagen? Und wie gewinnst du aus zwei Werten drei (unabhängige) Werte für R, G und B (oder X, Y, Z …)? Das kann nicht klappen.
RGB ist langweilig. Eine Zahl, zB die mittlere Wellenlänge im RAW ist genug! Genau analog wie die Helligkeit.
Gruß, Wolfgang
 
Eine Zahl, zB die mittlere Wellenlänge im RAW ist genug!
Nein. Stell dir einen Farbverlauf von rot nach blau vor.
Die mittlere Wellenlänge geht über grün, die Rezeptoren des Auges nicht. Stichwort Metamerie. Das einzige, was hilft, ist (wieder mal) das von Frank Klemm geschriebene: Spektrometer unter jedem Pixel. :o
Auch eine Zerlegung des Lichtes mit dichroitischen Spiegeln hat Probleme: Mit Interferenz die Absorptionskurve des menschlichen Auges anzunähern dürfte schon verdammt schwer werden.
 
Zuletzt bearbeitet:
Ich kann ******** so schnell nun nicht folgen. Gleichwohl hab' ich für folgendes Problem keine Lösung:
Ich kann jeder Wellenlänge eine voll gesättigte Farbe (d.i. einer der 3 RGB ist exakt Null) zuordnen. Für das Problem nicht vollständiger Sättigung bis zum grau habe ich z.Zt. keine Lösung. Bis dahin ist mein Gedankenexperiment gescheitert.
Gratulation und Gruß, Wolfgang... :top:
 
Die erste "Theorie" ist völliger Unsinn. Stell dir mal vor, du fotografierst mit so steilflankigen Filtern einen Regenbogen (d. h. ein Spektrum mit monochromatischem Licht). Dann würde im roten Bereich des Regenbogens nur der Rotsensor ansprechen, im mittleren Bereich nur der Grünsensor und irgendwann nur der Blausensor. Wie soll man aus dieser Information die Zwischenfarben (z. B. Gelb, Cyan) rekonstruieren?
(...)
Die besten Ergebnisse erhält man, wenn die Filter der Spektralempfindlichkeit der Zapfenzellen im Auge nachempfunden werden (Stichwort: Metamerie).
(...)

Stimmt, das ist der Punkt.

Hallo!

(...)
Nun ein Punkt, den ich für mich noch nicht endgültig klären konnte:

Heißt dieser Umstand der Filter, dass 50 bis 75% der Lichtenergie, die die Sensoroberfläche erreicht einfach dissipiert und nicht zur Gewinnung von Bildinformation verwendet wird?

Ich bin deswegen so stutzig, weil es doch sehr ineffizient und unvollkommen klingt.

Da es wirklich keine abschnittsweise Zuordnung gibt ist auch meine obige Eingangsthese, die von einigen auch auf die schnelle als halbwegs richtig angesehen wurde, vom Ansatz ziemlich falsch.

Hat jemand zu dieser Frage, die noch im Raum steht eine Antwort?:

(...)Wie viel Energie geht tatsächlich bei den verwendeten Filtern [beim Bayer-Sensor] verloren.

(...)

Bisher gab es nur eine Einschätzung dazu:
(...)Die Farbfilter sind relativ breitbandig, daher nehme ich an, dass der wirkliche Effizienzverlust relativ gering ist, im Bereich von 40-50%.
(...)
Eventuell kann das jemand etwas mit Fakten und Erklärungen unterfüttern.


(...)

Spektrometer hinter jedem Pixel.
Farbkanäle werden numerisch erzeugt.

Das mit dem Spektrometer war auch meine erste Idee, als ich über einen möglichen Ansatz nachgedacht hatte. Welche Schwierigkeiten ergeben sich da im Vergleich zu jetzigen Sensoren?

Was ich z.B. sehe:
-Jeder Pixel bräuchte nicht nur drei "Unterpixel" sondern eigentlich ziemlich viele Pixel, z.B. 24 um das ganze Spektrum aufzulösen
-Fertigungsproblem, da die Silizium-Flächen nicht in einer Ebene liegen, sondern es eine gezackte Oberfläche bräuchte(um eine Art Prisma darüber zu bekommen).
-Bauraumproblem, da man gewisse Abstände bräuchte um das Licht soweit zu fächern um es mit Unterpixeln aufnehmen zu können

Stimmt das, gibt es weitere Probleme?
 
Zuletzt bearbeitet:
Das mit dem Spektrometer war auch meine erste Idee, als ich über einen möglichen Ansatz nachgedacht hatte. Welche Schwierigkeiten ergeben sich da im Vergleich zu jetzigen Sensoren?

Wie ist die Effizienz von einem Spektrometer?

Da ich mich damit nicht auskenne habe ich mal kurz gegoogelt, erster Treffer:
http://xqp.physik.uni-muenchen.de/publications/files/theses_bachelor/bachelor_hermann.pdf

Der Autor hat da ein Spektrometer auf Prismenbasis gebaut mit einer Effizienz von 35% (Seite 21). Das ist schonmal weniger als die 50% vom Bayer-Pattern.
 
Bisher gab es nur eine Einschätzung dazu:
Die kommt IMO schon recht gut hin. Schau dir die Transmissionskurven üblicher CFA an.

-Fertigungsproblem, da die Silizium-Flächen nicht in einer Ebene liegen, sondern es eine gezackte Oberfläche bräuchte(um eine Art Prisma darüber zu bekommen).
Das Prisma kann auch nach unten wegklappen, so dass die Oberfläche plan bleibt. Das würde auch gleich das Bauraumproblem entschärfen.

Nur: Fokus? :)
 
Zuletzt bearbeitet:
zu 1:
Hast Du einen Link zu schönen, passenden Transmissionskurven?
Mein Problem ist, dass ich mich hier nicht so gut auskenne und daher nicht so gut beurteilen kann ob etwas was ich im Internet gefunden habe zu unserem Sachverhalt passt. Werte zu einem Bayersensor einer aktuellen Kamera habe ich nichts gefunden.

Hinzu kommt dass man diese Kurven für eine Aussage integrieren muss, d.h. man muss sich mit den Transmissionskurven noch weiter auseinandersetzten um eine Aussage zu haben.

zu 2:
6? Warum genau nicht z.B. 3 oder doch viel mehr?

zu 3:
Wie meinst Du "nach unten umklappen"?
 
zu 1:
Hast Du einen Link zu schönen, passenden Transmissionskurven?
Im Moment nicht. Ich such mir die immer für die jeweils gerade gefragte Kamera bei Google. Mit Bildersuche nach "<Kamera> transmission" kommt man meist recht schnell zum Ziel.

Werte zu einem Bayersensor einer aktuellen Kamera habe ich nichts gefunden.
Ja, meist findet man eher ältere Kameras. Muss sich ja erst einer die Mühe machen, das auszumessen.

Hinzu kommt dass man diese Kurven für eine Aussage integrieren muss, d.h. man muss sich mit den Transmissionskurven noch weiter auseinandersetzten um eine Aussage zu haben.
Naja, nach Augenschein kann man schon abschätzen, in welcher Größenordnung die Flächen nun im Verhältnis zum theoretischen Maximum liegen. :)

6? Warum genau nicht z.B. 3 oder doch viel mehr?
Bitte vergessen. Hab übersehen, dass die Überlappungsbereiche der Zapfenwahrnehmung ja nicht proportional sind.

Wie meinst Du "nach unten umklappen"?
Na die Prismen liegen nicht mit der planen Seite nach unten auf dem Sensor, sondern mit der planen Seite nach oben in ihm drin.
 
Zuletzt bearbeitet:
Ist doch egal, welche Seite des Prismas nach oben zeigt. http://www.cg.tuwien.ac.at/research/publications/2012/Habel_2012_PSP/Habel_2012_PSP-Publication.pdf hier gibts die transmissionskurven der 5d.
(...)

Meinst Du Abbildung 7?

Ich weiß noch nicht genau wie ich das lesen muss:

-Die Abszisse ist für mich klar: Wellenlänge

-Die Ordinate ist eine "Arbitrary Unit", frei übersetzt "beliebige Einheit", sprich eine willkürliche Skalierung. Was wir bräuchten ist eine Skalierung auf 100% der einkommenden Lichtenergie, was dann eine Transmissionskurve ergäbe. Es ist ja nicht gesagt, dass z.B. der blau-Flter am Höhepunkt wirklich einen Transmissionsgrad von 100% hat.

Wie muss das Ding also lesen, um an die Infos zu kommen?
 
WERBUNG
Zurück
Oben Unten