• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Quanteneffizienz, Photonenfluss und High-ISO, wo ist das Limit?

Da die anderen Formulierungen von Heisenberg mit der hier diskutierten äquivalent sind, fällt Heisenberg als limitierender Faktor für unsere Anwendung also aus.
:confused: Es ging doch nur um die Erörterung des Messens der Wellenlängen einzelner Photonen (deren Eintreffzeitpunkt und -anzahl man aber nicht kennt) um sich die Farbfilter zu ersparen. Was unabhängig von der physikalischen Realisierbarkeit ja aber ohnehin nicht notwendig ist, z.B. bei der Nutzung dichroitischer Spiegel.
 
Naja, um den Farbfilter zu sparen, muss man "nur" neben der jetzt zur Bestimmung der Helligkeit genutzten Stromstärke der durch den Photoeffekt freigesetzten Ladungsträger auch deren Energie messen. Das geht mit einem Voltmeter, wenn's denn überhaupt machbar ist. Hier braucht men (wie bei der Helligkeit) nicht die Energie jedes einzelnen Ladungsträgers sondern nur den Mittelwert zur Farbbestimmung und die Verteilung (Standardabweichung) zur Bestimmung der Sättigung.

Alles ohne Heisenberg... und ohne Rücksicht auf technische Realisierbarkeit.

Gruß, Wolfgang
 
Da würdest du dann aber nur eine mittlere Wellenlänge erhalten, was für 3 (oder 4) Photorezeptoren mit nichtlinearer Absorptionskurve (vulgo: menschliches Auge) nicht reicht.
 
Ich hab ein ziemliches Deja-Vu-Erlebnis. Eine ähnliche Diskussion hatten wir doch erst vor einigen Wochen/Monaten irgendwo hier. Ich find's nur nicht. :confused:
Erledigt: war natürlich der Thread, in dem Frank ja das mit den 4 Rezeptoren durchgerechnet hatte (und den er weiter vorn verlinkte).
 
Zuletzt bearbeitet:
Da würdest du dann aber nur eine mittlere Wellenlänge erhalten, was für 3 (oder 4) Photorezeptoren mit nichtlinearer Absorptionskurve (vulgo: menschliches Auge) nicht reicht.
Nein, ich sprach von Mittelwert und Standardabweichung für Farbe und Sättigung und unabhängig der Machbarkeit. 3 oder 4 Energiestufen sind dabei natürlich zu wenig.
Gruß, Wolfgang
 
Nein nein, ich meinte nicht 3-4 Energiestufen, sondern tatsächlich die Rezeptoren des Auges. Also dass du aus einem Mittelwert Grün kein Rot+Blau rekonstruieren kannst.
 
Multischichten: extrem teuer, Probleme mit mechanischen Spannung durch unterschiedliche Kristallstrukturen und Atomabstände.
III/V-Halbleiter: nicht in der Qualität wie klassische Halbleiter herstellbar. Großen Problem: exakte Stöchometrie, Entmischung.
Naja - in jedem Mobiltelefon und jedem LNB hat es GaAs-basierende Heterohalbleiter, und ebenso ist jede LED ein (aber einfacherer) III-V-Halbleiter. Das kann man schon alles machen - selbst (großflächige) Solarzellen (gedacht für Raumfahrt - Kosten egal, Hauptsache höherer Wirkungsgrad) gibt es auf der Basis von Dreifachschichten schon. Mit MBE kann man schönstes Bandgap-Engineering betreiben, verspannte Schichten, Supergitter, alles was den HL-Physiker freut. Die Defektdichte ist in der Tat hoch, da müßten die vielen kaputten Pixel dann sehr kräftig interpoliert werden.

Daß man dabei nicht nach dem Preis fragen darf, hatte ich glaube ich erwähnt. ;) - sowas wird mit viel teureren Prozessen auf 2''- bis 4''-Wafern gemacht, nicht auf 8'' bis 12'' wie modernes Silizium.

Der Unterschied zwischen Gruppen- und Signalgeschwindigkeit würde mich noch interessieren.
Mich auch.... - den zwischen Gruppen- und Phasengeschwindigkeit kenne ich.

Hat aber mit der Frage nur bedingt zu tun - letztlich ging es darum, daß man aus einem längeren Impuls am Eingang einen kürzeren am Ausgang erzeugt, indem man den zeitlich späteren Teil wegdämpft, und dann aus der jeweiligen Mitte von Ein und Ausgangspuls eine Geschwindigkeit definiert. Einstein hat immer Züge zur Veranschaulichung verwendet; also: ein Zug mit 9 Waggons fährt mit Lichtgeschwindigkeit los, als Abfahrtszeit wird der Moment gewertet, wo der 5. Waggon vorbeikommt. Unterwegs verliert er aber 6 von 9 Waggons, bei der Ankunft wird dann bereits beim 2. Waggon die Stoppuhr angehalten. Und schon war er mit "Überlichtgeschwindigkeit" unterwegs.


Achja : und Frohe Weihnachten!
 
Liest Di eigentlich, bevor Du schreibst?
Nein nein, ich meinte nicht 3-4 Energiestufen, sondern tatsächlich die Rezeptoren des Auges. Also dass du aus einem Mittelwert Grün kein Rot+Blau rekonstruieren kannst.
Ich schrieb:
Nein, ich sprach von Mittelwert und Standardabweichung für Farbe und Sättigung und unabhängig der Machbarkeit. 3 oder 4 Energiestufen sind dabei natürlich zu wenig.
Gruß, Wolfgang

Die Rezeptoren des Auges habe ich dabei allerdings nicht im Kopf. Als Ergebnis habe ich aber eine Energieverteilung der auf ein Pixel einschlagenden Photonen, die etwa einer Normalverteilung entspricht. Hieraus kann ich aus Mittelwert die Farbe und aus Standardabweichung die Sättigung berechnen.

Dieses wiederhole ich aber nun nicht wieder.

Gruß, Wolfgang
 
Liest Di eigentlich, bevor Du schreibst?
Natürlich tue ich das - was soll denn so eine Frage. :confused:
Weiter oben schriebst du:
"nicht die Energie jedes einzelnen Ladungsträgers sondern nur den Mittelwert zur Farbbestimmung und die Verteilung (Standardabweichung) zur Bestimmung der Sättigung"
Ohne Messung jedes einzelnen Ladungsträgers erhältst du nur eine Summe, nicht mal einen Mittelwert oder eine Standardabweichung. Aber angenommen, wir haben - durch doch eine Messung jedes einzelnen Ladungsträgers - auch diese zur Verfügung, so hast du nur eine mittlere Wellenlänge, Intensität und Standardabweichung. Und genau da setzt meine Frage an (-> ich lese also, was man schreibt):
Schicke lila Hauswand. Verhältnis der Photonen extrem vereinfacht R:G:B etwa 3:1:2. Wie willst du nun wissen, welcher Anteil deiner Standardabweichung vom Mittelwert Grün in Rot oder Blau liegt? Und: Standardabweichung? Wir haben doch hier gar keine Glockenkurve.
Oder wo genau verstehe ich dich jetzt miss? :confused:
 
Du wiederholst Dich halt mit Deinen Rückfragen. Daher immer gleiche Antworten. Deine Hauswand ist aber geradezu klassisch auswertbar:
Schicke lila Hauswand. Verhältnis der Photonen extrem vereinfacht R:G:B etwa 3:1:2. Wie willst du nun wissen, welcher Anteil deiner Standardabweichung vom Mittelwert Grün in Rot oder Blau liegt?
Ziehe bei Jeder Farbe den kleinsten Wert ab und Du erhälst:

RGB = 3:1:2 = 2:0:1 + 1:1:1

Klassische Farbauswertung ist die Farbe immer die Mischung aus den 2 größten Teilen: 2*Rot + 1*Blau. Überlagert ist dies durch ein Grau(1:1:1), welches die Sättigung (je kleiner desdo satt) ergibt.

Dieses Schema muss nur in Elektronik verpackt werden. Ob hierfür das Konzept aus Mittelwert+Standardabweichung bei feiner aufgelösten Häufigkeitsverteilungen als "Dein" RGB Schema überhaupt notwendig ist?

Gruß, Wolfgang
 
Ich sehe meine Frage
"Wie willst du nun wissen, welcher Anteil deiner Standardabweichung vom Mittelwert Grün in Rot oder Blau liegt?"
nicht beantwortet und vertrete auch weiter die Auffassung, dass wir für 3 (oder 4) Farbkanäle an einer Separierung vor dem Sensor nicht vorbeikommen, aber angesichts dessen:

Du wiederholst Dich halt mit Deinen Rückfragen.
..lass ich es dann halt einfach gut sein.
 
Zuletzt bearbeitet:
Ich sag ja, Du liest nicht oder bestenfalls schlecht...
Ich sehe meine Frage
"Wie willst du nun wissen, welcher Anteil deiner Standardabweichung vom Mittelwert Grün in Rot oder Blau liegt?"
nicht beantwortet und vertrete auch weiter die Auffassung, dass wir für 3 (oder 4) Farbkanäle an einer Separierung vor dem Sensor nicht vorbeikommen, aber angesichts dessen:
Ob ich vor dem Sensor die Wellenlänge der Photonen mittels Farbfilter messe oder nach dem Sensor die Messung mittels
durchführe, stört keinen großen Geist. Das gilt um so mehr, als es bei dem groben Muster RGB wirklich nicht besonders genau zugeht.

Genügen diese 3 Töpfe (RGB), ist die Auswertung mittels Standardabweichung ziemlicher Käse. Aber das hast Du sicher schon gelesen.
 
Vielleicht solltest du aufhören, anderen schlechtes Lesen zu unterstellen, nur weil du etwas nicht verstehst. Ein Farbfilter vor dem Sensor misst gar nichts, sondern selektiert aus der Menge der Werte die für den jeweiligen Rezeptor validen. Das kann dein Voltmeter im Nachhinein über der gesamten Menge nicht.
 
Mal so allgemein in die Runde gefragt, sind wir eigentlich noch beim Thema?

Vielleicht habt Ihr mich ja abgehängt, aber ist es eigentlich überhaupt so entscheidend von Bedeutung ob man in der Lage ist einzelne Photonen exakt zu vermessen? Ich habe das Gefühl das ist eher ein Nebenkriegsschauplatz wo man noch ein klein wenig mehr rauskitzeln könnte.

Mal angenommen es is möglich, stößt man ich doch spätestens mit der Dynamik an Grenzen. Wenn ein Bildpunkt mit sagen wir 10 Photonen gesättigt ist, dann kann ich daraus ja schwer 255 Stufen pro RGB-Kanal generieren.. Und beim Rauschen dürfte es bzgl. der stochastischen Eigenschaften des Photonenstroms nicht besser sein.

Naja und mit der heutigen Technologie sind wir ja gar nicht so weit weg von dieser Grenze, also so rum gesehen sprechen wir doch nur über ein paar wenige Blendenstufen die auf diesem Weg noch rausgeholt werden könnten.

Unabhängig davon ist es spannend die Diskussion zu verfolgen.
 
ist es eigentlich überhaupt so entscheidend von Bedeutung ob man in der Lage ist einzelne Photonen exakt zu vermessen?
Eben nicht. :o

Wenn ein Bildpunkt mit sagen wir 10 Photonen gesättigt ist, dann kann ich daraus ja schwer 255 Stufen pro RGB-Kanal generieren.. Und beim Rauschen dürfte es bzgl. der stochastischen Eigenschaften des Photonenstroms nicht besser sein.
Natürlich nicht. Wenn du aber aus mehreren dieser superkleinen Pixel einen großen zusammensetzt, hast du wieder höhere Dynamik und SNR. Halbwegs gleichmäßige Verteilung der Photonen vorausgesetzt.

sprechen wir doch nur über ein paar wenige Blendenstufen die auf diesem Weg noch rausgeholt werden könnten.
Wahrscheinlich nicht mal mehr 2.
 

Ok, also seh ich das wohl richtig. :p

Natürlich nicht. Wenn du aber aus mehreren dieser superkleinen Pixel einen großen zusammensetzt, hast du wieder höhere Dynamik und SNR. Halbwegs gleichmäßige Verteilung der Photonen vorausgesetzt.
Ja, das hattest Du ja weiter oben schon erläutert (und ich bilde mir ein es verstanden zu haben :angel: )

Wahrscheinlich nicht mal mehr 2.

Womit wir wieder am Anfang sind. Immer höhere Auflösung (im Endergebnis) geht einfach nicht mit immer höherer ISO zusammen. Und wir sind wohl schon ganz schön nah am theoretischen Maximum.
Neben den Detailoptimierungen, habe ich noch die Hoffnung das aus mathematischer Ecke die ein oder andere Blendenstufe kommt oder man noch etwas mehr Dynamik retten kann (z.B. indem man geschickt umliegende Pixel involviert).

Naja, auf jeden Fall spannend, das mal etwas genauer zu betrachten. Gentlemen, it has been an Honour :D
 
WERBUNG
Zurück
Oben Unten