• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Was passiert bei Einstellung der ISO?

Wenn tatsächlich in den Full SNR-Kurven schon die Farbwerte gemittelt werden, ist es allerdings klar, dass man daraus nicht auf die full well-Kapazität einer einzelnen Photodiode schließen kann und damit bei der Berechnung der Quanteneffizienz à la sensorgen merkwürdige Werte herauskommen.

Na ja, es ist so etwas wie die effektive Sättigungskapazität für Neutralweiß bei Beleuchtung nach CIE-D50. Das ist bestimmt nicht identisch mit der Sättigungskapazität jeder einzelnen Fotodiode, aber sinnlos finde ich den Wert trotzdem nicht.

Ich würde die Intensitätsverteilung der verwendeten Lichtquelle (also D50, Illuminant A usw.) nehmen. Zum Glück sind die nur für sichtbares Licht definiert.

Wenn man die spektrale Leistungsdichte von bspw. D50 nimmt und mit V(λ) gewichtet, kommt man zu der Zahl an Photonen, die zum Helligkeitseindruck von Neutralweiß unter D50-Beleuchtung beitragen. Das sind wenige am blauen Ende des Spektrums mit höherer Energie pro Photon, es sind auch wenige am roten Ende des Spektrums mit geringerer Energie pro Photon, aber es sind viele im mittleren grünen Bereich des Spektrums mit ungefähr der Energie eines 555nm-Photons. Die mittlere Energie pro Photon wird wohl ungefähr dort in der Mitte liegen, also könnte man dann tatsächlich näherungsweise mit 555nm rechnen.

Also wäre die Quanteneffizienz bei Sensorgen näherungsweise das Verhältnis aus der Zahl an Photonen, die bei Beleuchtung nach CIE-D50 zum Helligkeitseindruck von Neutralweiß/Neutralgrau beitragen könnten, zu der Zahl an Elektronen, die von der Kamera tatsächlich für die Darstellung von Neutralweiß/Neutralgrau nutzbar sind.
 
Zuletzt bearbeitet:
Na ja, es ist so etwas wie die effektive Sättigungskapazität für Neutralweiß bei Beleuchtung nach CIE-D50. Das ist bestimmt nicht identisch mit der Sättigungskapazität jeder einzelnen Fotodiode, aber sinnlos finde ich den Wert trotzdem nicht.
Sinnlos nicht, aber es erklärt, warum da nach Korrektur mit √2 durchaus Werte über 100% herauskommen. Die Definition der Sättigungsgrenze jedenfalls ist bei mehreren beteiligten Photodioden mit unterschiedlichen Empfindlichkeiten problematisch, ist sie erreicht, wenn eine der Photodioden "überläuft"?


Wenn man die spektrale Leistungsdichte von bspw. D50 nimmt und mit V(λ) gewichtet, kommt man zu der Zahl an Photonen, die zum Helligkeitseindruck von Neutralweiß unter D50-Beleuchtung beitragen. Das sind wenige am blauen Ende des Spektrums mit höherer Energie pro Photon, es sind auch wenige am roten Ende des Spektrums mit geringerer Energie pro Photon, aber es sind viele im mittleren grünen Bereich des Spektrums mit ungefähr der Energie eines 555nm-Photons. Die mittlere Energie pro Photon wird wohl ungefähr dort in der Mitte liegen, also könnte man dann tatsächlich näherungsweise mit 555nm rechnen.
Ja, die Abweichungen sind minimal (ich komme bei D50 auf 322 000 Photonen statt 319 000, selbst bei Illuminant A sind es kaum mehr, 329 000).

Also wäre die Quanteneffizienz bei Sensorgen näherungsweise das Verhältnis aus der Photonenzahl, die bei Beleuchtung nach CIE-D50 und einer Belichtung mit 78lx.s/ISO zum Helligkeitseindruck von Neutralweiß an der Sättigungsgrenze beitragen könnten, zu der Zahl an Elektronen, die von der Kamera tatsächlich für die Darstellung von Neutralweiß nutzbar sind.
Das müsste so sein (zumindest mit dem Korrekturfaktor √2), wenn alle Annahmen korrekt sind. Kann akber m. E. nicht stimmen, weil beim Bayer-Sensor schon 50% der Fläche für die photometrisch wenig wirksamen R- und B-Kanäle fast "wegfallen". Insofern kann DxO die Kanäle eigentlich nicht photometrisch korrekt gewichten. Das würde aber die hohen "Quanteneffizienzen" bei sensorgen erklären, die dann dadurch zustande kommen, dass bei Rot und Blau mehr als die erwartete Anzahl an Photonen eingefangen werden.

L.G.

Burkhard.
 
ISO heißt ja nicht zufällig so.

Ich würde es eher "Kalibrierung" nennen. Verschiedene Sensoren ergeben unterschiedlich starke Signale. Damit man die Einstellungen Blende und Belichtungszeit vergleichen kann, muss man dieses Ausgangssignal auf eine Norm kalibrieren. Die Verstärkung die man braucht um auf diese norm (=ISO) zu kommen, ist die Basisverstärkung.



Das ist wie bei nem Quecksilberthermometer.
Als erstes wird das Röhrchen in ein Medium mit einer bestimmten Temperatur gebracht (z.B. 0°C) und das dann mit nem Strich markiert. Die anderen Striche werden dann ebenfalls ermittelt.
10cm Quecksilberstand wäre ja ziemlich sinnfrei - da würde niemand wissen wie warm es nun ist.
 
Sinnlos nicht, aber es erklärt, warum da nach Korrektur mit √2 durchaus Werte über 100% herauskommen. Die Definition der Sättigungsgrenze jedenfalls ist bei mehreren beteiligten Photodioden mit unterschiedlichen Empfindlichkeiten problematisch, ist sie erreicht, wenn eine der Photodioden "überläuft"?
Ja.
Bei heutigen Sensoren ist das in einem weiten Bereich der Farbtemperatur (ca. 1800 K bis 20000 K) der grüne Kanal.
Auch bei einigen grünstichigen Leuchstofflampen ist es erst recht der Grünkanal.

Ja, die Abweichungen sind minimal (ich komme bei D50 auf 322 000 Photonen statt 319 000, selbst bei Illuminant A sind es kaum mehr, 329 000).
Thermische Strahler, Sensor mit Empfindlichkeitskurve Y.
165.000 Photonen bei 2.700K, 160.300 bei 6.500 K, 158.200 bei 20.000 K.
Auch da recht geringe Unterschiede, was aber nicht wirklich überraschend ist.
 
Wow. Hier komt die Zeichenkette "DxO" jetzt schon öfters vor als im ganzen "Bildbearbeitung" Unterforum 2015 ;)
Das ist auch sehr schön mit denen, weil sie Tonen an Zahlen liefern die sonst kaum jemand produziert.

Wenn ich mir aber anschaue wie sie in Optics mit ihren Farbprofilen z.B. für Canon kontinuierlich Rot/Orange MASSIV verhauen, dann frag ich mich, ob sie überhaupt irgendetwas vernünftig messen können.

Oder ist das nur ein Labor mit engagierten Selfmade-Programmierern was versucht seit 2004 (?) einen RAW-Converter zu schreiben?
Ok man kann sich das schon recht vernünftig zusammenzimmern, aber dann bleibt in den Einstellungen kein Stein auf dem anderen.

p.s.:
Ja. Prime funktioniert, wenn man bei 1, 38, 82, 24 bleibt. Farbfehler bei Canonlinsen macht DPP3 dagegen weiterhin genauer weg als Optics 10.
 
Zuletzt bearbeitet:
Thermische Strahler, Sensor mit Empfindlichkeitskurve Y.
165.000 Photonen bei 2.700K, 160.300 bei 6.500 K, 158.200 bei 20.000 K.
Auch da recht geringe Unterschiede, was aber nicht wirklich überraschend ist.
Kann es sein, dass dir da ein Faktor 2 fehlt? Bei konstantem Spektrum von 380 nm bis 780 nm filtert die V-Kurve ziemlich genau 25 % des Lichts (Intensität), und unsere Werte für die Photononenzahlen bei den Ausgangsspektren passen ja zusammen.

L.G.

Burkhard.
 
Kann es sein, dass dir da ein Faktor 2 fehlt? Bei konstantem Spektrum von 380 nm bis 780 nm filtert die V-Kurve ziemlich genau 25 % des Lichts (Intensität), und unsere Werte für die Photononenzahlen bei den Ausgangsspektren passen ja zusammen.

Hatte ich geschrieben:
* Bayersensor
* mit 50% der Fläche mit Empfindlichkeitskurve Y (Ymax ist 1)
* mit 25% der Fläche mit Empfindlichkeitskurve X/Xmax
* mit 25% der Fläche mit Empfindlichkeitskurve Z/Zmax
Diese 3 Flächen dann zusammengezählt.

Man kann die Quanteneffizienz erhöhen, wenn man das Übersprechen erhöht.
Y-Rauschen wird niedriger, UV-Rauschen wird höher.
Rechne ich bei Gelegenheit mal aus.

Spektormeter <=> 3...6 Chip-Lösung <=> verschiedene Bayer-Odore.

Rauschen für Helligkeit, die schwach rauschende Farbachse und die stark rauschende Farbachse.
 
Hatte ich geschrieben:
* Bayersensor
* mit 50% der Fläche mit Empfindlichkeitskurve Y (Ymax ist 1)
* mit 25% der Fläche mit Empfindlichkeitskurve X/Xmax
* mit 25% der Fläche mit Empfindlichkeitskurve Z/Zmax
Diese 3 Flächen dann zusammengezählt.
Du hattest geschrieben:
Thermische Strahler, Sensor mit Empfindlichkeitskurve Y.
165.000 Photonen bei 2.700K, 160.300 bei 6.500 K, 158.200 bei 20.000 K.
Auch da recht geringe Unterschiede, was aber nicht wirklich überraschend ist.
Offenbar meintest du was anderes.

L.G.
 
Wenn man berechnen will, wieviele Photonen denn pro Fläche auftreffen, die zum Helligkeitseindruck von Neutralweiß beitragen, finde ich die um den Faktor 2 größeren Zahlen aussagekräftiger. Warum sollte man dabei den Bayerfilter berücksichtigen?
Natürlich ist für das Bild am Ende die QE des Gesamtpakets aus Bayer-Maske und Sensor interessant. Das Ergebnis mit Flächenberücksichtigung (an Stelle der Einzelpixel-Betrachtung) kann dann als "geometric QE" bezeichnet werden:
http://www.astrosurf.com/buil/50d/test.htm

Man kann sich alternativ - aus Neugierde - aber auch mal dafür interessieren, welche QE der Sensor denn ohne eine absorptive Farbmaske hätte und welche Transmissions-/Absorptionseigenschaften eben jene Farbmaske hat.
 
Das Ergebnis mit Flächenberücksichtigung (an Stelle der Einzelpixel-Betrachtung) kann dann als "geometric QE" bezeichnet werden:
http://www.astrosurf.com/buil/50d/test.htm

Ja, das könnte man. Dennoch machen die bei Astrosurf etwas anderes als Sensorgen, um die es hier die letzte Zeit ging. Astrosurf untersuchen die Quanteneffizienz wellenlängenabhängig und auch noch nach Bayerkanälen getrennt. Bei Sensorgen wird weißes Licht nach CIE-D50 benutzt und das kombinierte "weißabgeglichene" Ausgangsgsignal aus allen 3 Kanälen untersucht. Das Eingangssignal muss man dafür natürlich auf der gesamten Sensorfläche betrachten, nicht nur auf den 50% grünen Pixeln. Und nur darum ging es mir vorhin.
 
Ja, das könnte man.
Dennoch machen die bei Astrosurf etwas anderes als Sensorgen, um die es hier die letzte Zeit ging.
Astrosurf untersuchen die Quanteneffizienz wellenlängenabhängig und auch noch nach Bayerkanälen getrennt.
Wenn man die wellenlängenabhängige Empfindlichkeit hat, kann man alles andere ausrechnen.
Wenn man wüßte, was es überhaupt ist

Bei Sensorgen wird weißes Licht nach CIE-D50 benutzt und das kombinierte "weißabgeglichene" Ausgangsgsignal aus allen 3 Kanälen untersucht. Das Eingangssignal muss man dafür natürlich auf der gesamten Sensorfläche betrachten, nicht nur auf den 50% grünen Pixeln. Und nur darum ging es mir vorhin.
Das interessiert aber für die Bildqualität nicht.
Das Hochrechnen der nicht absorbierten Lichtquanten trägt nicht zur Bildqualität bei.
Ein Sensor mit Grün/Gelb/Pink/Grün-Pixeln hättegegenüber einem Sensor mit Grün/Rot/Blau/Grün-Pixeln ein besseres SNR für das Luma-Signal, ein schlechteres für das Chroma-Signal. Bei DXO würde das nicht berücksichtigt werden.
 
WERBUNG
Zurück
Oben Unten