• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Mehr Licht bei Vollformat?

Den Verstärkungsfaktor in Elektronen/DN zu ermitteln ist nun wirklich einfach um nicht zu sagen: Kinderkram. Man braucht zwei Flatfield-Paare um Mittelwert und Varianz zu berechnen. Die QE zu bestimmen setzt allerdings eine kalibrierte Lichtquelle voraus.
 
Den Verstärkungsfaktor in Elektronen/DN zu ermitteln ist nun wirklich einfach .....

Egal, wie einfach oder schwierig es ist, der Punkt ist, dass man das Verhalten des Sensors kennen muss, man also schon mehrere Messungen gemacht haben muss, um dann aus der einen Messung 13346 einen Schluss ziehen zu können. Nur mit der einen Messung geht es nicht.

Und natürlich muss man nicht viele Messungen mit genau dem Mittelwert 13346 gemacht haben, das war etwas bildlich gesprochen, aber man muss viele Messungen gemacht haben, um das Verhalten bei 13346 vorhersagen zu können.

Im Grunde ist das Thema hier aber auch egal. Es interessiert nicht das Rauschen eines einzelnen Pixels, egal ob in mehreren aufeinanderfolgenden Bildern oder nur in einem Bild. Es interessiert das Rauschen unter vielen nebeneinanderliegenden Pixeln, die nominell gleich belichtet wurden, also eine gleichförmig helle Fläche darstellen sollten, es aber nicht gleichförmig tun.
 
Egal, wie einfach oder schwierig es ist, der Punkt ist, dass man das Verhalten des Sensors kennen muss, man also schon mehrere Messungen gemacht haben muss, um dann aus der einen Messung 13346 einen Schluss ziehen zu können. Nur mit der einen Messung geht es nicht.
Eben doch. Zwei Flatfield-Paare bei unterschiedlicher Belichtung und der Drops ist gelutscht.
 
Eben doch. Zwei Flatfield-Paare bei unterschiedlicher Belichtung und der Drops ist gelutscht.

Na und? Wenn Du das Verhalten des Sensors nicht vorher ausgemessen hast, sagt Dir ein einziger Messwert 13346 gar nichts. Und damit ist dieses Nebenthema für mich beendet.
 
@Supertex
Da es Kinderkram ist, kannst Du es schnell mal vorrechnen. Sollte ja in Anbetracht der Einfachheit kein Problem darstellen..
 
Naja, er hat halt nicht verstanden, daß die 13346 nicht die Zahl der Photoelektronen beschreibt, sondern da noch ein unbekannter Verstärkungsfaktor dazwischen ist, der den Mittelwert linear und die Streuung quadratisch vergrößert. ;)
 
@Burkhard2
Ich mach es mal (für mich) einfach. Ein (1) Senselwert hat keinerlei Aussagekraft. Man kann nicht abschätzen und auch nicht errechnen, um wieviel dieser Wert vom Soll abweicht. Sogar aus der Umrechnung in die Photonenzahl (was auf * basieren würde..) wird mir nicht ersichtlich, wie sowas wie eine SNR eindeutig definiert werden kann. Sogar wenn ich Gerät und ISO definieren würde, basierte jede Berechnung auf den Testdaten Anderer, die Millionen Senseldaten nutzten*, um die Datenqualität zu definieren.. Kurzum, es geht nicht.

Nachtrag: Soweit ich weiß, sind Nikon und Sony-Raw-Daten debiased. Blacklevel ist 0. Blacklevel-Subtraction. Canon dagegen hat ihn i.wo zwischen 1023 und 2048. Ohne Nennung der Marke würde Euch nicht mal ein prozentuales Verhältnis zwischen 0 (blackcurrent?) und fullwell gelingen. Wo liegt fullwell bei einem unbekannten Rohformat? Vulgo, nichtmal das Lineal und ein simpler Dreisatz würden funktionieren, weil Ihr nicht wisst, wo Start, wo Ende ist..

Dagegen ist ein komplettes Bild in 18%-Neutralgrau unscharf ein wahrer Datenschatz. Weil die Datenmenge stimmt.

@SuperTex
Bitte spann uns nicht auf die Folter. Zeig mal.
 
Zuletzt bearbeitet:
@Burkhard2
Ich mach es mal (für mich) einfach. Ein (1) Senselwert hat keinerlei Aussagekraft. Man kann nicht abschätzen und auch nicht errechnen, um wieviel dieser Wert vom Soll abweicht. Sogar aus der Umrechnung in die Photonenzahl (was auf * basieren würde..) wird mir nicht ersichtlich, wie sowas wie eine SNR eindeutig definiert werden kann.
Die SNR ist, wenn man (wie hier immer angenommen) das Ausleserauschen und Inhomogenitätsrauschen vernachlässigt werden, einfach gegeben durch die zeitliche Folge der umgewandelten Photonen. Modelliert wird das normalerweise durch einen Poisson-Prozess, und bei dem ist bei einer erwarteten Photonenanzahl n die SNR √n. Die SNR ist also schon vor der ersten Messung definiert (und hängt von der Lichtmenge und der Quanteneffizienz des Sensors ab).

Die andere Frage ist, wie ich die SNR bzw. die Standardabweichung messe – oder in der Sprache der Statistik, welchen Schätzer ich verwende. Leider verwechseln viele Laien die Standardabweichung einer Zufallsvariablen mit der empirischen Standardabweichung einer Stichprobe, also einem geläufigen Schätzer für erstere (was sicher auch damit zu tun hat, dass beides "Standardabweichung" im Namen hat).

Messe ich k Photonen, dann kann ich z. B. n = k und SNR = √k schätzen. Wie immer in der Statistik kann ich Konfidenzintervalle für bestimmte Fehlerschranken angeben, bei einer Messung sind die natürlich nicht besonders toll – das gilt aber sowohl für den Messwert (Pixelwert) als auch für die SNR.

Kennt man die Skalierung nicht, dann hat man einen weiteren unbekannten unabhängigen Parameter, kennt man den Schwarzpunkt nicht, dann einen dritten. Entsprechend braucht man für eine Schätzung dann mindestens zwei bzw. drei Messwerte. Schon mit ein paar Hundert Messwerten kann man eine ganz gute Genauigkeit erreichen.

Ich sehe aber auch gar kein Problem darin, Millionen von Messwerten zu benutzen, um die Parameter für Schwarzpunkt und Skalierung möglichst genau zu schätzen. Sobald man sie hat, kann man Aussagen für jedes einzelne weitere Pixel treffen und dann für jedes Pixel eines normalen Bildes den SNR abschätzen, ohne immer Hunderte oder Tausende gleich belichteter Pixel suchen zu müssen.

L.G.

Burkhard.
 
Nachtrag: Soweit ich weiß, sind Nikon und Sony-Raw-Daten debiased. Blacklevel ist 0. Blacklevel-Subtraction.

Sony-Raws stellen einen Sonderfall dar, weil sie verlustbehaftet komprimiert sind. Oberhalb von Senselwert 8092, also in der oberen Hälfte des Dynamikbereichs, können 32 aufeinanderfolgende Senselwerte nur durch einen Wert im Raw dargestellt werden. Bei dieser groben Stufung würde ich kaum Rauschen erwarten.
 
Die Charakterisierung von Sensor-Spezifikationen (full well capacity = FWC, Ausleserauschen, Schwarzpunkt, SNR, Dunkelstrom, Pixel-Inhomogenitäten, Banding, ...) ist in der Tat kein Hexenwerk - wenn man die Signale unverfälscht und möglichst nahe am Sensor abgreifen kann.

Das Kaffeesatz-Raten beginnt eigentlich erst in der Abwesenheit "harter" Sensorspezifikationen, wenn aus irgendwelchen Testbildern Sensoreigenschaften rückinterpoliert werden sollen.

Das Photonenrauschen ("shot noise") ist gottgegeben, limitiert den SNR aber nur an seinem unproblematischeren Ende (in den Mitten und in den Lichtern). Der durch das Photonenrauschen bedingte Signal-Rauschabstand lässt sich nur durch hohe FWC (entweder pro Einzelpixel oder pro Flächenanteil des Bildes betrachtet) und ggf. durch Mehrfachmessungen bei gleichen oder unterschiedlichen Belichtungseinstellungen optimieren.

Die Quanteneffizienz des Sensors sollte hingegen nur dann einen Einfluss auf das Photonenrauschen haben, wenn man Blende und Belichtungszeit nicht ändert. Da ein Sensor mit lausiger QE einen geringen basis-ISO hat, würde man i.d.R. entsprechend länger/heller belichten, bis seine FWC wiederum ausgeschöpft wird. In letzterem Fall wäre dann das Photonenrauschen und der daraus resultierende SNR in Mitten und Lichtern wieder quasi identisch. Diesen Fall hatte man bei einigen frühen DSLR sowie etwas länger noch bei MF-Kameras, die entweder ohne Mikrolinsen oder mit relativ schlechten Mikrolinsen-Designs arbeiteten. Auch die Farbmasken spielen dabei natürlich eine Rolle, wenn z.B. stärker absorbierende Masken für höhere Farbtreue (z.B. in Studiokameras) mit weniger stark absorbierenden Masken für beste low-light-Fähigkeiten verglichen werden.
 
Bei dieser groben Stufung würde ich kaum Rauschen erwarten.

Die grobe Stufung erhöht im Prinzip sogar das Rauschen durch Quantisierungsrauschen, das dürfte allerdings bei hohen Raw-Werten und entsprechend hohem Anteil an Photonenrauschen kaum eine Rolle spielen.

Das Photonenrauschen ("shot noise") ist gottgegeben, limitiert den SNR aber nur an seinem unproblematischeren Ende (in den Mitten und in den Lichtern).

Mit Ausleserauschen von einigen wenigen e- und Sättigungskapazitäten von mehreren 10000 e- dominiert das Photonenrauschen keineswegs nur in den Lichtern und Mitten, sondern bis weit runter in die Schatten. Bei hohen ISO und entsprechend gering belichteten Schatten aber natürlich nicht mehr.
 
Mit Ausleserauschen von einigen wenigen e- und Sättigungskapazitäten von mehreren 10000 e- dominiert das Photonenrauschen keineswegs nur in den Lichtern und Mitten, sondern bis weit runter in die Schatten. Bei hohen ISO und entsprechend gering belichteten Schatten aber natürlich nicht mehr.
Stimmt zwar theoretisch, aber praktisch liegt das Ausleserauschen üblicher DSLR bei basis-ISO nicht nur bei einigen wenigen e-. Je nach Kameramodell (insbes. bei Canon) kann es bei basis-ISO sogar sehr deutlich zweistellig werden. Bei hohem ISO ist dann das Ausleserauschen (unterstützt durch rausch-arme on-chip-Gainstufen) zwar geringer, dafür aber ist die FWC nicht mehr voll nutzbar und die Mitten werden durch wenige hundert Elektronen/Pixel repräsentiert. Die Schatten (>= 6 EV unter dem Sättigungswert des jeweiligen Farbauszugs) bringen es noch auf wenige Dutzend Elektronen/Pixel und das shot-noise-Rauschen mit sqrt(n) liegt im Bereich der anderen Komponenten (Ausleserauschen, Dunkelstromrauschen, pattern noise, Digitalisierungsrauschen, ...).

Ausnahmen von diesen limitierenden Faktoren befinden sich gerade in der Entwicklung bzw. frühen Marktreife, aber selbst eine Sony A7s, die dem Wunsch nach hoher FWC und geringem Ausleserauschen schon recht nahe kommt, bringt ihre Vorteile erst ab ISO-3200 aufwärts voll an den Start ...

Dessen ungeachtet können wir ja froh sein, dass die FWC großer Sensoren mit großen active sites so hoch ist, dass der stochastische Photonenrausch-Anteil bei ISO 100-800 immerhin bis in die Mitten/leichten Schatten dominant bleibt, während kleinsensorige xx-MP-Schleudern schon ab basis-ISO mit Aquarellierungen agieren (müssen).
 
Sony-Raws stellen einen Sonderfall .. Oberhalb von Senselwert 8092, also in der oberen Hälfte des Dynamikbereichs..
Zu meiner eigenen Überprüfung: Da Sensoren linear aufnehmen, sind 14Bit-Daten oberhalb 8092 (oder 8192?) nur die Highlights, die letzte Blende..

Abgesehen davon, ich hab das Thema nur so angerissen, weil "ich" kein Sinn darin sehe, aus einem Wert überhaupt eine SNR errechnen zu wollen, denn praktisch macht sich "Rauschen" nur dann bemerkbar, wenn mehrere Pixel ein Bild ergeben. Bis dahin bleibt Rauschen simpel gesagt eine akademische Disziplin. Analog dazu wäre es, ich würde ein Datum aus einem 24bit/96KHz-Audiofile entnehmen und sagen wollen, es würde schlecht aufgenommen. Mir wird nicht ersichtlich, wie ich so eine Aussage treffen könnte, wenn ich nicht deutlich mehr Informationen zur Herkunft der Daten habe - und auch dann könnte ich komplett falsch liegen.

@Burkhard2
..Ich sehe aber auch gar kein Problem darin, Millionen von Messwerten zu benutzen, um die Parameter für Schwarzpunkt und Skalierung möglichst genau zu schätzen. Sobald man sie hat, kann man Aussagen für jedes einzelne weitere Pixel treffen und dann für jedes Pixel eines normalen Bildes den SNR abschätzen
Dann sag Du mir, wo der Sinn darin liegt? wissenschaftlicher Penisvergleich? Mit einer nicht geringen Wahrscheinlichkeit, doch danebenzuliegen?

mfg chmee
 
Dann sag Du mir, wo der Sinn darin liegt? wissenschaftlicher Penisvergleich? Mit einer nicht geringen Wahrscheinlichkeit, doch danebenzuliegen?
:rolleyes: Also, mich interessiert schon, wie viel vom Bildinhalt Information und wie viel Rauschen ist. Wenn dir das nicht genug ist: mit der Information kann man zum Beispiel gezielter entrauschen und dabei weniger Bilddetails zerstören/weniger Artefakte erzeugen oder gezielter schärfen mit mögichst wenig Verstärkung des Rauschens, Fehlerabschätzung bei der Helligkeitsbestimmung von Sternen …

L.G.

Burkhard.
 
@Burkhard2, es ging nur um eine Sache - dass man aus dem Verhalten vieler Daten auf ein Datum schließen kann, aber nicht andersrum. @Waartfarken, man trifft überall Wissende.. Aber dass Jemand Hier einen grandiosen Denoising-Algorithmus schreiben will, ist eher niedrig wahrscheinlich. Liege ich falsch, dann tuts mir leid.

mfg chmee
 
WERBUNG
Zurück
Oben Unten