• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Mehr Licht bei Vollformat?

Schade, dass du mir sowas unterstellst. Vielleicht lohnt es sich ja doch, wenn du in einer stillen Stunde noch mal in Ruhe darüber nachdenkst, was ich geschrieben habe.

Burkhard, ich verstehe, was Du geschrieben hast. Der entscheidende Unterschied, auf den ich raus will (und chmee auch, vermute ich), ist: Wenn Du nur einen Bildpunkt hast/kennst, dann kannst Du evtl. wissen (bspw. weil Du vorher das Verhalten des Sensors ausgemessen hast), dass sein Signal rauschbehaftet ist, und könntest vorhersagen, um wieviel weitere Bildpunkte um den Wert dieses einen Punkts streuen werden. Ob, und ggf. um wieviel, weißt Du aber nur, wenn Du die Entstehung dieses Bildpunkts kennst. Aber egal ob Du das weißt oder nicht, Du siehst ganz bestimmt kein Rauschen. Und wenn Du die Entstehung nicht kennst, kannst Du auch keinerlei Rauschen vorhersagen.
 
Ich sehe aber auch gar kein Problem darin, Millionen von Messwerten zu benutzen, um die Parameter für Schwarzpunkt und Skalierung möglichst genau zu schätzen. Sobald man sie hat, kann man Aussagen für jedes einzelne weitere Pixel treffen und dann für jedes Pixel eines normalen Bildes den SNR abschätzen, ohne immer Hunderte oder Tausende gleich belichteter Pixel suchen zu müssen.

Sehe ich genauso. Was mich dabei noch interessieren wuerde: Was waere denn nach deiner Einschaetzung ein geeignetes Mass fuer das "gesamte Rauschen" (d.h. aller Pixel) bei einem Bild?


Gruesse,
Paul
 
Burkhard, ich verstehe, was Du geschrieben hast. Der entscheidende Unterschied, auf den ich raus will (und chmee auch, vermute ich), ist: Wenn Du nur einen Bildpunkt hast/kennst, dann kannst Du evtl. wissen (bspw. weil Du vorher das Verhalten des Sensors ausgemessen hast), dass sein Signal rauschbehaftet ist, und könntest vorhersagen, um wieviel weitere Bildpunkte um den Wert dieses einen Punkts streuen werden.
Ich weiß, dass Rauschen da ist, weil ich nun mal die Quantennatur des Lichtes kenne. Dafür muss ich gar nichts über den Sensor wissen.

Ob, und ggf. um wieviel, weißt Du aber nur, wenn Du die Entstehung dieses Bildpunkts kennst.
Auch das stimmt so nicht. Die Umsetzungsrate ADU/Photon kann man leicht elektrisch bestimmen (elektr. Kapazität der Photodiode, Spannungsbereich und Bittiefe des A/D-Wandlers). Sobald ich weiß, wie viele Photonen die Photodiode eingefangen hat, kann ich das Rauschen auch quantifizieren. Es spielt aber letztlich keine Rolle, ob ich die Photodiode elektrisch ausmesse oder durch Testbelichtung kalibriere. Ich würde ja auch bei einer Entfernungsmessung mit einem unkalibrierten Messstab nicht sagen, dass er exakt misst, nur weil ich nicht weiß, wie falsch er misst.

Aber egal ob Du das weißt oder nicht, Du siehst ganz bestimmt kein Rauschen. [/QOTE]
Natürlich sehe ich bei einem Pixel kein Rauschen. Das ist aber doch nicht das Kriterium. Das Rauschen kann man nur über die Abweichung vom Original definieren. Bei den üblichen Testaufnahmen mit Graukarte o.ä. kann man ja auch das Rauschen nur scheinbar ohne das Original messen, weil man gleiche Belichtung für benachbarte Pixel voraussetzt und dadurch auch den Originalwert schätzt.

L.G.

Burkhard.
 
Auch das stimmt so nicht. Die Umsetzungsrate ADU/Photon kann man leicht elektrisch bestimmen (elektr. Kapazität der Photodiode, Spannungsbereich und Bittiefe des A/D-Wandlers).

Na ja sag ich doch: "Wenn Du das Verhalten des Sensors und die Entstehung des Bildpunkts kennst". Ob es einfach ist oder nicht, ist doch gar nicht die Frage, allerdings wird niemand von uns mal eben die Kapazität der Photodioden ausmessen können.

Aber wie gesagt, ich finde diese Diskussion sinnlos und müßig. Das Bildrauschen, das wir sehen und über das wir hier reden, erfordert mehrere (viele) Bildpunkte, und nach Möglichkeit welche, bei denen wir gleiche Helligkeiten erwarten würden. Ein einzelner Bildpunkt rauscht nicht. Wir können allenfalls, bei entsprechender Kenntnis, vorhersagen, um wieviel weitere Bildpunkte streuen würden.
 
Das Bildrauschen, das wir sehen und über das wir hier reden, erfordert mehrere (viele) Bildpunkte, und nach Möglichkeit welche, bei denen wir gleiche Helligkeiten erwarten würden.
Das halte ich für einen zu engen Rauschbegriff – ich habe in der Praxis eher Schwierigkeiten mit Rauschen in feinen Bilddetails, durch die die Struktur nicht mehr eindeutig erkennbar ist (z. B. Nadelbäume, Vogelfedern, feine Muster, schwache Sterne…). Würdest du das nicht als Rauschen bezeichnen? Es wäre jedenfalls über Nachbarpixel (im räumlichen Sinne) schwer zu definieren.

Ein einzelner Bildpunkt rauscht nicht. Wir können allenfalls, bei entsprechender Kenntnis, vorhersagen, um wieviel weitere Bildpunkte streuen würden.
… und das wäre im Wesentlichen der Wert, um den gleich belichtete Nachbarpunkte ebenfalls streuen würden, also das, was du als Rauschen bezeichnen würdest. Oder Pixel einer Testbelichtung, die ich vorher bei gleicher Helligkeit gemacht habe. Ich kann da beim besten Willen keinen qualitativen Unterschied sehen. Eine Abschätzung durch mehrere Werte (seien es Nachbarpunkte oder nacheinander aufgenommene Werte einer Belichtungsserie) erhöht lediglich die Genauigkeit der Schätzung.

L.G.

Burkhard.
 
Das halte ich für einen zu engen Rauschbegriff ...

Ach Burkhard, ja. Deshalb sage ich doch....

Das Bildrauschen, das wir sehen und über das wir hier reden, erfordert mehrere (viele) Bildpunkte, und nach Möglichkeit welche, bei denen wir gleiche Helligkeiten erwarten würden.

… und das wäre im Wesentlichen der Wert, um den gleich belichtete Nachbarpunkte ebenfalls streuen würden, also das, was du als Rauschen bezeichnen würdest. Oder Pixel einer Testbelichtung, die ich vorher bei gleicher Helligkeit gemacht habe. Ich kann da beim besten Willen keinen qualitativen Unterschied sehen. Eine Abschätzung durch mehrere Werte (seien es Nachbarpunkte oder nacheinander aufgenommene Werte einer Belichtungsserie) erhöht lediglich die Genauigkeit der Schätzung.

Ich sehe einfach, im Sinne dieser Diskussion hier, einen wesentlichen qualitativen Unterschied zwischen einer Vorhersage, wie stark Bildpunkte streuen würden, wenn man deren prinzipielles Verhalten schon kennt und überhaupt vorhersagen kann, und der Tatsache, dass da viele Bildpunkte sind, die tatsächlich streuen und man das als Rauschen wahrnimmt. Wenn ich es so hoch aufhängen wollte, wäre es der qualitative Unterschied zwischen Vorhersage und Messung.
 
Völlig unabhängig von der Aufhänghöhe ist mir nicht klar, was du damit im Kontext photoelektrischer Ereignisse meinst.
 
Burkhard, ich verstehe, was Du geschrieben hast. Der entscheidende Unterschied, auf den ich raus will (und chmee auch, vermute ich), ist: Wenn Du nur einen Bildpunkt hast/kennst, dann kannst Du evtl. wissen (bspw. weil Du vorher das Verhalten des Sensors ausgemessen hast), dass sein Signal rauschbehaftet ist, und könntest vorhersagen, um wieviel weitere Bildpunkte um den Wert dieses einen Punkts streuen werden. Ob, und ggf. um wieviel, weißt Du aber nur, wenn Du die Entstehung dieses Bildpunkts kennst. Aber egal ob Du das weißt oder nicht, Du siehst ganz bestimmt kein Rauschen. Und wenn Du die Entstehung nicht kennst, kannst Du auch keinerlei Rauschen vorhersagen.

Du hast eine radioaktive Probe.
Du zählst die Anzahl der Impulse, die eine Geiger-Müller-Zählrohr in 1 Sekunde liefert. Es seien zum Beispiel 106 Impulse.
Du weißt nicht mehr. Auf Grund der Natur von Gammastrahlung weisst Du, dass der Messwert 106 und der Rauschwert 10,3 beträgt.
Du brauchst keine weitere Messung.

Selbst wenn Du weitere Messungen durchführst, ist die Abschätzung des Messfehlers über die Anzahl der Impulse genauer als die über die Standardabweichung.
 
Na ja sag ich doch: "Wenn Du das Verhalten des Sensors und die Entstehung des Bildpunkts kennst". Ob es einfach ist oder nicht, ist doch gar nicht die Frage, allerdings wird niemand von uns mal eben die Kapazität der Photodioden ausmessen können.

Aber wie gesagt, ich finde diese Diskussion sinnlos und müßig. Das Bildrauschen, das wir sehen und über das wir hier reden,
erfordert mehrere (viele) Bildpunkte, und nach Möglichkeit welche, bei denen wir gleiche Helligkeiten erwarten würden. Ein einzelner Bildpunkt rauscht nicht.
Die Aussage ist genauso sinnvoll wie die Aussage, dass ein Würfel immer die Zahl "3" liefern wird, weil man als Experiment nur einen Wurf durchgeführt hat.

Wir können allenfalls, bei entsprechender Kenntnis, vorhersagen, um wieviel weitere Bildpunkte streuen würden.
Wir wissen schon, um wieviel der aktuelle Wert von einem noch nicht bestimmten "langjähringen Mittelwert" durchschnittlich abweichen wird.

Wenn es um das Rauschen an einem Widerstand gehen würde oder an einem Halbleiterkontakt, hätte man diese Informationen nicht.
Wenn es um die Spannung an einem Mikrowellendetektor gehen würde, hätte man diese Informationen auch nicht.
 
Du hast eine radioaktive Probe.
Du zählst die Anzahl der Impulse, die eine Geiger-Müller-Zählrohr in 1 Sekunde liefert. Es seien zum Beispiel 106 Impulse.

Es ging aber nicht um 106 Photonen oder dergleichen, sondern um einen Raw-Wert 13346, ohne weitere Informationen. Wie stark rauscht der?

Ersatzweise ginge auch dieser Bildpunkt:

Also bitte: Wie stark rauscht er?
 
Zuletzt bearbeitet:
Pixel eines Fotos sind feste Messwerte in einem Bild, sie rauschen natürlich
nicht, auch das Bild rauscht nicht, oder wenn nur durch Alterung im Papier
oder Störungen im Display. Es rauschen die Fotoempfänger im Sensor, da die
elektrischen Signale zeitlich schwanken.
 
ich könnte ersatzweise auch 16 Pixel aus einem Bild extrahieren und sie Hier zeigen. Man könnte nicht ohne weitere Informationen sagen, welcher (ob) einer der Punkte aus dem Ereignis Bild akkurat ist. Wenn die Bildinformation aber passt (einfarbig, gleichmäßig ausgeleuchtet), könnte man schon deutlich mehr zur Tendenz sagen. Mittelwert und Varianz bekämen endlich mal Zähne..

@Frank Klemm
Ich gehe einfach davon aus, dass ein "Geigerzähler" (auch in seiner simpelsten Bauweise) eine wissenschaftliche Normierung erfahren hat. Ich weiss/glaube nicht, ob/dass man das von einem beliebigen fotografischen Sensor sagen kann.

@Berlin
Nun, dann ist ja jedes gezeigte Bild, ob Papier oder Bildschirm, praktisch rauschfrei und die Diskussion um SNR wäre lange passé. Aufgrund der Poisson-Verteilung schwanken sie auch räumlich. Zwei nebeneinander liegende Sensoren erhalten verschiedene Werte, obwohl sie gleich lange erregt wurden.. Und das ist nicht nur auf sensorinterne Varianzen zurückzuführen.
 
Zuletzt bearbeitet:
Hallo!

Ich denke, hier reden zwei Parteien von unterschiedlichen Dingen, die als Rauschen bezeichnet weden.

Zum einen das, was der Fotograf als Rauschen bezeichnet. Pixel, die von der Farbe und/oder Helligkeit von dem Abweichen, was man erwarten würde.
Habe ich eine schwarze Wand fotografiert und sehe viele Pixel, die nicht schwarz sind oder habe ich eine Wand fotografiert, die ein Muster hat?
Wenn man nicht weiß, was man fotografiert hat, kann man auch nicht mit Sicherheit sagen, ob es rauscht oder nicht.

Zum anderen anscheinend eine technische Eigenschaft von elektronischen Bauteilen. Diese haben anscheinend einen Fehler oder eine Ungenauigkeit, die man messen kann. Hier kenne ich mich allerdings nicht aus.

Ich hoffe, ich habe zur weiteren Verwirrung beigetragen.;)

Gruß, Ralf
 
@Berlin
Zwei nebeneinander liegende Sensoren erhalten verschiedene Werte, obwohl sie gleich lange erregt wurden.. Und das ist nicht nur auf sensorinterne Varianzen zurückzuführen.

Du kannst aber nicht unterscheiden, ob das Rauschen ist oder die Sensoren
nur ungleichmäßig gefertigt sind. Das bekommt man erst heraus wenn die
zeitunabhängigen Fehler rausgerechnet werden *) oder als vernachlässigbar
angesehen werden können.
*) z.B. Dunkelbildsubtraktion oder normieren mit einem homogenen Bild

Natürlich zeigen sich die zeitlichen Schwankungen bei einem Sensor auch darin,
dass die einzelnen Teile unterschiedliche Ausgangswerte bekommen, weil die
Rauschquellen der einzelnen Sensoren nicht Synchron (unabhängig) sind.
 
Ich gehe einfach davon aus, dass ein "Geigerzähler" (auch in seiner simpelsten Bauweise) eine wissenschaftliche Normierung erfahren hat. Ich weiss/glaube nicht, ob/dass man das von einem beliebigen fotografischen Sensor sagen kann.

Die Kalibrierung (die meinst Du wohl?) ist gar nicht der Punkt. So ein Geigerzähler zählt Ereignisse, die er zu einem gewissen und konstanten mittleren Prozentsatz erfasst. Ein Fotosensor tut das im Prinzip auch. Wenn man das Zählergebnis und vielleicht noch das Ausleserauschen des Sensors kennt, dann kann man natürlich genau wie beim Geigerzähler vorhersagen, um wieviel die folgenden vielen Messwerte streuen würden. Das ist nahezu trivial.

Aber das ist nicht das Messergebnis, das in die Raw-Datei geschrieben wird. Und ich gehe davon aus, dass man, also wir praktisch alle, auf nichts anderes als Raw-Daten zugreifen kann, also nicht "mal eben einfach die Kapazitäten messen" kann und auch keine Kalibrierdaten des Sensors kennt. Dann kann man aus einem einzigen Raw-Wert keine Vorhersagen zum Rauschen machen. Wenn man viele gleich belichtete Pixel auswertet, kann man die Varianz bestimmen, weiß dann aber immer noch nicht, wodurch die zustandegekommen ist, es könnte Photonen- oder Ausleserauschen sein. Dafür bräuchte man weitere Messwerte bei anderen Belichtungen. Photonenrauschen ist dann für den Anteil der Varianz verantwortlich, der proportional mit der Belichtung steigt, Ausleserauschen für den konstanten Anteil.
 
@waartfarken,
Photonenzahlen sind ein anderer Schnack als ein Wert, der durch mehrere Instanzen entstanden ist. Das ist mir schon klar.

@berlin
..Du kannst aber nicht unterscheiden..
Ich kann gar nix unterscheiden bei so wenigen Daten. Aber ich würde auch die Aussage, es wäre eine zeitliche Zufallsverteilung, nicht treffen.. Und ich habe im Übrigen auch nicht vor, einen Denoiser zu schreiben.

Sprich, nun bin ich wirklich raus, denn es geht Manchen um mehr als mir.

mfg chmee
 
WERBUNG
Zurück
Oben Unten