Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Da ist sehr viel Arbeit dran und deshalb bitte ein wenig Geduld.....
Bitte in einen eigenen Thread, und den dann fix
Da ist sehr viel Arbeit dran und deshalb bitte ein wenig Geduld.![]()
Und genau aus dem Grund macht man Rauschmessungen auch an homogenen, defokussierten Grauflächen. Der Rest ist pure Statistik. Wer solche Messungen an aufgelösten Bildern macht, kauft sich so viele Fehlerquellen ein, dass sie die Arbeit nicht wert sind.Diesen Versuch kann jeder leicht selbst nachvollziehen. Das wäre für Pixelpeeper
gar nicht schlecht, denn dann würde man recht schnell feststellen, wie man sich
selbst veralbern kann und was man von "Tests" halten darf. Am schwierigsten ist
dabei, zwei exakt pixelgleich aufeinander passende Aufnahmen zu erstellen.
Die Korrektur der Testergebnisse mit geänderter Testmethode von Anders Uschold
in digitalkamera.de zeigt, dass bei der Interpretation von Testergebnissen ein
gesundes Maß an Mißtrauen geboten ist.
Ich hab zwar nicht wirklich verstanden was du machst, bin mir aber recht sicher, dass es falsch ist. Ich lass nur mal das Stichwort Gammakurve fallen.Für die Messung der Eingangsdynamik der Kamera muß man jetzt noch das Objektiv
weglassen, damit der Streulichschleier keinen Messfehler verursacht. Weniger
als 0,2 % konnte ich bei den Einzelbildern mit der Densitometerpipette nirgendwo
messen, womit wir bei den ungefähr 9 EV sind, die in den Tests immer wieder
herumgeistern.
So lange die Kamera wirklich unprozessiert rohe Daten generiert, ist die Sache kinderleicht: man zeichnet zwei kurz belichtete Darkframes in RAW auf, addiert auf den ersten einen Offset auf, subtrahiert daraufhin den zweiten, bestimmt im Differenzbild die Standardabweichung des Signals, teilt es durch Wurzel(2) und erhält damit das Ausleserauschen in digitalen Einheiten. Will man es noch auf die Elektronen umrechnen, so wird noch der Umsetzungsfaktor (Elektronen pro digitale Zähleinheit) benötigt.Und genau aus dem Grund macht man Rauschmessungen auch an homogenen, defokussierten Grauflächen. Der Rest ist pure Statistik. Wer solche Messungen an aufgelösten Bildern macht, kauft sich so viele Fehlerquellen ein, dass sie die Arbeit nicht wert sind.
Es kommen noch einige weitere Unwägbarkeiten hinzu: wo wurde durch Schwarzpunkt-Definition der Datensatz evtl. bereits geclippt? Was passiert bei Subtraktion zweier Bilder mit den Ergebnissen, die ins Negative ausschlagen? Wie stellt man sicher, dass shot noise und dark current noise vernachlässigbar sind?Ich hab zwar nicht wirklich verstanden was du machst, bin mir aber recht sicher, dass es falsch ist. Ich lass nur mal das Stichwort Gammakurve fallen.
... oder betrachtet das Ergebnis als vorzeichenbehaftete Größe.So lange die Kamera wirklich unprozessiert rohe Daten generiert, ist die Sache kinderleicht: man zeichnet zwei kurz belichtete Darkframes in RAW auf, addiert auf den ersten einen Offset auf,
Das ganze stimmt sogar exakt und das auch für beliebige Verteilungen, so u.a. auch für die Poissonverteilung.subtrahiert daraufhin den zweiten, bestimmt im Differenzbild die Standardabweichung des Signals, teilt es durch Wurzel(2) und erhält damit das Ausleserauschen in digitalen Einheiten.
Bei linearen Systemen ...Will man es noch auf die Elektronen umrechnen, so wird noch der Umsetzungsfaktor (Elektronen pro digitale Zähleinheit) benötigt.
Gute Pre-Processings sind schwer nachzuweisen. Eine gute Warm- und Hotpixel-Eliminierung mit Dunkelbildern und Maximum-Likelyhood-Schätzern.Heute mit Sony ICX085AL-Sensor durchgeführt, bekam ich Ergebnisse, die durchaus Sinn machen: eine Kamera mit 2,1 digitalen Einheiten Standardabweichung im subtrahierten Dunkelbild lag bei Annahme des in den Datenblättern genannten Umsetzungsfaktors von 5 e-/DN etwas über den Specs, eine zweite lag mit 1,5 digitalen Einheiten bei gleichem Umsetzungsfaktor recht genau auf den Specs des Herstellers (Cooke/PCO Sensicam; Ausleserauschen = 7 Elektronen RMS).
Schwierig wird das Ganze erst dann, wenn man per Detektivarbeit eine pre-RAW-Rausschfilterung nachweisen und quantifizieren muss. Hierbei sollten FFT-transformierte Daten der Farbauszüge Hinweise für solche elektronische "Datenhübschereien" liefern können. Aber selbst wenn der qualitative Nachweis eines pre-processings noch relativ leicht fallen mag,
Und welche Verteilung hat die Differenz?... oder betrachtet das Ergebnis als vorzeichenbehaftete Größe.
UINT16 Sensor1 ;
UINT16 Sensor2 ;
INT16 Diff = Sensor1 - Sensor2 ;
Das ganze stimmt sogar exakt und das auch für beliebige Verteilungen, so u.a. auch für die Poissonverteilung.
Wenn ich mich richtig erinnere, sind die statistischen Größen doch ursprünglich für Zeitreihen definiert, und bei Ensemblemessungen muss man immer dazu sagen, dass das analog gilt.Allerdings bezweifle ich, daß statistische Messungen über die zeitliche Varianz bestimmt werden. Die meisten SNR-Messungen sind Ensemble-Messungen. Flatfield-Fehler werden damit zu Rauschen. Primär ist das für Standbilder sogar richtig.
Hier geht's los: Linearisierung des ADC und Nichtlinearitäten im Verstärker.Bei linearen Systemen ...
Wenn ein Sensor behauptet, er hat 100 ASA, dann bekommt er eine gewisse Lichtmenge pro mm² für 3% schwarz, 18% grau, 100% weiß und 400% weiß. Die erhaltenen Sensordaten werden ausgewertet.
Eine Belichtungsautomatik kann z.B. wie ein eingestelltes ISO 400 so wie ein ISO 280 belichten und ergaunert sich damit 40% mehr Licht. Das JPEG-Bild sieht besser aus und hat die richtige Gradation. Im RAW dagegen ist es ohnehin Interpretationssache, welcher Digitalhub = 100%Weiß - 0%Schwarz entspricht.
Die Frage ist, wie ist das Rauschen verteilt? Bei Werten weit genug über 0, glaube ich noch, dass es gauß-verteilt ist, solange die ISO nicht zu hoch ist.
In der Fotografie braucht man sich keine Gedanken über die Asymmetrie der Poissonverteilung zu machen.Bei kleinen Werten muss die Verteilung asymmetrisch werden, ich weiss jetzt allerdings nicht welche das ist, und welche optimalen Schätzer dazugehören. Willst Du das mit der Subtraktion der zwei Frames in den Griff bekommen? Ist das ein übliches Verfahren?![]()
Impulsrauschen kenne ich gut von PMTs. Bei CCDs/CMOS muß ich mir das mal ansehen.Bei höheren ISOs kommt bestimmt noch Impulsrauschen dazu. Wenn bei Nikon in der Astrofotografie die Sterne verschwinden, ist das für mich ein Hinweis auf die Anwendung eines Medianfilters.
Praktisch immer, da Sensoren zum einen deutlichen Headroom haben, zum anderen der Headroom nicht festgelegt ist.Theoretisch, wenn die Dynamik der Szene geringer als die des Sensors ist, und die Szene eher dunkel ist.
Beim Sony ICX085AL war es fast ideal Normalverteilt, bei der Doppelbilddifferenz ebenso. Kann es gerne mal zeigen.Die Frage ist, wie ist das Rauschen verteilt? Bei Werten weit genug über 0, glaube ich noch, dass es gauß-verteilt ist, solange die ISO nicht zu hoch ist. Bei kleinen Werten muss die Verteilung asymmetrisch werden, ich weiss jetzt allerdings nicht welche das ist, und welche optimalen Schätzer dazugehören. Willst Du das mit der Subtraktion der zwei Frames in den Griff bekommen? Ist das ein übliches Verfahren?![]()
Und genau aus dem Grund macht man Rauschmessungen auch an homogenen, defokussierten Grauflächen. Der Rest ist pure Statistik. Wer solche Messungen an aufgelösten Bildern macht, kauft sich so viele Fehlerquellen ein, dass sie die Arbeit nicht wert sind.
Ich hab zwar nicht wirklich verstanden was du machst, bin mir aber recht sicher, dass es falsch ist. Ich lass nur mal das Stichwort Gammakurve fallen.
Ach ...... oder betrachtet das Ergebnis als vorzeichenbehaftete Größe.
Gaanz langsam, momentan bin ich noch beim Dunkelbild. Fixed pattern hole ich über die Subtraktion raus. Kommt Licht mit hinzu, so wäre damit gleichzeitig auch eine Flatfield-Korrektur (incl. deren Rausch-Wirksamkeit) gegeben. Als nächster Schritt kommen Dunkelstromrauschen und eine quantitative Abschätzung des fixed pattern selbst. Erst dann wage ich mich langsam an shot noise u.ä..Allerdings bezweifle ich, daß statistische Messungen über die zeitliche Varianz bestimmt werden. Die meisten SNR-Messungen sind Ensemble-Messungen. Flatfield-Fehler werden damit zu Rauschen. Primär ist das für Standbilder sogar richtig.
... wie CCDs.Bei linearen Systemen ...
Ja, das wird tricky. Ich würde mit Frequenzanalyse, Analyse der zeitlichen Variation und der (Fehl)Behandlung von Noise-ähnlichen Testmustern herangehen. Wie verhält sich z.B. ein RAW wenn ich ein Punktabbild oder ein Noise-artiges Muster ohne und mit linearem Polfilter abbilde? Ohne Polfilter wird das charakteristische AA-Filter-Muster entstehen und ein gut abgestimmter Algorithmus dies als Nutzsignal klassifizieren, in letzterem Fall würde eine der beiden AA-Filterrichtungen fehlen und das entstehende Muster am Sensor noch Noise-ähnlicher. Werden diese Signale qualitativ oder quantitativ unterschiedlich prozessiert, so hätte man klare Hinweise auf pre-processing. ...Gute Pre-Processings sind schwer nachzuweisen. Eine gute Warm- und Hotpixel-Eliminierung mit Dunkelbildern und Maximum-Likelyhood-Schätzern.
Untersuchungen laufen immer auf iterative Analyse hinaus. Schwächen der Verfahren finden, diese eliminieren.
Bei Tageslicht dürfte davon auszugehen sein, dass der Grünkanal als erster überläuft. Die Saturations-gestützte ISO-Analyse von Dxomark dürfte sich also vornehmlich auf diesen Farbauszug stützen. Dass bei Kunstlicht die ISO-Werte schnell mal Makulatur sind, kennt wohl fast jeder aus der fotografischen Praxis.Zu DXOmark wird meine Fragenliste auch immer länger. So ist die ISO-Eigenschaft ...
Außerdem fehlen mir die ganzen Meßwerte für >100%. Bei welchen Farbtemperaturen clippt grün zuerst, unterhalb welcher rot und oberhalb welcher blau. Wie groß ist der Headroom an den zwei Grenzpunkten, bei 12500 K, 6500 K und 2700 K.
Wo gab es da Fehler? Wenn du auf Uschold anspielst, wenn der Rauschmessungen auf einem Testtarget macht ist ihm nicht zu helfen.Es hat dabei aber wohl Fehler gegeben. Wäre interessant zu erfahren,was die Ursache war.
Das ist dir durchaus gelungen, nur ist gerasterter Druck nicht so mein normales Motiv für Fotos.Ich wollte die Dreckeffekte bei der Aufnahme von gerade nicht aufgelösten Flächen und defokussierten Flächen gegenüber stellen, und das ist mir zumindest teilweise gelungen.
Machen wir es anders herum. Du schließt aus einer maximal gefundenen 0,2% Differenz zwischen zwei bereits Gamma korrigierten und Farbraum zugewiesenen Bildern auf eine Dynamik von 9EV. Wenn du mir diese Rechnung erklärst könnte ich meine Meinung ändern.Das ist eine interessante Aussage. Du hast zwar nicht verstanden was
ich mache, bist Dir aber recht sicher, dass es falsch ist. Dann hast
Du doch sicher auch eine Begründung.
Und wo in deiner Betrachtung arbeitest du wirklich mit den Rohdaten?Das Stichwort Gammakurve verstehe ich jetzt nicht. Was hat die mit den Rohdaten zu tun?
Jup, und genau deshalb lässt man den für diese ganzen Betrachtungen außen vor und arbeitet nur mit den Rohdaten, die hoffentlich möglichst genau dem Sensoroutput entsprechen.Das schließt ja zum Schluß auch die RAW-Konverter mit ein, denn ohne deren Mithilfe schaut man sich ein Bild in der Regel nicht an.
Wo gab es da Fehler? Wenn du auf Uschold anspielst, wenn der Rauschmessungen auf einem Testtarget macht ist ihm nicht zu helfen.
Das ist dir durchaus gelungen, nur ist gerasterter Druck nicht so mein normales Motiv für Fotos.
Machen wir es anders herum. Du schließt aus einer maximal gefundenen 0,2% Differenz zwischen zwei bereits Gamma korrigierten und Farbraum zugewiesenen Bildern auf eine Dynamik von 9EV. Wenn du mir diese Rechnung erklärst könnte ich meine Meinung ändern.
Und wo in deiner Betrachtung arbeitest du wirklich mit den Rohdaten?
Jup, und genau deshalb lässt man den für diese ganzen Betrachtungen außen vor und arbeitet nur mit den Rohdaten, die hoffentlich möglichst genau dem Sensoroutput entsprechen.
Nun ja, Deckel auf die Kamera, dunkel machen, ISO einstellen, auf Auslöser drücken ist jetzt nicht so fehleranfällig.Da hast Du recht, aber wie machen es denn die Anderen? Wie schließen sie Messfehler aus?
Ahhhh, mir geht ein Licht auf, jetzt weiß ich was du gemeint hast. Nein, so lassen sich keine Aussagen treffen, das Ergebnis kann beliebig ausfallen.Ich habe nicht geschrieben wo ich es gemessen habe und es ist auch keine Differenz sondern die geringste gemessene Helligkeit.
Gemessen wird mit RAW, weil mir da hoffentlich noch keiner rein gespuckt hat. Was ich dann daraus für ein Bild mache ist mir überlassen.Wie roh ist RAW? Kann ich RAW hier darstellen? Was landet auf einem Bildschirm? Was zeigt Dir das Bild des RAW auf dem Monitor wirklich?
Nun ja, Deckel auf die Kamera, dunkel machen, ISO einstellen, auf Auslöser drücken ist jetzt nicht so fehleranfällig.
Ahhhh, mir geht ein Licht auf, jetzt weiß ich was du gemeint hast. Nein, so lassen sich keine Aussagen treffen, das Ergebnis kann beliebig ausfallen.
Gemessen wird mit RAW, weil mir da hoffentlich noch keiner rein gespuckt hat. Was ich dann daraus für ein Bild mache ist mir überlassen.
Ähm, was willst Du uns damit sagen?Wenn Du meinst damit wäre es getan, dann probiers aus, Mehrmals hintereinander, und dann schaus Dir an.
Gerade deswegen sollten wir hier nicht in den selben Fehler verfallen. Folgende Analyse tut IMO not:Aussagen werden getroffen, und zwar auf genau solch wackeliger Basis, und genauso beliebig ist das Ergebnis, welches bei den Tests heraus kommt.
Welche harten Evidenzen hierfür - und bei welchen Kameramodellen - hast Du denn zu bieten?Es wird reingespuckt, und zwar heftig! Etwas anderes zu glauben ist Illusion.