• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Update der Forumssoftware heute!

    Liebe Mitglieder,
    Wir beabsichtigen, die Forumsoftware auf den neusten Stand zu bringen, und planen den Beginn heute, 24.07.2025, gegen 15:00 Uhr.
    Stellt Euch also bitte darauf ein, dass es zu Unerreichbarkeiten kommen kann.
    Wir werden alles tun, um so schnell wie möglich wieder online zu sein.
    Euer DSLR-Forum Team
WERBUNG

DXOMark enthüllt: digitale MFs - Auflösung wird nicht berücksichtigt

WOW:eek::eek::top::top:

Bitte in einen eigenen Thread, und den dann fix
 
Diesen Versuch kann jeder leicht selbst nachvollziehen. Das wäre für Pixelpeeper
gar nicht schlecht, denn dann würde man recht schnell feststellen, wie man sich
selbst veralbern kann und was man von "Tests" halten darf. Am schwierigsten ist
dabei, zwei exakt pixelgleich aufeinander passende Aufnahmen zu erstellen.
Die Korrektur der Testergebnisse mit geänderter Testmethode von Anders Uschold
in digitalkamera.de zeigt, dass bei der Interpretation von Testergebnissen ein
gesundes Maß an Mißtrauen geboten ist.
Und genau aus dem Grund macht man Rauschmessungen auch an homogenen, defokussierten Grauflächen. Der Rest ist pure Statistik. Wer solche Messungen an aufgelösten Bildern macht, kauft sich so viele Fehlerquellen ein, dass sie die Arbeit nicht wert sind.

Für die Messung der Eingangsdynamik der Kamera muß man jetzt noch das Objektiv
weglassen, damit der Streulichschleier keinen Messfehler verursacht. Weniger
als 0,2 % konnte ich bei den Einzelbildern mit der Densitometerpipette nirgendwo
messen, womit wir bei den ungefähr 9 EV sind, die in den Tests immer wieder
herumgeistern.
Ich hab zwar nicht wirklich verstanden was du machst, bin mir aber recht sicher, dass es falsch ist. Ich lass nur mal das Stichwort Gammakurve fallen.
 
Und genau aus dem Grund macht man Rauschmessungen auch an homogenen, defokussierten Grauflächen. Der Rest ist pure Statistik. Wer solche Messungen an aufgelösten Bildern macht, kauft sich so viele Fehlerquellen ein, dass sie die Arbeit nicht wert sind.
So lange die Kamera wirklich unprozessiert rohe Daten generiert, ist die Sache kinderleicht: man zeichnet zwei kurz belichtete Darkframes in RAW auf, addiert auf den ersten einen Offset auf, subtrahiert daraufhin den zweiten, bestimmt im Differenzbild die Standardabweichung des Signals, teilt es durch Wurzel(2) und erhält damit das Ausleserauschen in digitalen Einheiten. Will man es noch auf die Elektronen umrechnen, so wird noch der Umsetzungsfaktor (Elektronen pro digitale Zähleinheit) benötigt.

Heute mit Sony ICX085AL-Sensor durchgeführt, bekam ich Ergebnisse, die durchaus Sinn machen: eine Kamera mit 2,1 digitalen Einheiten Standardabweichung im subtrahierten Dunkelbild lag bei Annahme des in den Datenblättern genannten Umsetzungsfaktors von 5 e-/DN etwas über den Specs, eine zweite lag mit 1,5 digitalen Einheiten bei gleichem Umsetzungsfaktor recht genau auf den Specs des Herstellers (Cooke/PCO Sensicam; Ausleserauschen = 7 Elektronen RMS).

Schwierig wird das Ganze erst dann, wenn man per Detektivarbeit eine pre-RAW-Rausschfilterung nachweisen und quantifizieren muss. Hierbei sollten FFT-transformierte Daten der Farbauszüge Hinweise für solche elektronische "Datenhübschereien" liefern können. Aber selbst wenn der qualitative Nachweis eines pre-processings noch relativ leicht fallen mag, ist dessen quantitative Einschätzung immer noch nicht trivial.

Ich hab zwar nicht wirklich verstanden was du machst, bin mir aber recht sicher, dass es falsch ist. Ich lass nur mal das Stichwort Gammakurve fallen.
Es kommen noch einige weitere Unwägbarkeiten hinzu: wo wurde durch Schwarzpunkt-Definition der Datensatz evtl. bereits geclippt? Was passiert bei Subtraktion zweier Bilder mit den Ergebnissen, die ins Negative ausschlagen? Wie stellt man sicher, dass shot noise und dark current noise vernachlässigbar sind?
 
Zuletzt bearbeitet:
So lange die Kamera wirklich unprozessiert rohe Daten generiert, ist die Sache kinderleicht: man zeichnet zwei kurz belichtete Darkframes in RAW auf, addiert auf den ersten einen Offset auf,
... oder betrachtet das Ergebnis als vorzeichenbehaftete Größe.

UINT16 Sensor1 ;
UINT16 Sensor2 ;
INT16 Diff = Sensor1 - Sensor2 ;
subtrahiert daraufhin den zweiten, bestimmt im Differenzbild die Standardabweichung des Signals, teilt es durch Wurzel(2) und erhält damit das Ausleserauschen in digitalen Einheiten.
Das ganze stimmt sogar exakt und das auch für beliebige Verteilungen, so u.a. auch für die Poissonverteilung.

Allerdings bezweifle ich, daß statistische Messungen über die zeitliche Varianz bestimmt werden. Die meisten SNR-Messungen sind Ensemble-Messungen. Flatfield-Fehler werden damit zu Rauschen. Primär ist das für Standbilder sogar richtig.

BTW nennt man ein System, wo beide Eigenschaften gleich sind (bzw. ein konvergierender Grenzwert existiert) als ergodische Systeme.

Will man es noch auf die Elektronen umrechnen, so wird noch der Umsetzungsfaktor (Elektronen pro digitale Zähleinheit) benötigt.
Bei linearen Systemen ...

Heute mit Sony ICX085AL-Sensor durchgeführt, bekam ich Ergebnisse, die durchaus Sinn machen: eine Kamera mit 2,1 digitalen Einheiten Standardabweichung im subtrahierten Dunkelbild lag bei Annahme des in den Datenblättern genannten Umsetzungsfaktors von 5 e-/DN etwas über den Specs, eine zweite lag mit 1,5 digitalen Einheiten bei gleichem Umsetzungsfaktor recht genau auf den Specs des Herstellers (Cooke/PCO Sensicam; Ausleserauschen = 7 Elektronen RMS).

Schwierig wird das Ganze erst dann, wenn man per Detektivarbeit eine pre-RAW-Rausschfilterung nachweisen und quantifizieren muss. Hierbei sollten FFT-transformierte Daten der Farbauszüge Hinweise für solche elektronische "Datenhübschereien" liefern können. Aber selbst wenn der qualitative Nachweis eines pre-processings noch relativ leicht fallen mag,
Gute Pre-Processings sind schwer nachzuweisen. Eine gute Warm- und Hotpixel-Eliminierung mit Dunkelbildern und Maximum-Likelyhood-Schätzern.

Untersuchungen laufen immer auf iterative Analyse hinaus. Schwächen der Verfahren finden, diese eliminieren.

Zu DXOmark wird meine Fragenliste auch immer länger. So ist die ISO-Eigenschaft an sich eine primäre Eigenschaft eines Belichtungssystems, wenn man es mit Rohdaten zu tun hat. Sekundär werden ggf. einige Vorverstärker nachjustiert.

Wenn ein Sensor behauptet, er hat 100 ASA, dann bekommt er eine gewisse Lichtmenge pro mm² für 3% schwarz, 18% grau, 100% weiß und 400% weiß. Die erhaltenen Sensordaten werden ausgewertet.

Eine Belichtungsautomatik kann z.B. wie ein eingestelltes ISO 400 so wie ein ISO 280 belichten und ergaunert sich damit 40% mehr Licht. Das JPEG-Bild sieht besser aus und hat die richtige Gradation. Im RAW dagegen ist es ohnehin Interpretationssache, welcher Digitalhub = 100%Weiß - 0%Schwarz entspricht.

Außerdem fehlen mir die ganzen Meßwerte für >100%. Bei welchen Farbtemperaturen clippt grün zuerst, unterhalb welcher rot und oberhalb welcher blau. Wie groß ist der Headroom an den zwei Grenzpunkten, bei 12500 K, 6500 K und 2700 K.
 
Die Frage ist, wie ist das Rauschen verteilt? Bei Werten weit genug über 0, glaube ich noch, dass es gauß-verteilt ist, solange die ISO nicht zu hoch ist. Bei kleinen Werten muss die Verteilung asymmetrisch werden, ich weiss jetzt allerdings nicht welche das ist, und welche optimalen Schätzer dazugehören. Willst Du das mit der Subtraktion der zwei Frames in den Griff bekommen? Ist das ein übliches Verfahren? :confused:

Bei höheren ISOs kommt bestimmt noch Impulsrauschen dazu. Wenn bei Nikon in der Astrofotografie die Sterne verschwinden, ist das für mich ein Hinweis auf die Anwendung eines Medianfilters.
 
... oder betrachtet das Ergebnis als vorzeichenbehaftete Größe.

UINT16 Sensor1 ;
UINT16 Sensor2 ;
INT16 Diff = Sensor1 - Sensor2 ;

Das ganze stimmt sogar exakt und das auch für beliebige Verteilungen, so u.a. auch für die Poissonverteilung.
Und welche Verteilung hat die Differenz?

Allerdings bezweifle ich, daß statistische Messungen über die zeitliche Varianz bestimmt werden. Die meisten SNR-Messungen sind Ensemble-Messungen. Flatfield-Fehler werden damit zu Rauschen. Primär ist das für Standbilder sogar richtig.
Wenn ich mich richtig erinnere, sind die statistischen Größen doch ursprünglich für Zeitreihen definiert, und bei Ensemblemessungen muss man immer dazu sagen, dass das analog gilt.

Bei linearen Systemen ...
Hier geht's los: Linearisierung des ADC und Nichtlinearitäten im Verstärker.


Wenn ein Sensor behauptet, er hat 100 ASA, dann bekommt er eine gewisse Lichtmenge pro mm² für 3% schwarz, 18% grau, 100% weiß und 400% weiß. Die erhaltenen Sensordaten werden ausgewertet.

Eine Belichtungsautomatik kann z.B. wie ein eingestelltes ISO 400 so wie ein ISO 280 belichten und ergaunert sich damit 40% mehr Licht. Das JPEG-Bild sieht besser aus und hat die richtige Gradation. Im RAW dagegen ist es ohnehin Interpretationssache, welcher Digitalhub = 100%Weiß - 0%Schwarz entspricht.

Theoretisch, wenn die Dynamik der Szene geringer als die des Sensors ist, und die Szene eher dunkel ist.
 
Die Frage ist, wie ist das Rauschen verteilt? Bei Werten weit genug über 0, glaube ich noch, dass es gauß-verteilt ist, solange die ISO nicht zu hoch ist.

Nicht ganz. Nach http://www.astrosurf.com/buil/400d/dark.png (zwar mit 30 sec Exposure Time) scheint es zwei Komponenten zu geben, was auch meine Beobachtung ist. Ein gewisses Basisrauschen, was relativ wenig stört und dann ein deutlich selteneres, aber deutlich stärkeres Rauschen.

Bei kleinen Werten muss die Verteilung asymmetrisch werden, ich weiss jetzt allerdings nicht welche das ist, und welche optimalen Schätzer dazugehören. Willst Du das mit der Subtraktion der zwei Frames in den Griff bekommen? Ist das ein übliches Verfahren? :confused:
In der Fotografie braucht man sich keine Gedanken über die Asymmetrie der Poissonverteilung zu machen.

Bei höheren ISOs kommt bestimmt noch Impulsrauschen dazu. Wenn bei Nikon in der Astrofotografie die Sterne verschwinden, ist das für mich ein Hinweis auf die Anwendung eines Medianfilters.
Impulsrauschen kenne ich gut von PMTs. Bei CCDs/CMOS muß ich mir das mal ansehen.
Interessant ist dabei die Frage, ob das erhöhte Rauschen immer die gleichen Pixel heimsucht oder ob es unvorhersehbar auftritt.

Die Frage ist aber auch, wie ein Optimalfilter auf den Rohdaten zu bewerten ist, der fortlaufend für jeden Pixel eine Statistik mitlaufen läßt und für jeden Pixel den wahrscheinlichsten Wert ausrechnet. Schwache Sterne würden dabei gedämpft werden, insgesamt würde aber mehr Rauschen als Nutzsignal entfernt werden.

In ein RAW-File speichern: Da fallen viel zu viele Daten an!
 
Theoretisch, wenn die Dynamik der Szene geringer als die des Sensors ist, und die Szene eher dunkel ist.
Praktisch immer, da Sensoren zum einen deutlichen Headroom haben, zum anderen der Headroom nicht festgelegt ist.

Wie schon gesamt, das gilt nur für RAW.
Für JPEG gilt das nicht, da man dort etwas durch die real angewandte Gradationskurve fixiert wird. Aber auch nur zu 75%, da man die Kurven auch nur in etwa fitten kann, zum anderen wird das ganze ohnehin bei dynamischen Kurven (D-Lightning) sehr unübersichtlich.
 
Die Frage ist, wie ist das Rauschen verteilt? Bei Werten weit genug über 0, glaube ich noch, dass es gauß-verteilt ist, solange die ISO nicht zu hoch ist. Bei kleinen Werten muss die Verteilung asymmetrisch werden, ich weiss jetzt allerdings nicht welche das ist, und welche optimalen Schätzer dazugehören. Willst Du das mit der Subtraktion der zwei Frames in den Griff bekommen? Ist das ein übliches Verfahren? :confused:
Beim Sony ICX085AL war es fast ideal Normalverteilt, bei der Doppelbilddifferenz ebenso. Kann es gerne mal zeigen.

Interessant für den Nachweis eines pre-processing sind dann eher die Frequenzspektren des Rauschens. In der FFT-Analyse des Bildes bzw. Differenzbildes mit dem "wissenschaftlichen Idealsensor" bekommt man diese Abweichungen sehr klar dargestellt. Mal sehen ob und wann ich dazu komme, debayering-freie Farbauszüge aus Dunkelbild-RAWs der 5D durch die selbe Rausch- und FFT-Analyse zu schieben.
 
Und genau aus dem Grund macht man Rauschmessungen auch an homogenen, defokussierten Grauflächen. Der Rest ist pure Statistik. Wer solche Messungen an aufgelösten Bildern macht, kauft sich so viele Fehlerquellen ein, dass sie die Arbeit nicht wert sind.

Es hat dabei aber wohl Fehler gegeben. Wäre interessant zu erfahren,
was die Ursache war. Vielleicht waren es aber auch gar keine Fehler
und das Ergebnis hat irgendwelchen Leuten nicht gepasst? Wer weiß
das schon. Wo fängt eine homogene Fläche an, wo hört sie auf, wie
ist Homogenität definiert? Ist das was wir als homogen ansehen wirklich
homogen oder nur bis zu einer bestimmten Vergrößerung bzw. Auflösung?
Ich wollte die Dreckeffekte bei der Aufnahme von gerade nicht aufgelösten
Flächen und defokussierten Flächen gegenüber stellen, und das ist mir
zumindest teilweise gelungen. Es geht sicher besser, wenn man eine noch
bessere pixelgenaue Deckung bei der Aufnahme der Bilder hinbekommt.
BTW, Auflösungsmessungen müssen doch an aufgelösten Vorlagen gemacht
werden, wenn ich mich nicht irre.

Ich hab zwar nicht wirklich verstanden was du machst, bin mir aber recht sicher, dass es falsch ist. Ich lass nur mal das Stichwort Gammakurve fallen.

Das ist eine interessante Aussage. Du hast zwar nicht verstanden was
ich mache, bist Dir aber recht sicher, dass es falsch ist. Dann hast
Du doch sicher auch eine Begründung.
Das Stichwort Gammakurve verstehe ich jetzt nicht. Was hat die mit den
Rohdaten zu tun? Meiner Meinung nach ist die Gammakurve für den visuellen
Eindruck verantwortlich, und der wird nach den Rohdaten erzeugt. Was die
RAW-Konverter in der Desktopsoftware und in den Kameras machen ist mir im
Prinzip sogar egal, denn ich will wissen, was vom Originalanblick mit
meinen Augen noch auf dem Bild ankommt und ich will wissen, wo manipuliert
wird um Eigenschften vorzutäuschen die so nicht vorhanden sind. Das geht
nur, wenn man die Originaltestvorlage und das Verfahren genau kennt.
Da ich dieses aber nicht genau kenne, suche ich eben nach einer anderen
Möglichkeit festzustellen, inwieweit mein System die "Wirklichkeit" abbildet.
Meine Testvorlage kenne ich ja und kann vergleichen, und das gegebenenfalls
auch mit verschiedenen Marken soweit sie mir zur Verfügung stehen.
Was ich bisher in Tests gelesen habe und was ich dann als Ergebnis aus
der Kamera sah, waren oft genug zwei verschiedene Schuhe. Ich stecke lange
genug in der Technik drin um zu wissen, dass beileibe nicht alles stimmt
was Tests uns so vorgaukeln, dass manipuliert wird was das Zeug hält. Das
schließt ja zum Schluß auch die RAW-Konverter mit ein, denn ohne deren
Mithilfe schaut man sich ein Bild in der Regel nicht an. Das ist ein ganz
praktischer Ansatz. Mit den theoretischen Überlegungen anderer User hier will
ich auch gar nicht konkurrieren, ich könnte es auch nicht, dazu fehlen mir
die Vorraussetzungen und Sensoren entwickeln will ich auch nicht.
 
... oder betrachtet das Ergebnis als vorzeichenbehaftete Größe.
Ach ... ;)

Allerdings bezweifle ich, daß statistische Messungen über die zeitliche Varianz bestimmt werden. Die meisten SNR-Messungen sind Ensemble-Messungen. Flatfield-Fehler werden damit zu Rauschen. Primär ist das für Standbilder sogar richtig.
Gaanz langsam, momentan bin ich noch beim Dunkelbild. Fixed pattern hole ich über die Subtraktion raus. Kommt Licht mit hinzu, so wäre damit gleichzeitig auch eine Flatfield-Korrektur (incl. deren Rausch-Wirksamkeit) gegeben. Als nächster Schritt kommen Dunkelstromrauschen und eine quantitative Abschätzung des fixed pattern selbst. Erst dann wage ich mich langsam an shot noise u.ä..

Das nette, was ich bislang gar nicht so realisiert hatte: bei linearen Systemen und Datenhandling ohne pre-processing bekomme ich ja sehr leicht eine retrograde Abschätzung des readout-noise, der Dynamik und des Frequenzspektrums des Rauschens hin.

Bei linearen Systemen ...
... wie CCDs.

Gute Pre-Processings sind schwer nachzuweisen. Eine gute Warm- und Hotpixel-Eliminierung mit Dunkelbildern und Maximum-Likelyhood-Schätzern.
Untersuchungen laufen immer auf iterative Analyse hinaus. Schwächen der Verfahren finden, diese eliminieren.
Ja, das wird tricky. Ich würde mit Frequenzanalyse, Analyse der zeitlichen Variation und der (Fehl)Behandlung von Noise-ähnlichen Testmustern herangehen. Wie verhält sich z.B. ein RAW wenn ich ein Punktabbild oder ein Noise-artiges Muster ohne und mit linearem Polfilter abbilde? Ohne Polfilter wird das charakteristische AA-Filter-Muster entstehen und ein gut abgestimmter Algorithmus dies als Nutzsignal klassifizieren, in letzterem Fall würde eine der beiden AA-Filterrichtungen fehlen und das entstehende Muster am Sensor noch Noise-ähnlicher. Werden diese Signale qualitativ oder quantitativ unterschiedlich prozessiert, so hätte man klare Hinweise auf pre-processing. ...

Zu DXOmark wird meine Fragenliste auch immer länger. So ist die ISO-Eigenschaft ...

Außerdem fehlen mir die ganzen Meßwerte für >100%. Bei welchen Farbtemperaturen clippt grün zuerst, unterhalb welcher rot und oberhalb welcher blau. Wie groß ist der Headroom an den zwei Grenzpunkten, bei 12500 K, 6500 K und 2700 K.
Bei Tageslicht dürfte davon auszugehen sein, dass der Grünkanal als erster überläuft. Die Saturations-gestützte ISO-Analyse von Dxomark dürfte sich also vornehmlich auf diesen Farbauszug stützen. Dass bei Kunstlicht die ISO-Werte schnell mal Makulatur sind, kennt wohl fast jeder aus der fotografischen Praxis.
 
Zuletzt bearbeitet:
Es hat dabei aber wohl Fehler gegeben. Wäre interessant zu erfahren,was die Ursache war.
Wo gab es da Fehler? Wenn du auf Uschold anspielst, wenn der Rauschmessungen auf einem Testtarget macht ist ihm nicht zu helfen.

Ich wollte die Dreckeffekte bei der Aufnahme von gerade nicht aufgelösten Flächen und defokussierten Flächen gegenüber stellen, und das ist mir zumindest teilweise gelungen.
Das ist dir durchaus gelungen, nur ist gerasterter Druck nicht so mein normales Motiv für Fotos.

Das ist eine interessante Aussage. Du hast zwar nicht verstanden was
ich mache, bist Dir aber recht sicher, dass es falsch ist. Dann hast
Du doch sicher auch eine Begründung.
Machen wir es anders herum. Du schließt aus einer maximal gefundenen 0,2% Differenz zwischen zwei bereits Gamma korrigierten und Farbraum zugewiesenen Bildern auf eine Dynamik von 9EV. Wenn du mir diese Rechnung erklärst könnte ich meine Meinung ändern.

Das Stichwort Gammakurve verstehe ich jetzt nicht. Was hat die mit den Rohdaten zu tun?
Und wo in deiner Betrachtung arbeitest du wirklich mit den Rohdaten?

Das schließt ja zum Schluß auch die RAW-Konverter mit ein, denn ohne deren Mithilfe schaut man sich ein Bild in der Regel nicht an.
Jup, und genau deshalb lässt man den für diese ganzen Betrachtungen außen vor und arbeitet nur mit den Rohdaten, die hoffentlich möglichst genau dem Sensoroutput entsprechen.
 
Wo gab es da Fehler? Wenn du auf Uschold anspielst, wenn der Rauschmessungen auf einem Testtarget macht ist ihm nicht zu helfen.

Da hast Du recht, aber wie machen es denn die Anderen? Wie schließen sie Messfehler aus?

Das ist dir durchaus gelungen, nur ist gerasterter Druck nicht so mein normales Motiv für Fotos.

Meine auch nicht. Aber Textilien zum Beispiel haben ähnliche Strukturen und weiter
entfernte Zäune oder Sträucher oder Hauswände oder .... auch.

Machen wir es anders herum. Du schließt aus einer maximal gefundenen 0,2% Differenz zwischen zwei bereits Gamma korrigierten und Farbraum zugewiesenen Bildern auf eine Dynamik von 9EV. Wenn du mir diese Rechnung erklärst könnte ich meine Meinung ändern.

Ich habe nicht geschrieben wo ich es gemessen habe und es ist auch keine Differenz sondern
die geringste gemessene Helligkeit.

Und wo in deiner Betrachtung arbeitest du wirklich mit den Rohdaten?

Wie roh ist RAW? Kann ich RAW hier darstellen? Was landet auf Deinem Bildschirm? Was zeigt Dir
das Bild des RAW auf dem Monitor wirklich?

Jup, und genau deshalb lässt man den für diese ganzen Betrachtungen außen vor und arbeitet nur mit den Rohdaten, die hoffentlich möglichst genau dem Sensoroutput entsprechen.

Jup, und genau deshalb habe ich geschrieben, dass mein Versuch keinen Wissenschaftlichen Anspruch hat und ich die Sache von der praktischen Seite aus angehe. Ich will und werde mich darüber hier auch mit niemandem streiten. Was ich gemacht habe kann jeder selbst mit seiner Kamera nachvollziehen. Mache es doch einfach mal selbst mit Deinen Kameras und stelle Deine Ergebnisse hier vor. Es interessiert mich, was Du dabei entdeckst.
 
Da hast Du recht, aber wie machen es denn die Anderen? Wie schließen sie Messfehler aus?
Nun ja, Deckel auf die Kamera, dunkel machen, ISO einstellen, auf Auslöser drücken ist jetzt nicht so fehleranfällig.

Ich habe nicht geschrieben wo ich es gemessen habe und es ist auch keine Differenz sondern die geringste gemessene Helligkeit.
Ahhhh, mir geht ein Licht auf, jetzt weiß ich was du gemeint hast. Nein, so lassen sich keine Aussagen treffen, das Ergebnis kann beliebig ausfallen.

Wie roh ist RAW? Kann ich RAW hier darstellen? Was landet auf einem Bildschirm? Was zeigt Dir das Bild des RAW auf dem Monitor wirklich?
Gemessen wird mit RAW, weil mir da hoffentlich noch keiner rein gespuckt hat. Was ich dann daraus für ein Bild mache ist mir überlassen.
 
Nun ja, Deckel auf die Kamera, dunkel machen, ISO einstellen, auf Auslöser drücken ist jetzt nicht so fehleranfällig.

Wenn Du meinst damit wäre es getan, dann probiers aus, Mehrmals hintereinander, und dann schaus Dir an.

Ahhhh, mir geht ein Licht auf, jetzt weiß ich was du gemeint hast. Nein, so lassen sich keine Aussagen treffen, das Ergebnis kann beliebig ausfallen.

Aussagen werden getroffen, und zwar auf genau solch wackeliger Basis, und genauso beliebig ist das Ergebnis, welches bei den Tests heraus kommt.

Gemessen wird mit RAW, weil mir da hoffentlich noch keiner rein gespuckt hat. Was ich dann daraus für ein Bild mache ist mir überlassen.

Diesen Satzteil sollte man dick unterstreichen: ..."weil mir da hoffentlich noch keiner rein gespuckt hat."
Es wird reingespuckt, und zwar heftig! Etwas anderes zu glauben ist Illusion.
 
Zuletzt bearbeitet:
Wenn Du meinst damit wäre es getan, dann probiers aus, Mehrmals hintereinander, und dann schaus Dir an.
Ähm, was willst Du uns damit sagen?

Aussagen werden getroffen, und zwar auf genau solch wackeliger Basis, und genauso beliebig ist das Ergebnis, welches bei den Tests heraus kommt.
Gerade deswegen sollten wir hier nicht in den selben Fehler verfallen. Folgende Analyse tut IMO not:
- RAW auswerten
- Zeichen von "ungebührigem pre-processing" in RAW Suchen
- ggf. einen Versuch des Ausnormierens von pre-RAW pre-processing betreiben

Es wird reingespuckt, und zwar heftig! Etwas anderes zu glauben ist Illusion.
Welche harten Evidenzen hierfür - und bei welchen Kameramodellen - hast Du denn zu bieten?
 
Was ist mit dem "Print"-Knopf los?
Ich kann es sehen, aber nicht klicken. :confused:

Oder wird gerade der "Print"-Knopf neu programmiert um nicht mehr auf 8MP zu normalisieren sonder auf MF-Niveau :)
 
Warum nicht mit einer Grey-Card Aufnahme, anschliessend ausgedrucken (nur in Graustufen) mit einem Tintenstrahldrucker und dann in unterschiedlichen Abständen nochmals aufnehmen, bis die Kamera die einzelnen Dots auflösen kann. Nur eine Idee, aber könnte doch etwas Aufschluss bringen.
Gruss, Mike
 
WERBUNG
Zurück
Oben Unten