WERBUNG

Low Light vs Megapixels

Also im ersten Moment (mit HoneyView) dachte ich es gibt wirklich einen Unterschied. Dann nochmal in dem Canon Tool (DPP) geschaut. Hier erkenne ich offen gesagt keinen Unterschied. Am einfachsten scheint es bei dem blauen Ravensburger links zu sein. Für mich ist eigentlich nur ein Auflösungsunterschied vorhanden...

https://www.dropbox.com/sh/cnpovfuzb67avu4/AABE-Is06KQZpNSqMmbam2TDa?dl=0
 
Wie man es auch dreht und wendet, bei gleicher Sensor- und Ausgabegröße, gleicher Sensortechnik und gleichem Betrachtungsabstand (Betrachtung des gesamten Bildes, kein Pixelpeeping), ist die Anzahl der Pixel am Sensor für das Rauschen nicht maßgebend.
Das stimmt zwar in weiten Bereichen, aber in bestimten Konstellationen wiederum nicht.

Es stimmt immer dann, wenn das Photonenrauschen ("shot noise") oder/und das Dunkelstrom-Rauschen die dominierende Rauschkomponente ist. Sobald das Ausleserauschen dominant ist, kommt die größere Photosite (bei gleichem Ausleserauschen) zu einem Vorteil.

In Messreihen zu SNR (z.B. Dxomark SNR 18%) wird das nicht sichtbar, weil man bei 18% des jeweiligen Sättigungswertes immer noch im shot noise-Bereich arbeitet. Würde man einen SNR schärfer definieren (SNR 5% oder gar SNR 2%), dann würde sich das Bild ändern. Erkennbar wird dies dann in den "dynamic range"-Darstellungen, in denen z.B. eine Sony A7S ihren höher auflösenden Schwestern davonzieht.

Wann wird das relevant? Insbesondere dann, wenn man in kontrastreichen, aber dennoch dunklen Szenen mit ISO 12.800 und höher aus der Hand fotografiert und die Verschlusszeiten so kurz hält, dass der Dunkelstrom noch nicht stark ins Gewicht fällt. Praktisches Beispiel: Konzert-/Theaterfotografie.
 
Sobald das Ausleserauschen dominant ist, kommt die größere Photosite (bei gleichem Ausleserauschen) zu einem Vorteil.

Eine blöde Frage zu diesem recht anspruchsvollen Satz:

Hat dann die größere Photosite bei gleichem Ausleserauschen als Vorteil weniger Ausleserauschen?
 
grau ist alle Theorie :-)
ich möchte etwas aus der Praxis beitragen.

Die Hamburger Speicherstadt, aufgenommen am 8.12.2017 um 22:45 Uhr
Sony A7RII (42 MP) mit dem Sony 16-35mm Vario-Tessar T FE F4@ 16mm, f/5.6, 1/10 sek. aus der Hand mit ISO 10.000 aufgenommen mit der schnellen Serienaufnahme 13 Bilder

Die 13 Bilder habe ich in PS miteinander verrechnet und zu einem zusammen gefügt. Dadurch kompensiert sich das Rauschen der einzelnen Pixel zu einem Mittelwert. Das geht natürlich nur bei solchen statischen Motiven.

das Ergebnis (hängt in 120x80cm auf Leinwand ohne sichtbares Rauschen, was natürlich auch von der Leinwand vermindert wird)

img2017_12_08_224221-Bearbeitet-2.jpg


ein 1:1 crop aus einem Einzelbild
img2017_12_08_224225-2.jpg


1:1 crop aus dem Ergebnis
img2017_12_08_224221-Bearbeitet.jpg

VG dierk
 
grau ist alle Theorie, S/W ist besser :-)

Hamburg Rathaus und Alsterarkaden
aufgenommen am 30.11.2019 um 18:30 Uhr
Leica M Monochrom 246, Leica Tri-Elmar-M 16-18-21/4, @ 16mm, f/5.6?, 11/25 sek., ISO 8.000 aus der Hand, die Blende im Exif stimmt bei Leica selten, sie wird von der Firmware errechnet

img2019_11_30_182418.jpg


1:1 crop
img2019_11_30_182418-2.jpg

VG dierk
 
Eine blöde Frage zu diesem recht anspruchsvollen Satz:

Hat dann die größere Photosite bei gleichem Ausleserauschen als Vorteil weniger Ausleserauschen?
Ja - pro Bildflächenanteil hast Du dann weniger Rauschen.

Bei monochrom ist´s leichter erklärbar:
CMOS-Sensoren erlauben (noch) kein echtes Hardware-Binning. Also muss jedes Pixel für sich ausgelesen werden.
Annahme 1: Du hast einen Sensor mit 9 µm-Pixeln (Kantenlänge) und schaffst es, ihn mit 1,2 e- Ausleserauschen auszulesen
Annahme 2: Du hast einen zweiten Sensor mit 4,5 µm-Pixeln und schaffst es ebenfalls, ihn mit 1,2 e- Ausleserauschen auszulesen.

Nun hat der 2. Sensor in jedem seiner kleineren Einzelpixel nur ein Viertel des Nutzsignals. Wenn Du vier Pixel zusammenrechnest, dann summieren sich sowohl die Nutz- als auch die Rauschsignale. Das Rauschen steigt bei diesem Manöver, wenn das Ausleserauschen stochastisch ist, nicht um Faktor 4, sondern nur - oder immerhin - um Wurzel(4)=2. Wenn man die Auflösung des höher auflösenden "R"-Sensors nicht braucht, so fährt man mit der "S" im absoluten low light-Bereich etwas besser. Sich extra dafür eine solche anzuschaffen, dürfte allerdings für die wenigsten lohnenswert sein.
 
Zuletzt bearbeitet:
Alles klar. Einmal wird das Rauschen in e- per Pixel gemessen und dann in e- per Fläche. ...
Genau. Und sobald das dominante Rauschen des Bildes nicht vom Ausleserauschen herrührt, sondern vom stochastischen Rauschen der gewandelten Photonen, dann ist der Sensor mit den kleineren Einzelpixeln fast gleich gut.
 
Was ich mich frage: Wenn ich bei meiner Canon die RAW resolution geringer setze von 26 MP auf sagen wir 18 oder 12. Sollte dann nicht die Lichtmenge sich erhöhen?

die Lichtmenge ändert sich natürlich nicht. Jedes Pixel bekommt gleich viel Licht. Es wird ja nachher runtergerechnet. Daher wird sich aber das Rauschen vermindern und der Dynamische Bereich erhöhen, auf kosten der Auflösung.
 
Mal abgesehen vom generellen Thema, was (natürlich, bei der Überschrift) schnell in eine etwas andere Richtung ging, hab' ich mal zur eigentlichen Fragestellung etwas geschaut. Es sieht wohl so aus, als ob diese mRAW und sRAW-Dateien im Detail dann doch etwas anders funktionieren. Besonders auffällig sind die mRAW-Dateien, die sRAWs verhalten sich dann eher schon wie erwartet. Primär sind die auch nur dazu gedacht, um in bestimmten Kontexten weniger Daten zu produzieren, denn in vielen Fällen sind die teils enormen Auflösungen gar nicht wichtig, dafür aber Begrenzungen bei Datenraten usw. wiederum ein deutlich spürbares Problem. Quasi irgendwo zwischen RAW und (verkleinerten) JPEGs, wenn man sich noch etwas Bearbeitungsmöglichkeiten erhalten möchte, aber die Auflösung nicht braucht.

Diverse Threads in denen das schon diskutiert wurde…
Ja, und es werden noch etliche weitere Threads und Diskussionen zu diesem Thema verfaßt werden. Das Kernproblem ist relativ einfach erklärt: Auf der einen Seite stehen Dinge wie DxOmark oder die PDR-Kurven, auf der anderen Seite stehen praktische Erfahrungen. Die kommen irgendwie nicht zusammen. Warum? Weil die Print-DR-Kurven bzw. PDR halt nur RAW-Daten messen, während man in der Praxis ohne Post-Processing nie etwas sinnvolles zu sehen bekommt. Dabei geht es nicht um "Photoshopping", sondern einfach nur eine generelle Umwandlung, die dummerweise auch noch nichtlinear ist. Das ganze wird dann mit persönlichen Meinungen zu "Rauschen" (man sollte da wohl eher von Körnung reden) als auch Nichterfahrung im HighISO-Kontext vermischt, und fertig ist eine unheilvolle Melange, an der sich die verschiedenen Seiten immer wieder aufreiben, weil so schlichtweg keine sachliche Diskussion möglich ist.
 
Das Kernproblem ist relativ einfach erklärt: Auf der einen Seite stehen Dinge wie DxOmark oder die PDR-Kurven, auf der anderen Seite stehen praktische Erfahrungen. Die kommen irgendwie nicht zusammen. Warum? Weil die Print-DR-Kurven bzw. PDR halt nur RAW-Daten messen, während man in der Praxis ohne Post-Processing nie etwas sinnvolles zu sehen bekommt. Dabei geht es nicht um "Photoshopping", sondern einfach nur eine generelle Umwandlung, die dummerweise auch noch nichtlinear ist. Das ganze wird dann mit persönlichen Meinungen zu "Rauschen" (man sollte da wohl eher von Körnung reden) als auch Nichterfahrung im HighISO-Kontext vermischt, und fertig ist eine unheilvolle Melange, an der sich die verschiedenen Seiten immer wieder aufreiben, weil so schlichtweg keine sachliche Diskussion möglich ist.
Ich sehe da gar keine Gegensätze, sondern eher Probleme bei der (Über)Interpretation der Daten. Ein SNR18 ist nun mal nichts mehr, als genau dieses: ein SNR 18% im RAW-Datensatz. Wer dann glaubt, dass damit alle Rausch-Aspekte bereits erschlagen seien, der irrt halt. In der Zusammenschau aus Dxomark und Photonstophotos (http://www.photonstophotos.net/) kann man aber schon recht gut erkennen, wie Sensoren einzuordnen sind. So weit zum Technischen.

Das Processing unterscheidet sich freilich auch, insbesondere mit den Firmen-eigenen Softwares und natürlich mit den eingebauten JPEG-Engines. Wer dies zum Entscheidungskriterium macht, der wird sehr schnell echte oder gewähnte Vorteile für sich ausmachen, die Hersteller-spezifisch sein können ("Canon-Hauttöne", Fuji-Filmemulationen, ...). Wer in RAW und mit einer "3rd-party-Software" arbeitet, der wird eher die technischen Specs der Sensoren zum Auswahlkriterium machen, da die Kamerahersteller-unabhängige Software dann fürs Processing und den "look" verantwortlich ist.
 
Ich sehe da gar keine Gegensätze, sondern eher Probleme bei der (Über)Interpretation der Daten. Ein SNR18 ist nun mal nichts mehr, als genau dieses: ein SNR 18% im RAW-Datensatz. Wer dann glaubt, dass damit alle Rausch-Aspekte bereits erschlagen seien, der irrt halt. In der Zusammenschau aus Dxomark und Photonstophotos (http://www.photonstophotos.net/) kann man aber schon recht gut erkennen, wie Sensoren einzuordnen sind. So weit zum Technischen.
Nur das im praktischen Einsatz sich die Dinge eher wie die Screen-Kurven bei DxO verhalten, d.h. wenn da zwei Kameras mit deutlich unterschiedlichen Pixelzahlen bei gleicher Sensorfläche im Print-DxO bzw. PDR ähnliche/gleiche Werte zeigen, dann hat die Kamera mit der kleineren Pixelanzahl einfach mal ein entsprechend dem Pixelverhältnis besseres HighISO-Verhalten. Das ist das, was am Ende hinten raus kommt, und weshalb es immer wieder diese Diskussionen gibt, da die Leute primär an den RAW-Meßkurven kleben, anstatt sich das eigentliche Endergebnis anzuschauen. Es wird, wie Du das halt auch schon angedeutet hast, viel zu viel in die Meßdaten hineininterpretiert, zumal die meist auch sehr eindimensional sind, d.h. die Realität um einiges komplexer ist.

Und mir geht es dabei gar nicht um irgendwelche Farbabstimmungen usw. Meine 5D3 ist z.B. bei HighISO einfach besser als eine 5Ds, auch wenn es Versuche gab, mir das zu wiederlegen (sorry, selbst getestet, keine Chance). Eine D750 gilt als gute Lowlight-Kamera, einer D810 wird das nicht unbedingt nachgesagt. Canon hat eine FullHD-Lowlight-Monster-Kamera zusammengebastelt, 19µm-Pixel; umgekehrt gibt es schon 130+MPix-KB-Sensoren, und aus irgendeinem komischen Grund brauchen die alle viel Licht, damit die Qualität nicht in sich zusammenbricht. Es gibt da also durchaus einen Zusammenhang, egal wie häufig sich die Leute aufgrund der RAW-Messungen das gleichreden, denn ständige Wiederholung macht einen falschen Sachverhalt nicht richtiger.

Genau deshalb hatte ich auch nach einem Bildbeweis gefragt, und nicht nach RAW-Meßdaten.
 
@Mi67
@Balaleica

Sehr lesenswert die Beiträge von Euch! Die bringen es mMn auf den Punkt.

Mal eine Frage dazu: Arbeiten die Algorithmen auf dem Weg vom Raw zum fertigen Bild eigentlich (noch) nicht adaptiv, so in dem Sinn, dass sie detektieren, wo die dunklen Stellen in einem Bild sind und dann dort durch Zusammenfassen von Pixeln erst mal den Signal-Rausch-Abstand erhöhen (ähnlich wie im Eingangspost erwähnt) bevor es weiter geht?
 
Zuletzt bearbeitet:
Ich möchte Euch drei Bilder zeigen:

D30 - 400mm - Ausschnitt 1200x1200 - 100%-Ansicht
90D - 117mm - Ausschnitt 1200x1200 - 100%-Ansicht
90D - 400mm, verkleinert auf 2660x1440 (in PS mit bikubisch schärfer), dann Ausschnitt 1200x1200 - 100% Ansicht

Die Sensoren sind gleich gross, die D30 hat eine Auflösung von 2160x1440, die 90D eine von 6960x4640. Der D60 Sensor ist nun 20 Jahre alt.

Die Bilder sind das jeweils schärfste aus einer manuellen Fokusreihe. Entwickelt aus dem RAW in LR, Schärfe und Entrauschung auf 0, WB habe ich angeglichen.

Etwas erschrocken war ich über die Qualität des 90D-Bildes in 100%-Ansicht. Die Kirche ist 1600m entfernt, da hat eine grössere Brennweite eindeutig Vorteile gegenüber vielen Pixeln.

Die Unterschiede im Rauschen sieht man sehr gut, trotz des Alters der D30.

LG,
Karl-Heinz
 

Anhänge

Mal eine Frage dazu: Arbeiten die Algorithmen auf dem Weg vom Raw zum fertigen Bild eigentlich (noch) nicht adaptiv, so in dem Sinn, dass sie detektieren, wo die dunklen Stellen in einem Bild sind und dann dort durch Zusammenfassen von Pixeln erst mal den Signal-Rausch-Abstand erhöhen (ähnlich wie im Eingangspost erwähnt) bevor es weiter geht?
Da dürfte es bei 6 RAW-Konverter-Programmierern zig verschiedene Algorithmen geben. Bayer-Demosaic, Farbtemperaturanpassung, Dynamikkompression, Nachschärfung und Rausch-/Hotpixelfilterung greifen dabei in verschiedener Weise ineinander, ohne dass da jeder Schritt dem Kunden gegenüber säuberlich dokumentiert wäre.

Ob bzw. wie stark adaptiv das Ganze dort abläuft, entzieht sich weitgehend einer Überprüfbarkeit. Mein Bauchgefühl ist, dass die Hersteller-übergreifenden RAW-Entwickler mit den Sensordaten noch vergleichsweise konservativ umgehen. Handy-Hersteller haben da keinerlei Hemmungen mehr, in die Bilddaten in der von ihnen gewünschten Form und Intensität einzugreifen.
 
Etwas erschrocken war ich über die Qualität des 90D-Bildes in 100%-Ansicht. Die Kirche ist 1600m entfernt, da hat eine grössere Brennweite eindeutig Vorteile gegenüber vielen Pixeln.

Beim Vergleich vom 90D Bild (117mm, f/7,1, ISO 100) mit dem D30 Bild (400mm, f/7,1, ISO 100) fällt auf, daß du dieselbe Blendenzahl, Verschlußzeit und ISO verwendest. Das hat zwei Effekte:

Optisch arbeitest du bei dem 90D Bild mit der kleineren objektseitigen numerischen Apertur (kleinere Pupille bei gleicher Entfernung). Die Detailauflösung muß schlechter sein (wenn man Aberrationen wegidealisiert).

Dann steht auch noch beim D90 Bild (ist ja nur ein Ausschnitt) viel weniger Licht zur Verfügung.
 
Na servas, 20 Jahre Sensor-Entwicklung hätte ich mir ein bisserl anders vorgestellt... :ugly:
Dass Aufnahme 2 mit nur 117 mm statt 400 mm Brennweite entstand hast du gesehen?

Und dass eine fast 4x längere Brennweite (#3) gegenüber 4fachem Croppen (#2) gewinnt ist für mich nicht weiter überraschend, egal welche Sensorgeneration.

#1 aus der 90D ist deutlich sichtbar besser als die mit gleicher Brennweite aufgenommene #3:
Z.B. feine Strukturen wie Dachziegel, Äste usw. sind viel feiner aufgelöst, und es gibt auch weniger Artefakte.
 
WERBUNG
Zurück
Oben Unten