nightstalker hat ja mit allem Recht, bis auf die Verallgemeinerung "größer=besser".
Das ist dann eigentlich ein mathematisches Problem.
Der Gedankengang ist folgender:
Selbst wenn ein großer Sensor die gleiche Pixeldichte (also gleich große Pixel) hat wie ein kleiner, ist er
besser "geeignet" für High ISO als der kleine. Warum?
Nun, nehmen wir noch mal die D3 her.
Prinzipiell rauscht der Sensor der D3 immer gleich stark, egal ob ich nun das Bild im Crop-Modus mit 5MP aus der Mitte mache, oder die vollen 12MP nutze.
Jeder Pixel für sich wird eine identische Standardabweichung vom "richtigen" Wert haben. Nehmen wir einfach mal an, bei 12 Bit wären 2 Bit "Rauschen", der Rest wäre Signal (das wären dann 4/4096).
Dies gilt natürlich für das Crop-Foto genauso wie für das 12MP-Bild.
Nun belichten wir beide Fotos - 12MP und 5MP - auf ein 20*30cm Fotopapier.
Was passiert nun? Bei der höheren Auflösung werden mehr Pixel auf eine Fläche gequetscht, wir sehen also weniger vom Rauschen.
Soweit Nightstalkers Theorie (die auch stimmig ist).
Einschub: Jetzt ist es natürlich so, dass unser Crop-Foto deutlich weniger vom Motiv zeigt, wir müssten also wahlweise unsere Aufnahmedistanz verändern, oder die Brennweite, um einen identischen Bildinhalt/Bildwinkel zu bekommen. Damit ändert sich die Schärfentiefe - aber die ändert sich auch durch die Verkleinerung des Bildes. Wenn wir Aufnahmedistanz/1,5 wählen, und das Bild entsprechend 1,5 mal weniger Stark vergrößern, gleicht sich das genau aus.
Nun ist es allerdings so, dass bei zunehmend größerer Pixelanzahl der Rauschanteil größer wird. Hat unser größer Sensor also eine
DEUTLICH größere Pixeldichte als der kleine Sensor - also nicht wie bei der D3, wo die Pixeldichte identisch ist, und auch nicht wie bei der mkIIIs, wo 24MP immer noch "moderat" sind, sondern meinetwegen Faktor 4 in der Pixeldichte, so nimmt natürlich das Rauschen je Pixel immer weiter zu.
Dabei wirkt sich nun die Tatsache aus, dass die Reduktion des sichtbaren Rauschens durch die Interpolation beim "Verkleinern" des Bildes (sei es analog im Auge des Menschen oder digital durch herunterrechnen der Auflösung) irgendwann weniger stark ist als der Verlust an verwertbarer Signalstärke.
Bleiben wir mal bei unserem Rauschen von 4/4096 bei der D3. Wenn wir die Pixelzahl verdoppeln, also auf 24MP gehen, halbiert sich die Lichtmenge pro Pixel, und wenn die Sensortechnologie identisch bleibt, erhalten wir nun einen Rauschanteil von 8/4096.
Skalieren wir von 24 auf 12MP herunter, so ergibt das jeweils 1,4*1,4 Pixel auf einen kleineren Pixel. Wenn sämtliche dieser 1,96 Pixel eine maximale Abweichung von "8" hatten - nehmen wir mal an, der korrekte Wert wäre 0 gewesen, und alle beteiligten Pixel hätten einen Wert von 8 - so ergibt dies in der Interpolation wieder einen Wert von - 8. Das ist natürlich der worst case, genauso könnte der Optimalfall von 0 eintreten.
Da das Rauschen mit der Pixelanzahl linear zunimmt, der positive Effekt des Skalierens jedoch nur mit der Fläche (umgekehrt quatratisch oder so) zunimmt, wird mit zunehmender Pixelzahl der negative Effekt des Rauschens immer größer.
Ein Statistiker sei geneigt, das ganze mit exakten Formeln zu untermauern, dafür fehlt mir die mathematische Theorie
Kurz: viele kleine Pixel mit starkem Rauschen verkleinern ergibt mathematisch NICHT das gleiche Ergebnis wie weniger große Pixel mit geringem Rauschen (weil Verkleinerungseffekt und Rauschen unterschiedlich zunehmen).
Entscheidend dafür ist aber, dass die Pixeldichte sich
deutlich unterscheidet! Bei 12 vs. 24MP wird man noch keinen großen Unterschied bemerken.
Woah, ich hoffe das begreift jetzt noch irgend jemand...
