Wenn ich meinen 300 MP VF Sensor mit einem 12 MP 1/2,3 Zoll Sensor vergleiche, rauscht der 12 MP Ausschnitt des VF Sensor identisch, wenn ich ihn in der gleichen Ausgabegröße wie die 12 MP des kleinen Sensor betrachte.
Richtig.
Die 288 MP aussenherum spielen da keine Rolle.
Zunächst auch richtig.
Warum sollen dann die 300 MP insgesamt weniger rauschen als 12 MP in Vollbildansicht (gleiche Ausgabegröße), nur weil es verkleinert ist? Es gibt keine zusätzlichen Informationen (für das menschliche Auge).
Doch! Die gibt es.
Sieh es mal so: Wenn du dir das Gesamtbild in einer bestimmten Ausgabegröße ansiehst, hast du immer eine Auflösungsreduktion. (Vorausgesetzt, die Auflösung war am Anfang hoch genug, sodass man keine einzelnen Pixel wahrnimmt.) Selbst wenn das Ausgabemedium in der entsprechenden Größe die volle Auflösung Pixel für Pixel darstellen kann (riesiger, hochauflösender Druck, sehr hochauflösender und / oder riesiger Monitor, ...), kann dein Auge das nicht. Bedenke, dass du grundsätzlich das
ganze Bild im Blick behalten musst. Näher Herangehen und einen Teil Ansehen zählt nicht, denn das wäre eine andere Ausgabegröße (Detailvergrößerung).
Wenn du nun die 300 MP auf das "herunterinterpolierst", was dein Auge wahrnehmen kann (ich weiß nicht, wieviel das ist, aber sicherlich weniger als 300 MP), werden jeweils mehrere Pixel miteinander "vermischt", quasi gemittelt. Je mehr das sind, desto geringer wird das Rauschen im Ergebnis - im Verhältnis zum Rauschen der Einzelpixel.
Unterteilst du die gleiche Sensorfläche in mehr Pixel, so rauscht jedes einzelne stärker - dafür werden mehr miteinander gemittelt, sodass sich das genau rauskürzt. Daher ist es (fast) egal, in wieviele Pixel man die Sensorfläche unterteilt. ("Fast", weil es wohl noch etwas "Verschnitt" gibt. Wenn man davon ausgeht, dass keine Lücken zwischen den Pixeln / "Senseln" entsehen, ist der Unterschied Null.) Ob ich 12 MP oder 300 MP auf der gleichen Fläche habe, ist für das Ergebnis daher völlig egal.
Nehme ich jetzt die zwei Sensoren, die du vorschlägst: Gleiche Pixelgröße, einmal 12 MP, einmal 300 auf entsprechend größerer Fläche, so macht das einen Unterschied: Jeder der 300 Pixel rauscht genauso stark wie jeder der 12 MP - sie sind ja gleich groß. Bei den 300 werden aber viel mehr auf ein "Augenpixel" zusammengemappt, d.h. gemittelt, sodass das Rauschen abnimmt. Hier kürzt sich nichts mehr raus, da die 300 MP im Gegensatz zum vorherigen Fall mit der gleichen Fläche nicht einzeln stärker rauschen, sondern nur genauso stark wie die 12. Aber es gibt mehr.
Nehme ich 25 kompakte 12 MP Bilder und reihe sie aneinander, kommt bzgl. Rauschen dasselbe Ergebnis heraus.
Nur, wenn du sie auch 25 mal so groß anguckst wie das einzelne. Wenn du das Ergebnis verkleinerst, oder einfach nur soweit weggehst, dass es für dich genauso groß aussieht wie vorher das eine Bild, siehst du viel weniger Rauschen.
Die Sensorgröße spielt beim rauschen also keine Rolle, nur indirekt, weil beim größeren Sensor die Pixel größer sein können.
Doch, die Sensorgröße ist sogar (fast, siehe oben) das Einzige, was eine Rolle spielt.
Und Pixeldenken ist analog zum Teilchenmodell-Denken der Physiker. Ist das etwa auch nicht zielführend?
In der Physik musst du dann aber sowohl die Anzahl als auch die Eigenschaften der Teilchen berücksichtigen. Wenn du die Gesamtenergie einer Teilchenmenge betrachten willst, musst du also sowohl die Anzahl Teilchen ALS AUCH die Energie pro Teilchen betrachten.
Nehmen wir mal die während der Belichtung vom Sensor aufgenommene Gesamtenergie. Die verhält sich umgekehrt zum Rauschen, da weniger verstärkt werden muss. (Vereinfacht!)
Die Energierdichte des Lichts, d.h. Energie pro Fläche ist immer gleich. (Sonst habe wir wieder verschiedene Objektive, siehe Diskussion weiter oben.) Was ein Pixel davon abkriegt, ist abhängig von seiner Fläche. Nehmen wir mal keinen "Verschnitt" an, so ist die Fläche eines Pixels die Gesamtfläche durch die Anzahl der Pixel.
Jetzt nehmen wir zwei Sensoren der gleichen Größe: 12 MP und 300 MP.
Jedes Pixel der 12 Mio. hat eine Fläche von Sensorfläche / 12 Mio. Jedes der 300 Mio. hat eine Fläche von Sensorfläche / 300 Mio., also viel weniger.
Die Gesamtenergie ist Anzahl Pixel mal Energie-pro-Pixel. Im einen Fall also Sensorfläche durch 12 Mio. mal 12 Mio. Im anderen Fall Sensorfläche durch 300 Mio. mal 300 Mio. Die Gesamtenergie ist folglich nur abhängig von der Sensorfläche, die Anzahl der Pixel kürzt sich raus.
Jetzt die verschieden großen Sensoren mit gleich großen Pixeln: Hier ist die Energie pro Pixel jeweils gleich groß, nämlich sowohl Fläche-des-kleinen-Sensors / 12 Mio. als auch Fläche-des-großen / 300 Mio. Nennen wir diesen Wert x.
Die Gesamtenergie ist jetzt beim 12-MP-Sensor x mal 12 Mio. Beim 300-MP-Sensor aber x mal 300 Mio.