Hier wird immer mit Statistik argumentiert, dass wenn mehr Pixel auch mehr Informationen zur Verfügung stehen (kommt mir irgendwie so vor wie ein Verkäufer von Spritsparlösungen und komplexe physikalische Erklärungen).
Wenn ich meinen 300 MP VF Sensor mit einem 12 MP 1/2,3 Zoll Sensor vergleiche, rauscht der 12 MP Ausschnitt des VF Sensor identisch, wenn ich ihn in der gleichen Ausgabegröße wie die 12 MP des kleinen Sensor betrachte. Die 288 MP aussenherum spielen da keine Rolle.
Warum sollen dann die 300 MP insgesamt weniger rauschen als 12 MP in Vollbildansicht (gleiche Ausgabegröße), nur weil es verkleinert ist? Es gibt keine zusätzlichen Informationen (für das menschliche Auge).
Nehme ich 25 kompakte 12 MP Bilder und reihe sie aneinander, kommt bzgl. Rauschen dasselbe Ergebnis heraus.
Die Sensorgröße spielt beim rauschen also keine Rolle, nur indirekt, weil beim größeren Sensor die Pixel größer sein können.
Und Pixeldenken ist analog zum Teilchenmodell-Denken der Physiker. Ist das etwa auch nicht zielführend?