schaut man sich einfach mal grafiken z.b. bei DXO an und vergleicht das Rauschen der R2 oder R3 (42Mpixel) mit der S2 (12 Mpixel), dann sieht man keine relevanten Unterschiede im High Iso Bereich. Und der untere ISO Bereich ist bei keiner heutigen Kamera kritisch.
Dumm nur, daß ich eine A7rII schon in den Händen hatte. Die kommt mit einer A7s im Low-Light eben doch nicht mit.
Größere Pixel sammeln mehr Licht als kleinere Pixel. Wie auch schon erwähnt wurde, ist das Ausleserauschen mittlerweile sehr niedrig, aber es ist halt da. Soll heißen, der Signal-Rausch-Abstand SNR wird primär von den umgesetzten Photonen bestimmt. Wie schon eben gesagt, sammeln größere Pixel mehr davon ein.
Jetzt kommen z.B. DR-Messungen an. Die nehmen sich die RAW-Daten (!), und stellen dabei fest, daß z.B. eine 10MPix-Kamera bei ISO6400 einen normskalierten DR von sagen wir mal 10 Blenden hat. Eine 40MPix-Kamera kommt auf den gleichen Wert. Daraus ergibt sich, daß die 10MPix-Kamera pro Pixel 2 Blenden mehr Licht einsammelt (!), und wenn sich dieser Abstand über den gesamten ISO-Bereich zieht, sind das selbst 2 Blenden Unterschied bei niedrigen ISOs.
Das dumme an der Digital-Fotografie ist leider, daß wir die RAW-Daten nicht wirklich anschauen können. Die müssen irgendwie umgewandelt werden. Und da fängt der Spaß an: Diese Operationen arbeiten mit dem, was die einzelnen Pixel zu liefern haben. Weißabgleich, Demosaicing, Gamme-Kurve, Farbprofil der Kamera, usw. Erst nachdem der Großteil dieser Operationen durch ist, wird runterskaliert.
Bei der 40MPix-Kamera werden also z.B. Farben bestimmt aus Werten, die sich teils schon mit dem Ausleserauschen vermengen, während das bei der Kamera mit 10MPix kein Problem darstellt, da diese Werte deutlich mehr Abstand zum Ausleserauschen haben. Durch die ungleiche Verteilung der Farbanteile, Weißabgleich usw. bekommt man da schnell mal Farbstiche, die sich in den dunkleren Farben tummeln, und das kommt auch immer mit einer latenten Desaturierung einher. Sowas läßt sich durch Runterskalieren nur noch bedingt beheben.
Das näher liegende Ausleserauschen beschränkt auch die Bearbeitungsmöglichkeiten, denn wie gesagt, es wird mit den Daten der einzelnen Pixel gerechnet, nicht mit irgendwelchen normskalierten Werten basierend auf den RAW-Daten. Man ist also dem Ausleserauschen, ganz entgegen der Messungen, die so gerne zitiert werden, näher.
Damit sollte dann aber auch klar sein, daß Aussagen wie "ich habe das Rauschen verglichen" auf eine falsche Meßmethodik hindeuten. Ebenso darf man diese normskalierten RAW-Messungen nur im Kontext der gesamten Verarbeitungskette betrachten; alles andere ist ein Fehler, d.h. falsche Schlußfolgerung.
Und als Nachtisch, weil ich auch kurz auf niedrige ISOs eingegangen bin: Die GH5s liefert 14bit pro Pixel, ggü. den "handelsüblichen" 12bit bei µFT. Nur mal so als Hinweis. Denn eine Konsequenz aus dem "alles ist gleich" wäre ja, daß ein 500MPix-Sensor auch die gleichen Resultate liefern würde. So mit 8bit pro Pixel oder sowas
Spätestens dann sollte aber klar sein, daß dieser Denkansatz irgendwo einen Fehler hat.
Übrigens werden derartige Artefakte wie oben beschrieben selbst bei
simulierten Tests sichtbar. Man sieht ganz gut, wie sich in dem 1.25µm-Bild die Farben an einigen Stellen doch deutlich von dem 5µm-Bild unterscheiden (welches relativ gute Farbtreue zum Original hat), kaputte(re)s Schwarz usw. Diese Farben korrigieren sich auch nicht durch weiteres runterskalieren oder irgendwelche andere Entrauschungsmagie.