Du betreibst hier Cherry-Picking in bezug auf Teildaten.
Es sind Beispiele, die aufzeigen sollen, daß die Realität deutlich komplexer ist als viele der hier aufgeworfenen Theorien. Irgendwo gibt es z.B. eine Seite zur Äquivalenz-Theorie irgendwo im Netz, und die wird u.a. von einer sehr langen Liste von Vorbedingungen geziert, unter denen diese Theorie dann in der Form direkt anwendbar ist. Die Praxis zerlegt einem diese Vorbedingungen in fast jedem Fall, weshalb ich diese Theorie auch als Daumen-Regel bezeichnet habe.
"Bearbeitungspielraum" ist i.d.R. (hier im Thread wurde es nie anders definiert) der Strassenbegriff für maximalen Dynamikumfang.
Nein. Wenn ich vom Bearbeitungsspielraum bei ISO6400 rede, dann ist das genau das und nicht der Bearbeitungsspielraum bei z.B. ISO100.
Und wenn Du schon irgendwelche Meßwerte zitierst, dann solltest Du Dir mal die FullSNR+FullCS-Diagramme bei DxOmark anschauen. Daran lassen sich viele Dinge, denen man auch in der Praxis begegnet, ablesen. Das ist natürlich vergleichsweise komplex ggü. einem artifiziellem normalisiertem DR-Wert, von dem die meisten noch nicht mal wissen, was man daraus
wirklich schlußfolgern kann und was nicht.
Denselben maximalen Dynamikumfang bietet die mFT GX800 mit einem viertel so großen Sensor, was tatsächlich in der Theorie nicht passieren dürfte, die Sony A7s müsste sehr viel besser sein (2 volle Blenden eben).
Dann schau Dir mal die FullSNR und FullCS-Diagramme von beiden an. Aufgrund der geringen Auflösung bei der A7s bekommst Du übrigens bis in die dunklen Bereiche hinein super-cleane ISO100-Bilder. Kann ich nur empfehlen, mal auszuprobieren, Dir quasi selbst ein Bild davon zu machen. Und ja, es gibt Kameras, die mehr Informationen aus den extremen Schatten bei ISO100 (bzw. ISO64) herausholen können als eine A7s.
Aber eigentlich geht es ja um ISO100 vs. ISO400, beispielsweise. Die A7s liefert da lockere 12 Blenden beim Screen-DR @ DxO (füllt die µFT üblichen 12bit scheinbar gut aus), und beim FullSNR sieht man, daß sie in den extremen Schatten nicht ganz so gut ist, aber dafür in den restlichen Bildbestandteilen sogar (immer noch!) einen leichten Vorteil ggü. der GX800 hat.
ISO400 vs. ISO1600 sehen sich dann aber schon sehr ähnlich (hmm ...), und z.B. ISO1600 vs. ISO6400 zeigt selbst in den extremen Schatten bei der A7s einen Vorteil.
Die schlechten Leistungen der A7S sind auch ein gutes Exempel wieder die Quatsch-These, dass große Pixel Vorteile bieten würden.
D810 vs. D750. Wenn Du weißt, welche Diagramme als Indikatoren dienen, ist das ein perfektes Beispiel für den Unterschied zwischen Pixelgrößen. Das wird auch auf absehbare Zeit so bleiben. Genau deswegen kommt eine GH5s z.B. auch mit 14bit Pixeln und nicht mit den µFT-üblichen 12bit. Usw.
Die ganze Theoretisiererei ist wichtig, aber am Ende muss man reale Raws vergleichen, weil die einzelnen Sensoren eben 1-2 Blenden von der Theorie abweichen können.
Die Praxis ist deutlich komplexer als die landläufig als Leistungsparameter genutzen normalisierten DR-Kurven (egal ob DxO oder PDR oder was auch immer sonst noch so existiert). Das liegt u.a. daran, daß ebenjene DR-Kurven anhand der RAW-Werte berechnet werden, in der Realität aber noch das Post-Processing stattfindet, bei dem mindestens eine nichtlineare Berechnung mit im Spiel ist und all diese Berechnungen mit den Daten der einzelnen Pixel stattfinden. Genau deswegen gibt es vor allem Richtung HighISO eine teils deutliche Diskrepanz zwischen diesen DR-Kurven und der Realität; die gibt es eigentlich auch bei niedrigen ISOs, nur fällt es da deutlich schwerer, diese Unterschiede sichtbar zu machen.