Ich habe das Gefühl, dass dieses Sensorformat ausgereizt ist. Auch Sony fällt bei Vollformat ja nix Besseres ein, als auf 61 MP zu gehen, anstatt sinnvollerweise die ISO-Leistung zu verdoppeln.
Letzteres ist offensichtlich nicht einfach und stößt auf immer mehr technologische Grenzen, die man jetzt noch nicht überwinden kann. Bei MFT ist da generell das Problem der unsauberen Bildwiedergabe mit wenig Potential zum Aufhellen. Ich war lange genug Olympus-Fanboy, um genug darüber zu wissen. Sicher, damit kann man leben - muss es aber nicht zwingend.
Da muß ich aber sagen: Die Probleme sind teils hausgemacht, also Schuld der Anwender.
Die GH5s war ja eigentlich nicht so richtig notwendig (oder doch?), aber Panasonic hatte sich trotzdem bemüßigt gefühlt, die herauszubringen. "s" steht dabei, wie bei der A7s übrigens, für "sensitive". Das hat einen Grund: Die sogenannte "sensitivity", Empfindlichkeit ggü. Licht, hängt primär von der Pixelgröße ab. Es war auch schnell klar, daß die GH5s mindestens 1 Blende besser als der Rest der µFT-Kameras ist, wenn es um Dunkelheit geht, genauso wie die A7s damals alles im KB-Bereich auf die hinteren Plätze degradiert hat, und sogar immer noch ein Referenzpunkt ist (die A7III kommt z.B. sehr nahe). Sprich: Wer ISOs will,
muß das mit Auflösung bezahlen. Da aber (a) gerne verbreitet wird, daß Skalieren auf die gleiche Größe zum gleichen Ergebnis führt (das ist quasi der Weihnachtsmann in der Fototechnik) und (b) die Leute massiv Angst vor geringeren Auflösungen haben, gibt es einiges an Vorbehalten. Leider. Auflösung und DR bei Basis-ISO, und all der andere Kram ist doch unwichtig, oder?
Das Ding mit der Nachbearbeitung ist etwas komplexer und die Gründe liegen einerseits bei den Sensoren/Kameras, und auf der anderen Seite aber auch in der Post-Processing-Software, die vermutlich einige Probleme besser glattbügeln könnte, als es heute getan wird. Der Knackpunkt ist die Bittiefe, bei der die GH5s übrigens auch eine Art Einzelkind mit den 14 bit ist. Jim Kasson hat zur GFX 100 mal einen
Vergleich zwischen 14 und 16 bit gemacht, mit einem +6 Push. Wer genauer schaut, wird bei 16 bit neben den AF-Streifen auch bessere Farben sehen. Die Grenzen, die wir also derzeit bei der Bearbeitung haben, sind durch die Bittiefe vorgegeben! Ich vermute, daß via Dithering in der Post-Processing-Software die Dinge partiell ausgeglichen werden können, aber zumindest LR scheint sowas nicht zu machen. RawTherapee und Darktable könnte ich mir mal anschauen, aber eigentlich ist meine Motivation dafür zu gering
Praktisch hätte Sony ja sowas wie einen ~15MPix-µFT-Sensor in der Hand, wenn sie die Pixel wie in diversen neueren Kameras (Fujy XT-3, GFX 100, Sony A7rIV) quasi in einem µFT-Sensor verbauen würden. Die Frage ist vermutlich eher, ob sich das vom Geld her rechnet. Potentiell 16 bit, DR-Pix, BSI ... das würde µFT deutlich nach vorn bringen.