Ich bezweifle, dass der Sensor Daten erzeugt, die nicht da sind.
Die Artefakte sind halt aufgrund des größeren Rasters (3x3 bzw. 6x6) gröber. Die eines Bayersensors sehen halt anders, etwas feiner aus.
Mit zunehmender Rechenleistung und besseren Algorithmen werden wir aber auch hier immer bessere Ergebnisse sehen (und X-Trans wird vermutlich noch schneller zulegen, als das über Jahrzehnte optimierte Bayer Muster)
Nicht zuletzt muss man sich fragen, wieso Panasonic mit der GH5 auf ein 3x3 Muster beim Demosaicing (Kameraintern) umgestiegen ist, dass ihren Aussagen nach diverse Vorteile mit sich bringt.
Wer mit dem Demosaicing von Lightroom nicht zufrieden ist, aber trotzdem gerne mit dem Programm arbeitet, der kann ja nun den X-Transformer von Iridient verwenden.
Die Artefakte sind halt aufgrund des größeren Rasters (3x3 bzw. 6x6) gröber. Die eines Bayersensors sehen halt anders, etwas feiner aus.
Mit zunehmender Rechenleistung und besseren Algorithmen werden wir aber auch hier immer bessere Ergebnisse sehen (und X-Trans wird vermutlich noch schneller zulegen, als das über Jahrzehnte optimierte Bayer Muster)
Nicht zuletzt muss man sich fragen, wieso Panasonic mit der GH5 auf ein 3x3 Muster beim Demosaicing (Kameraintern) umgestiegen ist, dass ihren Aussagen nach diverse Vorteile mit sich bringt.
Wer mit dem Demosaicing von Lightroom nicht zufrieden ist, aber trotzdem gerne mit dem Programm arbeitet, der kann ja nun den X-Transformer von Iridient verwenden.