DonRobodroid schrieb:
Klar, aber ich denke mal, dass so eine Software kein Problem sein wird, sobald ein solcher Sensor denn mal tatsächlich machbar wäre. Schließlich können die Kameras jetzt schon den Dynamikbereich der RAWs (des Sensors) auf den Dynamikbereich der JPGs runterrechnen - also geht's prinzipiell ja jetzt schon, nur halt noch nicht in einem solchen Umfang...
Das sind denk unterschiedliche par schuhe, der Unterschied hier ist so klein das man ihn noch durch eine einfache kompression des Dynamikumfangs oder weglassen von den Enden klein genug bekommt, aber bei einem Sensor wo halt einfach alles auf dem Bild innerhalb des Dynamikumfangs wäre kriegst du mit solchen Ansätzen Bilder die einfach überall gut Belichtet sind und somit eigentlich keinerlei größere hell / dunkel Kontraste mehr aufweisen.
Ein Algorithmus der Ansatzweise automatisch an sowas herangehen kann scheint in RAW Konverter von Sigma / Foveon zu stecken, das Fill-light kann automatisch entscheiden wie stark die Schatten aufzuhellen sind, das ist das was man bräuchte nur in die falsche Richtung, ist allerdings auch patentiert.
Tja, und was das Vermasseln durch Fuji betrifft, das kann ich nicht beurteilen!

Ich meinte allerdings auch weniger die tatsächliche technische Implementation als vielmehr den Willen, das Problem der größeren Dynamikumfänge überhaupt mal anzugehen!
Och angegangen wird er durchaus, aber das Problem ist das dies nicht unbedingt am hellen Ende passieren muss wie es Fuji getan hat. Insbesondere bei der Frage wo der Rauschpegel ist lässt sich auch sehr viel machen und daher muss der Fuji Ansatz nicht zwangsweise der bessere, wenn auch der Marketingwirksamste. Wenn du nen Sensor mit sehr geringem Rauschen hast kannst du die Bilder eher unterbelichten, die Schatten wieder rausholen und hast auch keine Spitzlichter verloren.
Fuji hat immer einen Dynamic Range increase von 400% angegeben, basierend auf folgender Idee, die Zahlen stimmen jetzt nicht nehme die weil ich die echten nicht kenne und weil sie es gut veranschaulichen, ist jetzt insgesamt sehr vereinfachend.
Das große Pixel ist bei 100 photonen (über dem Rauschpegel) gesättigt und d.h. weiß / überbelichtet wie auch immer. Das kleine Pixel hat eine 1/4 so große Öffnung und die gleiche Kapazität wie das große (100 photonen) in der Zeit wo 100 auf das große pixel kommen kommen also nur 25 auf das kleine, oder anders gesagt damit das kleine pixel überbelichtet wird braucht es auch 100 und in der selben Zeit würden 400 auf das große kommen das damit schon lange überbelichtet wäre.
Das Problem bei der Sache ist nur das die Kapazität von dem kleinen Pixel, wenn ich leuten die das ganze reverse engineered haben trauen kann, im Vergleich zu den oben genannten Werten eher eine Kapazität von 33 Photonen haben, daher überbelichtet sind wenn 33 absorbiert werden, im selben Zeitraum würden nur 132 auf das große Pixel kommen und nicht 400.
Da verwundert es dann halt auch nicht das es zwar einen kleinen Vorteil über andere Sensoren gibt, der aber bei weitem nicht so extrem ausfällt wie Fuji, und wir alle, es gerne hätten.