Ich werde keine X-E2 kaufen, solange der Auto- ISO bug in der aktuellen Kamera nicht beseitigt ist!
Hast du überhaupt schon eine X-E1? In deinem Profil steht garnichts davon
Die Idee mit dem Tool zum Entwickeln der Bilder mit den Einstellungen aus der Kamera ist wirklich sinnvoll, da sollte Fuji definitiv was bringen. Dann könnte man auch bequem die Filmsimulationen aus der Kamera auch auf RAWs anwenden, denn das kann ja bisher sicher keiner der fremden Konverter, und lustigerweise nichtmal Silkypix.
Die gute Rauschunterdrückung bei dem X-Transsensor kommt übrigens, soweit ich das verstehe, aus genau der Kombination von neuer Farbfilteranordnung und dem Demosaicing bzw. der damit verbundenen Rauschunterdrückung.
Beim Demosaicing rechnet der Algorithmus zu einem bestimmten Pixel mit Hilfe der Informationen zu Farbe (durch den Filter vorgegeben) und Helligkeit der Nachbarpixel den genauen Farbwert aus. Rauschen bewirkt nun einen falschen Helligkeitswert in einem der Nachbarpixel, im Allgemeinen eine Sättigung des Pixels, der beim normalen Betrachten der direkten Nachbarpixel nicht korrigiert werden kann.
Die naheliegende Methode zur Rauschminderung ist natürlich nun die weiteren Nachbarpixel zu betrachten und fehlerhafte Werte herauszumitteln, dabei gehen aber Detailinformationen verloren, es kommt zu diesen verwaschenen Details bei den Sensoren mit Bayer-Farbfiltern.
Bei dem X-Trans-Filter ist es nun so, dass durch die unregelmäßige Anordnung der Farbpixel über einen größeren Bereich Rauschen herausgemittelt werden kann bevor es zu Wiederholungen im Muster des Farbfilters kommt. Allerdings ist der Algorithmus zum Demosaicing dann auch sehr viel aufwändiger, da er eben nicht einfach nur über die Nachbarpixel mitteln kann (wenn man das versucht, dann sieht das so aus wie bei Lightroom

), sondern beim Demosaicing schon auf die Strukturen mit schauen muss usw.
Ein optimaler Sensor wäre übrigens einer, mit einem vollkommen quasi-chaotischen Farbmuster, ohne jegliche wiederkehrende Muster im Filter. Das ginge aber leider nur, wenn der Sensor zu jedem Pixel die Farbe mit in das RAW schreiben könnte, und das Demosaicing ginge dann nur über Chaostheorie oder so
