was nützt es wenn das objektiv theoretischmehr auflösen kann und das die 810d theoretisch die doppelte menge an informationen hat, wenn das endmedium einfach nicht mehr als 8 mpiy darstellen kann?
um es an einem beispiel zu zeigen, der print ist in der lage eine struktur von drei strichen darzustellen, die 16 mpix können zwischen den 3 strichen noch zwei weitere sehen, und die 36 mpix noch mehr. am ende wird man in dem rint aber trotzdem nur drei striche sehen.
Der Unterschied ist gewaltig! Ich hatte das Aha Erlebnis beim Umstieg von der D700 auf die D800. Auch wenn ich mir die Bilder nur mit 2k anschaue, die D700 hatte nie auch nur den Hauch eine Chance ein ähnlich detailliertes, brillantes Foto zu liefern wie die D800. In der 100% Ansicht war das Ergebnis der D800 sogar deutlich schlechter (mit den verfügbaren Linsen die bei weitem keine so hohe Auflösung hatten), was ja am Anfang zu sehr kontroversen Diskussionen über den Sinn von 36MP im KB Format geführt hat. Aber die D700 hat nun mal gar nicht die Möglichkeit die Bildinformationen einer D800 abzubilden. Sie sind im Foto einfach nicht da.
Um bei deinem Beispiel zu bleiben. Die Struktur mit drei Strichen breite ist sehr wahrscheinlich nicht einfarbig und passt auch nicht zu 100% auf die Pixel. Wenn wir mal die Bayer/X-Trans Interpolation und optische Effekte wie CA völlig außen vor lassen, wird es sehr wahrscheinlich sein, dass die Struktur auf dem Pixel ungenau abgebildet wird. Das verfälscht z.B. die Helligkeitswerte und damit ggf. auch die Farbe. Bei der Verkleinerung geht wieder Information und Schärfe verloren, da die Pixel miteinander verrechnet werden müssen. Ist Pixel schon vorher ungenau, wird sich das im Ergebnis nicht verbessern, sondern eher mit den Fehlern der Nachbarpixel potenzieren. Eine feinere Auflösung erhöht die Genauigkeit und damit das Ergebnis der Verkleinerung. Das ist zumindest die Erfahrung, die ich vor einiger Zeit gemacht habe.
P.S.: Das ist ein Effekt bei der Digitalisierung. Je höher die Auflösung desto mehr Informationen sind vorhanden. Taste ich ein Audio Signal mit zu geringer Frequenz ab gehen mir auch Informationen verloren. Insbesondere bei den hohen Frequenzen. Feine Strukturen im Bild können durchaus mit Helligkeitsunterschieden hoher Frequenz verglichen werden. Ich messe an zwei Punkten, werde aber nie erfahren was dazwischen liegt. Messe ich dazwischen, weiß ich es und muss es nicht per Software erraten.
P.P.S.: In der Signalverarbeitung geht man davon aus, dass man mindestens mit dem doppelten der Signal Frequenz abtasten muss um ein gutes Ergebnis zu erzielen. Eine Struktur, die in der Ausgabe 3 Pixel/Striche breit ist, müsste also mit mind. 6 Pixeln aufgenommen werden. Das kann man sicher nicht 1:1 auf Fotos anwenden, stellt aber nach meiner Erfahrung einen guten Anhaltspunkt dar.
Ich habe leider die Bilder vom direkten D700/800 Vergleich nicht mehr. Aber dazu dürfte es genug zu finden geben.
Wir sind jetzt allerdings ziemlich weit weg vom Topic. Ich würde das gerne mal wieder in die Richtung zurück drehen wollen.
Völlig unabhängig vom RAW Konverter habe ich den Eindruck:
- Das Rauschen ist beim X-Trans "gröber" als beim Bayer Sensor
- Der X-Trans Sensor hat mehr Farbrauschen (zumindest gegenüber den Nikon Sensoren die ich bisher kenne)
- Bilder aus dem X-Trans Sensor reagieren empfindlicher auf aggressives Schärfen oder Entrauschen
Deckt sich das mit euren Erfahrungen?