Zuerst, falls ich es nicht deutlich genug formuliert habe: Ich danke Dir herzlichst für das D200-Bild, und zweitens, nein, ich unterstelle Dir keinesfalls, dass Du einen Auflösungsvorteil der D200 unterdrücktest oder gar daran gedacht hast. Wenn der Eindruck entstanden ist, tut es mir leid; es ist nicht meine Absicht gewesen.
O.k.
Der Evil-Smiley war nur dazu gedacht auszudrücken, dass ich mit Deinem Ergebnis nicht zufrieden bin, und zwar (nur) weil es meine These nicht unterstützt.
So hatte ich das auch verstanden.
Desweiteren: Es ist durchaus möglich, dass ich mich dahingehend irre, dass auch die D200 Feinstdetails besser auflösen würde. Ursprünglich meinte ich ja auch alle
aktuellen DSLR außer Oly. Auch da könnte ich mich irren und wäre im Nachhinein schlauer, und ich fände da nichts verwerfliches bei. Ich hoffe, dass ein 40D-Vergleich in dieser Hinsicht Klarheit bringt – Also, Geduld bitte.
Ich frage mich nur, was Du zu sehen erwartest...
Einen solchen Vergleich hat doch argus-c3 schon wunderbar
angestellt; da kann man den Unterschied wunderbar sehen.
Ich persönlich kann da gar nichts wunderbar sehen. Schon gar nicht die 2Mpix Vorteil der 5D. Und wenn Lightroom in's Spiel kommt, haben wir ja auch wieder den Auflösungsverlust. Den habe ich mir ja nicht ausgedacht.
Ganz grundsätzlich: Bei 100% Ansicht und darüber kann man zwischen Auflösung und Schärfung nicht mehr exakt unterscheiden. Lassen wir AA-Filter und Bayer-Matrix der Einfachheit halber mal weg, dann haben wir immer noch das Problem, mit einer eckigen Matrix reale, und damit auch runde und diagonale Bildstrukturen wiedergeben zu müssen. Das Bild einer Linie von einem Pixel Breite auf dem Sensor kann nur dann mit einem Pixel Breite dargestellt werden, wenn sie genau senkrecht oder waagrecht auf den Sensor fällt. Ist sie auch nur ein bißchen schräg, dann müssen wir entweder interpolieren, oder wir bekommen Treppchenartefakte. Meistens bekommen wir mehr oder weniger beides, je nach Bildaufbereitung.
Wenn du dich an der Auflösungsgrenze des Sensors bewegst, dann sind Feinstdetails irgendwann nicht mehr darstellbar, und Du hast nur noch Artefakte. Die können schärfer oder unschärfer erscheinen ("Matsch"), spielt keine Rolle, du bekommst nicht mehr Details. Blätter, Zweige oder Telefondrähte sind in Wirklichkeit nun mal nicht pixelig, und wenn sie in der 100% Ansicht so erscheinen, dann ist das nicht unbedingt ein Zeichen hoher Auflösung. Es kann sogar passieren, dass der Interpolationsalgorithmus (jetzt sind wir wieder beim Bayer-Sensor) Stukturen erzeugt, die real gar nicht da sind. Vor allem bei Testcharts kann sich dann die Zahl der gemessenen Linienpaare unter Umständen über die physikalisch mögliche Auflösung erhöhen. Wenn man z.B. bei einer Kamera, die vertikal nur 2850 Pixel hat eine "extitinction resolution" von 2800 Linien hat, dann sollte einem das etwas zu denken geben.
Das ist auch das große Problem der Vergleichbarkeit zweier Kameras anhand von Vergleichsbildern - die aufzulösenden Details sollten auf die möglichst genau gleiche Pixelzahl abgebildet werden, sonst wird das Ergebnis verfälscht. Und jetzt mach' das mal vor Ort.
Im Anhang zwei JPGs aus der E-510, einmal mit Standard-Entrauschung, einmal mit Entrauschung auf "Aus". Könnte man "Entrauschung:Aus" nicht wählen, könnten wir uns hier ebensogut fragen, ob der AA-Filter zu dick ist, oder die Auflösung nicht ausreicht. So aber erscheint(!) im rechten 200% Screenshot die "30" auf dem Verkehrsschild beinahe lesbar. Vielleicht ist der AA-Filter ja trotzdem immer noch zu dick - aber das anhand von Crops herausfinden zu wollen, ist ein Fischen im Trüben.
Daneben dann nochmal der 800% Super-Crop. Dürfte klar werden, dass die Pixelmatrix eine Darstellung der "30" überhaupt nicht zuläßt, selbst wenn man den AA-Filter wegläßt und sich auf den Kopf stellt.