Das Beispielbild was ich vom Rand der Schärfentiefe gepostet habe ist z.B. deutlich zu scharf, als das dieses Modell so stimmen könnte.
Welches Modell meinst du denn genau? Ich würde gerne zwischen dem MTF-Modell und der angeblich darauf basierenden "Auflösungsformel" deutlich unterschieden.
Das zweite Modell ist sicher angemessener. Vermutlich nimmt die Unschärfe tatsächlich direkt ab der Fokusebene zu, aber eben nicht einfach linear oder quadratisch.
Da stimme ich dir voll zu – aber das hat m.E. mehr damit zu tun, was vor dem Sensor passiert. Bei dem gängigen Schärfentiefemodell legt man ja ein ideales Objektiv und geometrische Optik zugrunde – dann kommt man bei einer Linienfrequenz von 1Lp/Streukreisdurchmesser auf einen Kontrastabfall von 80 % (beim Streukreisdurchmesser von 2 Pixelbreiten wäre das die Nyquist-Frequenz), bei 0,5 Lp/Streukreisdurchmesser auf knapp 30 % und bei 0,25 Lp/Streukreisdurchmesser auf knapp 10 %. Und ein Kontrastabfall von 50 % bei hohen Frequenzen fällt nur im direkten Vergleich wirklich auf – das beträfe dann Details, die nur einzelne Pixel groß sind. Wenn man unbedingt will, kann man das in MTF50-Werte umrechnen, dann entspräche das der Abnahme von 0,7·Nyquist-Frequenz (angenommen für Sensor mit AA-Filter) auf 0,5·Nyquist-Frequenz (der MTF50-Wert des defocussierten Objektivs wäre ebenfalls 0,7·Nyquist-Frequenz).
Bei einem realen Objektiv oder bei der Berücksichtigung der Beugung geht der Streukreisdurchmesser nie auf 0, wächst aber dafür außerhalb des Fokuspunktes i.d.R. langsamer an – dadurch ist ggf. der Defocus-Verlust weniger sichtbar. Bei dem bekannten
Zeiss-Artikel zu MTF-Kurven findet man ab S. 24 einige Beispiele zum Thema "Kontrastverlust bei Defocus-Unschärfe".
Bei den Beispielbildern am Anfang des Threads ist schon der Durchmesser der Beugungsscheibchen (bis zum 1. Minimum) bei etwa 2 Pixelbreiten. Insofern finde ich es nicht so überraschend, dass da, wo die theoretische Defocus-Unschärfe auf 2 Pixelbreiten angewachsen wäre, die tatsächliche Defocus-Unschärfe des Objektivs nicht viel zugenommen hat. (Der Sensor spielt da noch gar keine Rolle!)
Ein gutes Modell, das die Defocusunschärfe eines idealen Objektivs unter Berücksichtigung der Beugung darstellt, kenne ich leider nicht (würde mich aber sehr interessieren!), so dass ich nicht mal theoretisch den Auflösungsverlust des Objektivs mit Berücksichtigung der Beugung (aber ohne Sensor) beschreiben kann.
Da die Fläche von Pixel und Zerstreuungskreis hier gleich groß sind, sollte sich eine Unschärfe ausbilden, die jeweils 2 Nachbarixel deutlich miteinander verschmiert.
Wenn du die obige Überlegung nun auf die Pixel überträgst, sind die Pixel bereits am Focuspunkt miteinander verschmiert – es ergibt sich also nur ein gradueller Unterschied (bzw. ein entsprechend geringerer Kontrast). Hinzu kommt der Antialiasing-Filter (sofern vorhanden), dessen einzige Aufgabe es ist, Nachbarpixel zu "verschmieren". Wenn das Foto – wie üblich – bei der Raw-Entwicklung geschärft wurde, dann wird genau dadurch dieser Effekt z. T. rückgängig gemacht. Wirklich sehen kann man diese Effekte vermutlich nur im RAW vor dem Demosaicing.
Darum kann dieser letzte Schritt in der Kette wohl auch nicht wie eine weitere Linse behandelt werden und liefert somit auch keine wirklich guten Ergebnisse.
Wie gesagt, ich glaube nicht, dass da in diesem Fall das entscheidende Problem liegt, sondern eher darin, dass das klassische Schärfentiefemodell bei der Darstellung dessen, was bei so kleinen Streukreisdurchmessern vor dem Sensor passiert, versagt.
Eigentlich problematisch für die Anwendung des MTF-Modells sind Tonwertkorrekturen und Gammakurven. Und vielleicht noch eine Bemerkung zu MTF50-Werten und dergl. die kann ich durch Nachschärfen fast beliebig hin- und herschieben und sind eigentlich höchstens da aussagekräftig, wo man noch eine lineare Signalkette hat.
Jedenfalls würde ich erwarten, dass die Defocusunschärfe bei guten Objektiven und Blendenwerten beim Schärfeoptimum des Objektivs deutlicher sichtbar müsste als bei schlechten und/oder großen Blendenwerten. Bei niedrig auflösenden Sensoren müsste der Effekt auch deutlicher sichtbar als bei hoch auflösenden, weil im Vergleich zur Pixelgröße Beugung und Objektivfehler weniger ins Gewicht fallen. Wenn der Sensor und die Signalverarbeitung dahinter dafür verantwortlich wären, dass die Defocusunschärfe fast unsichtbar bleibt, dürfte die Bildschärfe des Objektivs bzw. die Pixelgröße (bei entsprechender Wahl des Streukreisdurchmessers) ja keine entscheidende Rolle spielen.
L.G.
Burkhard.