Das heißt, jede Verkleinerung der Zerstreuungskreise liefert eine höhere Auflösung.
So ist es. Und zwar – theoretisch – bis herunter zum Streukreisdurchmesser null, wo endlich das Optimum erreicht ist. In der Praxis wird man natürlich schon viel früher keinen Unterschied zum theoretischen Optimum mehr wahrnehmen können. Bei welchem Streukreisdurchmesser diese praktische Grenze liegt, hängt von verschiedenen Faktoren ab, unter anderen von der Objektivqualität. Ich würde schätzen, daß sie unter günstigen Unständen (kein Tiefpaßfilter, exzellentes Objektiv, absolut keine Verwacklung, detail- und kontrastreiches Motiv) in der Nähe von etwa einem halben Pixelabstand liegen dürfte ... vielleicht sogar einem viertel. Bei Kameras ohne Bayer-Filter (Foveon, Monochrom) noch etwas weniger.
Das klingt gut. Deine Beweise, die Du bis jetzt geliefert hast: 1) Es klingt recht plausibel und 2) du glaubst daran, daß es so sei.
... und 3) ich habe es ausprobiert und hier vor Jahr und Tag darüber berichtet.
2) Es gibt offensichtlich recht viele, die sich wissenschaftlich damit auseinandersetzen und das anders sehen (ich habe nun schon einige Veröffentlichungen gezeigt.
Du glaubst gar nicht, wie viele halbwissende Deppen es unter denen gibt, die wissenschaftlich anmutende Artikel verfassen. Und wenn man tatsächlich einmal auf einen guten Artikel stößt, dann muß man ihn auch richtig lesen und verstehen und darf nichts hineininterpretieren, was gar nicht drinsteht.
Das Shannon'sche Abtasttheorem: Pixel mit Länge l können einen räumliches Signal/Zerstreuungskreis des Durchmesser 2l so abtasten, daß sie ihn wiederherstellen können (es ist keine Rede davon, daß da irgendwas richtig an (Pixel)-Grenzen "ausgerichtet" sein müsse).
Siehst du: schon falsch.
Das Shannon'sche Abtasttheorem sagt, ein Signal mit einer endlichen oberen Grenzfrequenz könne aus endlich vielen Abtastwerten verlustlos rekonstruiert werden, wenn die Abtastfrequenz höher ist als die doppelte obere Grenzfrequenz des Signals.
Der Fehler, der an dieser Stelle ständig begangen wird, ist die Unterstellung, aus dem Durchmesser der Streuscheibchen ergäbe sich die obere Grenzfrequenz für das abzutastende Signal. Da aber – wie du gerade eben selber noch festgestellt hast – die vom Objektiv kommenden Streuscheibchen nicht an irgend einem Pixelraster ausgerichtet sind, sondern in ihrer Positionierung frei sind, also überall auftreten können, gibt's keine obere Grenzfrequenz. Oder vielleicht gibt's doch irgendwie eine, aber die läge um mindestens eine Größenordnung höher.
Du sagst, wenn ich den Zerstreuungskreis kleiner mache, werde das Signal besser.
Richtig.
Das Theorem sagt, ich bekäme dann Aliasing-Effekte ...
Auch richtig.
Deswegen muß man sich als Fotograf entscheiden – will man allerhöchste Auflösung aus dem Sensor quetschen und akzeptiert dafür hie und da ein Moiré, oder will man Moirés unbedingt vermeiden und akzeptiert dafür ein Tiefpaßfilter, welches eine geringere Auflösung beschert als die, zu der der Sensor theoretisch fähig wäre? Immerhin treten Moirés, also jene bösen Aliasing-Effekte, nur an solchen Bildstellen auf, wo das Bildsignal eine gewisse Periodizität mit der "passenden" Ortsfrequenz aufweist – also in der Praxis eher selten, wenn man nicht gerade Testtafeln fotografiert ... gut, Textilien sind auch öfter mal ein Problem.
Andererseits sorgt ein Tiefpaßfilter dafür, daß
alle Aufnahmen weniger scharf werden als mit dem gegebenen Sensor maximal möglich – auch solche, die gar nicht moiréanfällig wären. Deswegen kommen die früher allgegenwärtigen Tiefpaßfilter heutzutage mehr und mehr aus der Mode ... Shannon zum Trotze.
Und selbst wenn ein Tiefpaßfilter vorhanden ist, wird eine Abbildung, die Streukreise kleiner als zweimal Pixelabstand aufweist, immer noch ein (geringfügig) schärferes Digitalbild ergeben als eines, dessen kleinste Streukreise gleich dem zweifachen Pixelabstand sind. Die Auffassung, "wenn das Tiefpaßfilter eh' nichts kleineres durchläßt, dann ist's wurscht", ist falsch. Denn ein Streuscheibchen, das vor dem Tiefpaß bereits so groß ist wie ein (nahezu) punktförmiges dahinter, wird nach dem Durchgang durch das Filter (etwas) größer sein.
Was ich schon lange mit 01af diskutiere, ist nicht, ob 2× optimal ist (ist es nicht) ...
Ach? Da bin ich aber froh, das nicht mehr diskutieren zu müssen.
... sondern ob der Effekt, daß die Pixelgröße einen Art "Puffer" bildet, der dafür sorgt, daß man Verkleinerungen der Zerstreuungskreise irgendwann nicht mehr wahrnehmen kann, überhaupt vorhanden ist.
Wie gesagt: theoretisch gibt's da keine Grenze. Aber praktisch wäre das ebenso unsinnig wie die Behauptung, es gäbe keine Unendlich-Fokussierung, weil nichts in diesem Universum wahrhaft unendlich weit entfernt ist. Also gibt's praktisch sehr wohl eine Grenze. Und wo liegt diese? Siehe Absatz 1 in diesem Beitrag.
Wenn ich mich richtig erinnere, sagt 01af, daß bei 0,1 × [Pixelabstand] dann vielleicht einmal der Fall sei.
Ich meine mich vage zu erinnern, daß ich den Wert 0,1 einmal nannte ... doch heute würde ich das so interpretieren, daß die praktische Grenze
spätestens bei diesem Wert erreicht sein dürfte. Im allgemeinen wird sie wohl bei etwas größeren Werten liegen – aber doch auf jeden Fall bei einer Zahl kleiner als 1,0.