(...)
Aber der AA-Filter wird in diesem Thread schlicht und ergreifend ignoriert.
Liefere ich gerne nach:
Betrachtungen zur Auflösung.
Der Thread "Betrachtungen zur Beugung"
https://www.dslr-forum.de/showthread.php?t=140239
beleuchtet die durch die Beugung bedingte Bildqualitätsminderung.
Hier sollen nun noch weitere Faktoren gezeigt werden, welche die Auflösung beeinflussen.
Dies sind meine ganz persönlichen Betrachtungen zum Thema.
Ich versuche hier mal von der technisch-physikalischen Seite an die Sache heran zu gehen
und möglichst ohne Mathematik auszukommen. Etwaige Ungenauigkeiten bitte ich zu tolerieren,
eine möglichst für alle verständliche Form war mein Ziel bei diesem Beitrag.
Anlaß sind die diversen Kameratests und die daraus abgeleiteten Bewertungen.
Als Beispiele zu diesem Text verwende ich die Testcharts in dpreview.com. Siehe dazu hier
(dabei insbesondere die diagonalen Strukturen und die Tabelle am Ende der Seite):
http://www.dpreview.com/reviews/olympuse3/page34.asp
Am Ende der o. a. Seite von dpreview findet man eine Tabelle "Measurable results".
In dieser Tabelle stolpere ich immer über den Eintrag "Moire is visible" und dabei
fing ich als Techniker (der mit optischen Instrumenten seinen Lebensunterhalt verdient) an,
kritische Überlegungen zur Auflösung anzustellen.
Moire ist im Grunde das Gleiche wie es hier bei sog. Phasengittermaßstäben zum Messen genutzt wird.
http://pdf.directindustry.de/pdf/heidenhain/offene-langenmessgerate/155-4805-_8.html
Dieser Effekt tritt immer dann auf, wenn sich Strukturen ähnlicher Abmessungen im Bereich weniger
Lichtwellenlängen bewegen. Je nach Strukturbreite und Strukturbreitenunterschied der beiden Strukturen
und dem Abstand der Strukturen und der Strukturbreite des Messempfängers (dem Abstand der Sensordioden
des Sensors ) ergeben sich verschiedene Auflösungen des Messsystems. Es können auch höhere Auflösungen
vorgetäuscht werden (Aliasing, auch im Audiobereich, weswegen man höhere Abtastfrequenzen verwendet
was man dann x-fach Oversampling nennt).
Wir befinden uns mit den aktuellen Kameras im Strukturbereich von ~2 µm bis ~8 µm
(d. h. im Bereich von wenigen Lichtwellenlängen) und damit in einem sehr sensiblen Bereich.
Das kann die tollsten Effekte ergeben. Siehe das Schillern über Ölfilmen auf Wasser. Der Ölfilm ist
nur wenige nm bis µm dick, das ergibt je nach Einblickwinkel verschiedene Farben, d. h. verschiedene
Interferenzfrequenzen. Auf diesem Prinzip beruht auch das "Vergüten" der Linsen. Es werden mehrere
Schichten mit verschiedenen Materialien von wenigen 100 Nanometer Dicke nacheinander im Vakuum aufgedampft,
welche für bestimmte Farben (=Wellenlängen) die Reflexion auf der Oberfläche weitgehend verhindern.
[
http://de.wikipedia.org/wiki/Antireflexbeschichtung ]
Diese Mischung aus Interferenz-, Aliasing- und Moire-Effekt haben ALLE Sensor-AAFilter-Objektivkombinationen!
Die Frage ist nur, wo schiebt man den Effekt hin. Mit etwas Pech passt die aufgenommene Struktur des Bildes
genau dort rein und der Effekt wird sichtbar. Ein Lattenzaum mit bestimmter Lattenbreite und bestimmtem
Lattenabstand in bestimmter Entfernung beispielsweise. Ich habe lange Zeit mit Phasengittermaßstäben gearbeitet
und hätte mich doch sehr gewundert, wenn solche Effekte bei Digitalkameras NICHT auftreten würden.
Will man solche Effekte verhindern, verschmiert man die Strukturen, was ja nichts anderes ist als das
Erzeugen von künstlicher Unschärfe.
Eine Lösung des Problems wären noch viel höher auflösende Sensoren und Objektive und dann
z.B 9- oder 16-fach-Binning, d.h. 3x3 oder 4x4 Pixel zu einem zusammenfassen und als ein Pixel auswerten.
Die Objektive dürften einen Zerstreuungskreisdurchmesser von 1 µm nicht überschreiten, also weniger
als 1/10tel des Zerstreuungskreisdurchmessers der besten heutigen Objektive.
Das wäre dann 3-fach oder 4-fach Linear-Oversampling mittels 90 MP oder 160 MP Sensor im FT- oder APS-Format!
Für das KB-Format würde das nochmal Faktor 4, um bei diesem Beispiel zu bleiben also ca. 360 bzw. 640 Megapixel bedeuten.
Mit einem solchen Sensor hätte man einerseits nahezu die theoretisch mögliche Auflösung eines
idealen Objektivs für alle Sensorformate erreicht, andererseits diesen Vorteil durch zusammenfassen
mehrerer Pixel (das wäre dann der Software-AA-Filter) zur Verhinderung der Schmutzeffekte auch gleich
wieder vernichtet. Diese Auflösung wäre außerdem auch nur exakt in der Schärfeebene bei voller Öffnung vorhanden.
Viel Spaß auch mit den anfallenden Datenmengen und der daraus resultierenden Bearbeitungszeit!