AW: Sinnvolle Anzahl MP bei FT(.!?)
Dann versuch ich das nochmal anders:
Beim Abblenden wird die Beugungsscheibe größer (die geht beim Aufblenden nicht irgendwann weg). Bei einer bestimmten Blende (ich nenn die jetzt mal Grenzblende, nehmen wir mal an, das wäre F11) überdeckt sie mehr als ein Pixel. Wenn sie benachbarte Pixel (auf dem Sensor) weit genug verdeckt, wird die Beugungsunschärfe deutlich sichtbar, weil der Einfluß der Beugungsscheibe auf das Signal des überdeckten Nachbarpixels groß genug ist. Das heißt aber nicht, daß das Nachbarpixel komplett von der Beugungsscheibe überdeckt wird. Das Pixel liefert nur einen einzigen Lichtwert, und der setzt sich aus verschiedenen Lichteinfällen zusammen.
Wenn die Pixel kleiner werden, wird auch die Beugungsscheibe höher aufgelöst. Man erkennt zwar (in 100%-Ansicht) bereits bei kleineren Blendenzahlen schon den Einfluß der Beugung, weil die Beugungsscheibe früher aus einem Pixel »rauswächst« (weil die Pixel kleiner sind). Bei F11 aber, also bei Grenzblende, bei der heutzutage vielleicht zwei Drittel eines Nachbarpixels überdeckt werden, würden bei einer höheren Auflösung nur das Nachbarpixel (das erste Pixel neben dem betrachteten Pixel) und das Pixel danach (das zweite daneben) überdeckt. Das dritte Pixel daneben ist vielleicht gar nicht mehr von der Beugungsscheibe betroffen. Dann müßte das Bild schärfer werden.
Und mit »der Schärfeverlauf wird gleichmäßiger« meinte ich, daß bei gegebener Schärfentiefe der Verlauf von scharf zu unscharf gleichmäßiger wird, weil durch die höhere Auflösung das Bild feiner »quantisiert« wird. Es wird in kleineren Sprüngen unschärfer. Wenn ich es mir recht überlege, wird man den Effekt aber vermutlich kaum wahrnehmen.
Vielleicht bin ich ja auf dem Holzweg. Legt ihr doch mal genauer dar, was ihr denkt.
Geh doch mal von einem sehr kleinen weißen Lichtpunkt aus, den man auf dem Sensor abbilden will. Der Lichtpunkt soll kleiner als ein einzelnes Pixel sein.
Damit er tatsächlich als "weiß" erkannt werden kann, muß er auf alle 4 Pixel der RGGB Matrix aufgespreizt werden, denn sonst würde er ja rot, grün oder blau erscheinen. Genau dies ist die Aufgabe des Antialiasing Filters. Er vergrößert den Punktstrahl von einer gewissen Größe an immer auf ein gewisses Mindestmaß. Dieses Mindestmaß hängt ab von der Größe der Pixelmatrix und damit auch von der Pixelgröße, deren Packungsdichte und natürlich auch von der Philosophie des jeweiligen Herstellers.
---> Schwacher oder starker AA-Filter
---> Ausreizen der Auflösung auf Kosten vom Moire und Artefakten oder nicht
Der Beugungseinfluß sorgt nun von bestimmten Blenden an für eine zusätzliche Vergrößerung des Lichtpunktes.
Eine Verschlechterung der Auflösung setzt etwa dann ein, wenn das o.g. Mindestmaß durch Beugungeffekte überschritten wird. Dann wird der Punkt für unsere Augen immer deutlicher zu einer Scheibe und Kanten und Konturen erscheinen immer stärker verwischt.
Dieser Effekt setzt aber nicht schlagartig ein, sondern allmählich.
Während die Grenzfrequenz (das o.g. Mindestmaß) des AA-Filters aber konstruktiv festgelegt ist, verändert sich die "Beugungs-Grenzfrequenz" je nach Blende.
Im Grunde hat man also 2 hintereinandergeschaltete Tiefpassfilter mit endlicher Flankensteilheit, die feinste Details jenseits der (variablen !!!) Grenzfrequenz immer stärker kappen. Bei großen Blenden dominiert der AA-Filter, bei kleinen Blenden wächst der Einfluß des "Beugungs-Filters", so daß sich die wirksame Grenzfrequenz langsam weiter nach unten verlagert.
Immerhin tröstlich, unsere Augen haben auch keine unendlich hohe Auflösung.
Also braucht man es auch von Kameras nicht zu verlangen.
"Sinnvoll" ist die MP-Zahl und die Abstimmung, mit der unsere Augen bei den jeweiligen Betrachtungsbedingungen zufrieden sind.
