AW: Beugungsunschärfe bei niedriger/hoher Pixeldichte und gleicher Ausgabegröße im Vg
Hm... Na so ganz habt ihr mich noch nicht überzeugt, aber das ich das Shannon-Theorem falsch angewendet habe, gibt mir grad was zum Nachdenken.
Ich muss gestehen, deinen Ansatz noch nicht ganz verstanden zu haben.
Es geht um die (zeitliche oder örtliche) äquidistante Abtastung eines analogen Signals. Das (hier zweidimensionale, ist aber dafür egal) Signal ist das auf den Sensor projizierte Bild. Abgetastet wird es hier örtlich äquidistant durch die Sensorpixel. (OK, vermutlich dank Bayer-Pattern nicht wirklich äquidistant, aber das tut hier auch nichts zur Sache.)
Unter einer "Frequenz" verstehen wir hier also nicht "Änderungen pro Zeit", sondern "Änderungen pro Länge", d.h. Hell-Dunkel-Wechsel z.B. pro mm auf dem Sensor. Das Abtastkriterium sagt jetzt, dass der Sensor pro solch einem Wechsel von dunkel nach hell und wieder nach dunkel mindestens etwas mehr als zwei Pixel besitzen muss, damit keine Störungen auftreten.
Anschaulich ist das ja auch logisch: Wenn man sich eine Sinuskurve vorstellt, ist naheliegend, dass man wenigstens einmal am höchsten Punkt und einmal am niedrigsten Punkt abtasten muss, um die Kurve wiederherstellen zu können. Taste ich seltener ab und lege dann durch die abgetasteten Werte hinterher die naheliegendste Kurve, so ist das nicht die ursprüngliche, sondern eine mit geringerer Frequenz, dir ursprünglich gar nicht da war. Das führt dazu, dass im Signal plötzlich (niedrigere) Frequenzen auftauchen, die vorher überhaupt nicht da waren. Das nennt man dann auch "Aliasing", da die digitale Repräsentation einer Frequenz bei der Rückwandlung plötzlich eine andere ergibt (Alias). Optisch sieht man sowas als Moiré (örtliche Abtastung), akustisch hört man es als Quäken oder Scheppern (siehe schlecht encodierte MP3-Dateien oder solche billigen Spielzeuge oder Grußkarten, die irgendwelche Geräusche machen, usw.). Ein anderes optisches, aber zeitliches Beispiel sind etwa drehende Speichenräder, die von einer Kamera gefilmt werden. In Western schön zu sehen: Ein Planwagen fährt an, die Drehung der Räder passt zunächst. Aber einer gewissen Geschwindigkeit reicht aber die zeitliche Abtastrate der Kamera (20 oder 25 Bilder pro Sekunde) nicht mehr aus, um die Bewegung der Speichen eindeutig zu erfassen. => Das Rad scheint plötzlich wieder langsamer oder gar rückwärts zu drehen. Man sieht eine Frequenz, die es ursprünglich nicht gab.
Um das zu verhindern, muss also immer VOR der Abtastung (hinterher ist das Kind im Brunnen) auf der analogen Seite ein Tiefpassfilter her, der alle Frequenzen aus dem Signal herausfiltert, die gleich oder größer sind als die halbe Abtastfrequenz. Bei einer CD-Aufnahme (44 kHz Abtastung) wird das analoge Signal auf ca. 20 kHz begrenzt (mehr hört man sowieso nicht). Vor der Abtastung durch einen Bildsensor muss also ein analoger Tiefpass die zu hohen Frequenzen aus dem Bild filtern, d.h. das Bild quasi so weit unscharf machen, dass die verblebenden örtlichen Hell-Dunkel-Wechsel von den vorhandenen Sensorpixeln eindeutig erfasst werden können.
Besitzt der Sensor eine höhere Auflösung, so kann man den Filter schwächer machen, ohne sich Störfrequenzen einzufangen.
Beugungsunschärfe bedeutet, dass das analoge Signal bereits von schlechterer Qualität ist, d.h. tendenziell eher weniger hohe Frequenzen enthalten sind. An der "Beugungsgrenze" sind wir also in dem Augenblick, wo es durch die Beugung für den AA-Filter gerade nichts mehr zu tun gibt, der Sensor aber noch ausgereizt wird, d.h. die höchstens darstellbaren Frequenzen noch vorkommen. Dies ist natürlich bei einer höheren Sensorauflösung bereits bei geringerer Beugungsunschärfe der Fall. Dadurch wird die Unschärfe bereits bei geringerem Umfang detektierbar.
Wie ich bereits gesagt habe: Eine höhere Auflösung macht den Beugungseffekt früher sichtbar, verstärkt ihn aber nicht. Wenn ich die zusätzlich Auflösung wieder verschenke, indem ich herunterskaliere, ist das Ergebnis identisch dazu, als hätte ich erst mit einem entsprechend stärkeren AA-Filter sozusagen "analog herunterskaliert" und dann einen Sensor mit geringerer Auflösung benutzt.
Nach kurzer eingängiger Studie der Beispiele (RAW's) bei Blende 16 kann ich keine Unterschiede von der 20D zur 50D runterskaliert auf's Niveau der 20D erkennen.
Das sollte herauskommen.
Bei 1:1 Ansicht bei höheren Blenden werd ich aber der 50D weiterhin eine gewisse Unschärfe zugestehen.
Sicher. Weil du bei der 50D die Unschärfe einfach früher siehst. Der Flaschenhals verlagert sich vom Sensor zum Objektiv bzw. dessen Beugungseigenschaften.
Sieht wohl einfach danach aus, dass man in Zukunft quantitativ nicht mehr so stark croppen kann wie bisher.
Relativ zur Gesamtgröße kannst du eher noch stärker croppen. Ein in absoluten Pixelzahlen gleich großer Crop wird tendenziell schlechter sein, da er bei höherer Sensorauflösung eine stärkere Vergrößerung des projizierten Bildes darstellt.