An Donesteban: Ich muss deiner Erklärung widersprechen, durch Schärfen holst du keine Details zurück. Sie sind entweder vollständig da oder vollständig weg. Du erhöhst nur den Schärfe-Eindruck, indem du sehr geringe, tonale Unterschiede durch Anheben des Kontrastes für unsere Wahrnehmung besser wahrnehmbar machst. Das wirkt auf uns schärfer, obwohl dieselbe Menge an Details vorhanden ist. Oder sogar krasser formuliert: Schärfen kann sogar Details vernichten, da es nebeneinander liegende Helligkeitswerte zu einem Wert verschmelzen kann, um den Kontrast zu einem weiter danebenliegenden Wert zu erhöhen. Die Algorithmen verursachen auch Artefakte durch diese Berechnung, womit die Auflösung weiter sinkt. Im Endeffekt mach die Beugungskorrektur ja genau das. (edit: Genau gesagt sind es nicht nur Anpassungen der Helligkeit, sondern auch der Farb- und Sättigkeitswerte; das tut der Erklärung aber keinen Abbruch)
Das war was unglücklich formuliert von mir.
Ich meine Folgendes: Beugung macht aus einem scharfen Detail ein unscharfes. Sprich ein Detail das etwas dunkler ist als eine Umgebung, wird nicht sauber als 1 Pixel dunkler und daneben heller dargestellt. Sondern das dunkler verschmiert etwas in die Pixel neben dran, die werden etwas dunkler. Und umgekehr verschmiert das hellere neben dem Detail auch etwas in das Pixel, das dunkler sein sollte.
Das Detail ist nicht vernichtet, solange die Beugung nicht deutlich grösser als 1 Pixel ist. Sondern es st in seinem Kontrast drastisch gemindert.
bei schwarz/weiss Mustern wie Seimenssternen wird man es evlt sogar trotzdem erkennen, wenn auch eben weich, sprich unklar.
Wenn das Detail das Laub eines weit entfernten Baumes ist, wo schon im Motiv nicht so doll Kontrast in den Details ist, wird man es evtl ohne Schärfen gar nicht mehr sehen. Zumal die aller meisten RAW Konverter auch noch etwas entrauschen, JPEG occ sowieso.
Das meine ich mit man kann den Effekt kaschieren.
Zu den konkreten Zahlen:Wenn ich mich recht erinnere, hat die Beugung in etwa Radius Pixelgrösse, wenn die Blendenzahl 1.6mal die Pixelgrösse ist. Das heisst bei meiner D810 mit ca. 5 Mikrometer grossen Pixeln ist das bei f/8 der Fall.
Der Effekt in der Praxis:
f/5.6 kann ich mir sehr scharfen Objektiven mit Radius 0.4 bis 0.5 schärfen, 300%, Threshold 0 (allles Capture One). Mehr wirkt überschärft.
f/8 kann man hingegen auf Radius 0.8 bis 0.9 anheben, sofern das Rauschen es erlaubt (ISO 64 hilft).
Der Radius ist noch nicht sograss, das Halo Effekte Details vernichten. Aber gross genug, um durch die stärkere Schärfung vorher plattgebüglete Details wieder klar sichtbar zu machen.
und genau deshalb geht das bei f/11 nicht mehr, da geht wirklich Info velroren und weiteres Erhöhen vom Radius bringt dann auch Nachteile bezüglich Details.
Und an APSc findet das ganze eben eine Blende vorher statt.
Deswegen sollte ein Objektiv für diesen 32 MP Sensor möglichst schon bei f/4 gut sein, wenn man die Auflösung nutzen will. Damit man eben nicht ständig in den bereich von bis f/5.6 gehen muss, wo man es ja nach ISO evlt noch mit schärfen etwas kaschieren kann.
Ich nutze an meinen APSc mit 24 MP die lichtstarken Zooms wie das 18-35 am liebsten nur bis 5.6, nur die etwas lichtschwächeren wie das 12-28/4 dann eher bei 6.3 oder 6.7, weil das Abbelnden bis da noch was bringt, die gewinnen dadurch noch.
Von 24 auf 32 MP ist ein Faktor von gut 1.2 in jede Richtung, d.h. f/6.7 an 24 MP enstpricht von der Beugung in 100% betrachtet dann etwa f/5.6 bei 32 MP.
Wenn ich sehe, was meine APSc kameras bei f/4 bis maximal 5.6 mit dem 14-20/2.0, dem 18-35/1.8, 24-35/2.0 oder dem 70-200/2.8 Sport birngen, dann zeigt das ganz schön, was möglich ist, wenn man eben darauf achtet, dass das Objektiv schon richtig Klasse ist bevor die Beugung einsetzt. landschaftsbilder bei tiefen ISO werden mit einer D750 dann nciht besser als mit der D3400, wenn ich solche Objektive an die Kleine schnalle.