Ok, die Bildfehler eines digitalen Sensors jenseits der Nyquist-Frequenz sehen anders aus als die eines analogen Films jenseits der Auflösungsgrenze. Der Effekt ist aber der gleiche: Irgendwo bricht die Auflösung zusammen.
Gruß, Matthias
Der Effekt ist eben nicht der gleiche:
Die Auflösung eines analogen Filmes ist im wesentlichen von der Korngröße bestimmt. Die Anordnung der Körner ist über die Fläche undefiniert statistisch verteilt. (Bitte korrigiere mich wenn ich da falsch liege).
Die Anordnung der Pixel dagegen ist über dir Fläche geometrisch sehr genau festgelegt.
Dieser Unterschied bewirkt aber, dass man bei gewissen Motivestrukturen in digitalen Bildern Moire erhält, in analogen aber nicht.
Und ich erkenne auch hier nicht, warum ich an dieses Problem bei Digitalfotos grundsätzlich anders rangehen sollte, als bei analogen.
Verlangt ja auch keiner von dir!
Du hattest die Meinung anderer erfragt.
Ein Digitalfoto sind halt ein Haufen Daten, die erst durch Verrechnung ein betrachtbares Bild ergeben. Wenn du die ganze digitale Kette Sensor - RAW - RaAWKonverter - JPGKonvertierung nicht beachten möchtest ist das auch deine Sache.
Stuessi hat wohl sehr deutliche Unterschiede gezeigt.
Das das Wissen über die physikalisch mathematischen Zusammenhang für viele (Pixelpeeper

) von uns interessant ist und auch in der Beurteilung der Fotos eingehen kann sollte man aber niemanden absprechen.
In gewissen Sinn glaube ich schon zu verstehen was du meinst: Sich bei der Beurteilung von Fotos nicht nur an Pixeln festzulegen.
Dem stimme ich zwar zu, aber diese einfach zu ignorieren halte ich auch für falsch.
Es ist einmal als ganzes gesehen ein technischer physikalischer mathematischer Ablauf der durch die Einführung der Digitaltechnik noch komplizierter zu verstehen ist. Das kann doch nicht falsch sein, mehr zu verstehen.