Gut erklärt von ewm. Vereinfacht kann man sagen: Je höher die Auflösung der Kamera wird, desto besser kann sie feine Strukturen auflösen, sodass ein AA-Filter, der nichts anderes macht als feinste Details zu "verschleiern", verzichtbar wird.
Insofern scheint ein Filter bei 16 MP angebracht/notwendig zu sein.
:
Jain : Inhaltlich zwar auf der richtigen Spur, doch der Kamerasensor ist hier nur EIN rädchen im Bereich Ursache und Wirkung. Das grosse übrige an Räderwerk nicht zu beachten führt am ende dann immer wieder zu Fehlannahmen und Missverständnissen wie der
Beitrag von fewe zeigt.
:
Nein : der AA-Filter verschleiert eher nicht sondern bildet Kontraste deutlicher heraus.. wobei natürlich "feinste" Strukturdetails verloren gehen, während "feine" Details herausgearbeitet werden und am Ende das "verbleibende weniger" ein MEHR abbildet, wortwörtlich.
:
Ja : Eine höhere "Auflösung" kann Strukturen feiner auflösen.. ja. Und da liegt auch die Crux... :
KANN WENN ...
WARUM nur wird wieder und wieder vergessen das weder ! der Kamerasensor noch das jeweilige Objektiv allein
die "resultierende optische Auflösung" bestimmen, sondern das Sensor und Optik ein "
optisches System" bilden und NUR SO auch zu betrachten sind um zu verstehen was da passiert.
Daher auch ein Nein an fewe
hier
..Es geht darum, dass der Sensor eine regelmäßige Struktur hat. Das hat prinzipiell nichts mit der Auflösung in Megapixel zu tun sondern nur - wie Du sagst - ob das Objektiv die Auflösung des Sensors schafft oder nicht.
Das ist leider völlig falsch verstanden:
- die "Struktur" des Sensors KANN mit
Ortsfrequenzen (die für das auftreten von Moiree verantwortlich sind)
überhaupt nixx zu tun haben, es ist völlig Wurscht ob der Aufnehmer als FSI, BSI, DIS oder sonst wie aufgebaut wurde und so "seine Struktur" bekam.
Im Grunde IST es sogar immer so das ein optisches System durchaus MEHR Linienpaare an Bildhöhe (LP/H) abliefern kann wie theoretisch denkbar, also das ein bildgebender Sensor nach Bayer mit z.B. 12 MB Nominalauflösung (3000 x 4000 Pixel) im Zusammenspiel mit wirklich guter Optik durchaus eine LP/H abliefert die rechnerisch 15MB oder 20 und noch mehr MB entspricht obwohl der Sensor selbst "nur" 12 MB aufweist
Den erklärenden Hintergrund dazu
hat der User ewm VÖLLIG RICHTIG ! dargestellt, nur vergessen zu erwähnen das der physikalische Background davon das
Nyquist Theorem ist wozu ich über die Jahre auch hier im Forum so einige detailierte Fachbeiträge eingestellt habe.
Nur ist diese Materie eben ganz harter Tobak; und nicht in 2 Minuten abzuarbeiten. Schon den Part das Bildmotiv mit der "Ortsfrequenz" gleichzusetzen ist eine Hürde die selbst Physikstudenten erst mal nehmen müssen.
Genauso das es zwingend ist ALLE potentiellen Maxima und Minima auch auszuorten.. also mögliche Abweichungen sagen wir nach Links UND nach rechts jeweils auch aufnehmen können zu müssen UM überhaupt "komplett abtasten" zu können (klick. Bild Störfrei drin).
Und DAS bedeutet um 100 BLUBB von was auch immer abzubilden muss ZUVOR Platz in der Abtastung (Frequenz) da sein den gesamten Range von 100+ und 100- = 200 BLUBB von was auch immer zu erfassen ! weil sonst ein Minima- oder Maxima-BLUBB evtl. nicht mehr rein geht und dann die Messung (also das Bild) versaut.. was also auch vom Objektiv als TEIL des optischen Systems verantwortet werden kann.. und NIEMALS vom Sensor allein und schon gar nicht dessen Struktur
Verstanden? Nein? Völlig normal.. Denn das geht weit ! über Schulphysik 12 Klasse hinaus...
JA? : Waou & Prima:
Dann ist es ganz einfach das Moiree zu erklären: die Abtastfrequenz löst die Ortsfrequenz NICHT vollständig auf. .. die 100 Blubb was auch immer passen schlicht nicht in das Spektrum der Abtastung. Ein / mehrere Motivfragment(e) sind in Folge nicht positionsexact abbildbar.. aber erfasst ! und werden dann sowohl hier UND ! dort abgebildet (wie U-Bahn-Pressing in Hongkonk.. ich press dich mal Da oder DA rein)
DAS zeigt sich dann: als Moiree.
Punkt, das wars.
Somit muss spätestens hier klar werden, das die Nominalauflösung des bildgebenden Sensors schon eine seehr große Rolle spielt und mit Zunahme der sensorischen Auflösung bei gegebener optischer Harmonie einerseites natürlich !!! die Wahrscheinlichkeit steigt die Ortsfrequenz auflösen zu können, andererseits die Wiedergabe so Detailreich wird das eine störende NICHTauflösung der Ortsfrequenz weniger Bildwirksam wird.
Damit ist dann auch schlüssig nachvollziehbar warum der 16 MB-Sensor der Nikon D4 und D4s im FGA einen AA-Filter noch enthält.
Man "könnte" zwar durchaus darauf verzichten, aber die Zielgruppe von Fotojournalisten für die D4(s) ist im Gegensatz zu Studioarbeiten (D800(e)) oder privaten Nutzern (D3300 D7100) schlicht darauf angewiesen kalkulierbare Ergebnisse zu erhalten wo das Bild i.d.R. eben NICHT wiederholbar ist aber zum Broterwerb dient.
Nikon geht also bei der D4(x) auf NO. SICHER und das IST gut so.
b.t.w.
Was überhaupt aus dem PRIMITIVEN Bayer-Pattern heute in den verschiedenen Lagern rausgeholt wird ist WEIT !!! entfernt von dem was sich jemals wer der analog knipste zu hoffen wagte. Mit der D4 und D4s hat Nikon die Messlatte auf ein unfassbares Niveau gehoben, das ich seeehr gut nachvollziehen kann warum manche deren Besitzer versucht sind klarzustellen "ich hab eine"... D4 stand mir Leihweise zur Verfügung, der habenwolleneffekt ist unfassbar hoch, findet seine Grenzen jedoch "noch" darin das bei mir die "Ausgabegröße" selten über A4 hinaus geht und da macht D3 und D700 noch immer einen perfekten Job
@noppe
den "integrierten Flash" bei den einstelligen zu vermissen ist jetzt nicht dein Ernst oder

Position, handlingmöglichkeit und LZ 11-17 offenbaren das damit im professionellen Bereich kein Blumentopf zu gewinnen und somit völlig ! verzichtbar ist zugunsten der Haptik!
Im Studio braucht keiner den internen Flash, im Job als Fotojournalist bestimme ICH mit Aufsteckblitz das was rauskommt und hab in 14 Jahren den "internen" bei keinem der Bodys je genutzt.. nur privat just for Fun
LG
Gerd