Warum haben Sensoren Antialiasing-Filter?
Weil es Arbeitsbereiche von Objektiven gibt, die den Sensor völlig überlasten würden.
Selbst wenn eine Optik bei Blende 1,8 am Rand auf einem 10 MPixel-Sensor matschig ist, heißt das noch lange nicht, daß sie bei Blende 5,6 in der Bildmitte einen 100 MPixel-Sensor nicht bedienen kann.
Was Optiken könnten, würde man sehen, wenn man den Antialaising-Filter ausbauen würde. Statt 30% matschige Passagen und 70% scharfe Passagen in den Bildern hätten wir wahrscheinlich auf einmal zwar nur noch 20% Matsch, dafür aber in 40% bis 50% Moire-Probleme.
Solange Antialiasing-Filter notwendig sind,
- gibt es Optiken und Arbeitsbereiche, die deutlich besser als die Sensoren sind,
- wird mühselig erzeugte Auflösung (die richtig Geld kostet) wieder zur Sau gemacht.
Richtige 4 MPixel-Auflösung kann man grob gesprochen erreichen durch:
- 6 MPixel-Sensor + "120 MPixel"-Objektiv
- 10 MPixel-Sensor + "30 MPixel"-Objektiv
- 16 MPixel-Sensor + "16 MPixel"-Objektiv
- 30 MPixel-Sensor + "10 MPixel"-Objektiv
- 120 MPixel-Sensor + "6 MPixel"-Objektiv
Wenn man ohne negative Nebenwirkungen 120 MPixel-Sensoren herstellen und betreiben könnte, wäre man mit dem 120 MPixel-Sensor am besten beraten. Man kann bei gegebener Auflösung wesentlich billigere Optiken verwenden.
Leider haben jenseits von Datenmenge und Verarbeitungsgeschwindigkeit große Pixelzahlen aber massive Probleme bei höheren Empfindlichkeiten und dunklen Bildpassagen. Diese rauschen dann so stark, daß man dort die Auflösung drastisch reduzieren muß.