Du scheinst dir in deiner Meinung aber sehr sicher zu sein.
Ja, von Signalverarbeitung und Abtastung verstehe ich ein wenig.
und haben eine größere Fläche, deshalb auch etwas mehr Bildinformation, ich schätze so um die 20%.
Die Bildinformation hängt nicht von der Fläche ab, sondern von der Anzahl. Die größere Fläche sammelt lediglich mehr Licht (als bei einem 12MP-Sensor).
Der hat es halt auch nur nachgeplappert.
Einfach mal ein Gegenbeispiel: wenn ich meinen Sensor um 10° aus der horizontalen drehe, dann würde das nach obiger Argumentation meine Auflösung etwa versechsfachen:
-----------------------------------------------X-------
-------------------------------------X-----------------
---------------------------X---------------------------
-------------------X-----------------------------------
----------X--------------------------------------------
X------------------------------------------------------
---------------------------------------------------X---
-----------------------------------------X-------------
-------------------------------X-----------------------
-----------------------X-------------------------------
--------------X----------------------------------------
----X--------------------------------------------------
------------------------------------------------------X
--------------------------------------------X----------
----------------------------------X--------------------
--------------------------X----------------------------
-----------------X-------------------------------------
-------X-----------------------------------------------
(naja, so ähnlich jedenfalls - war mühsam genug)
Die 'X" sind jeweils die Mittenposition eines Pixels. Und Du siehst, es gibt horizontal und vertikal jeweils 5 Zwischenpositionen zwischen den "echten" Rasterpunkten.
Und in der Tat könnte ich dafür einen Interpolationsalgorithmus machen, der horizontale oder vertikale Linienpaare tatsächlich so (unterhalb der Auflösungsgrenze des Abtasttheorems) noch auflöst. Der Preis, den man dafür zahlt, ist, daß alle anderen feinen Strukturen außer horizontalen oder vertikalen Linienpaaren grausam verfälscht aussehen, voller Artefakte ("Alias-Produkte"). Die Effekte eines Bayer-Sensor ohne AA-Filter mit Moiree (das ist das gleiche Problem) sind vergleichsweise harmlos.
Da ich nicht nur das Netz von Fußballtoren, Waffelgitter und karierte Tischdecken akkurat ausgerichtet photographieren will, sondern die Welt, wie sie ist (selten quadratisch), tut das kein Kamerahersteller. Sondern er wird sich bemühen, das optische AA-Filter, Sensorpattern und Interpolationsalgorithmus so aufeinander abzustimmen, daß Aliasiing möglichst vermieden wird. Diese Abstimmung kann man natürlich noch tunen (die Überschwinger geschärfter Kanten sind Alias-Produkte) je nach Kundenwunsch. Aber für die zu Grunde liegende Sensorauflösung zählt alleine die Zahl der Pixel (gleichmässige Verteilung - äquidistante Abtastung - vorausgesetzt, sonst wird es noch mal komplizierter).
Und es hilft nicht, 2D-Probleme in 1D zu untersuchen, da übersieht man schnell etwas.
Und wem das zu theoretisch ist: glaubst Du wirklich, die anderen Kamerahersteller könnten ihr Pixelraster nicht um 45° gegenüber den Kanten des Sensors drehen? - Das spezifische Fuji-Pattern resultiert doch nur aus dem notwendigen Interlacing der R- und S-Pixel. Und dann sieht es halt, wenn ich nur eines der beiden Pixelgitter betrachte, um 45° gedreht aus.