Damit man einen "RGB-Sensor" verwenden kann, wäre es erstmal notwendig, das es diese Technologie real gäbe...
Alternativ kann man ja auch mit einem Bayer Sensor RGB Pixel erzeugen indem man 2 grüne Subpixel zusammenfasst - also RGGB Informationen zu einem RGB-Pixel zusammenfasst. Durch die Zusammenfassung von 2 grünen Subpixeln könnte man das Rauschen zusätzlich reduzieren - gemäß dem Bayer Konzept sind die grünen Farbinformationen für das menschliche Auge ja die wichtigsten.
Mit 4 Subpixeln bräuchte man aber schon etwa 32 Megapixel, um ein 8 Megapixel RGB Bild für 4K zu erreichen.
Blöd nur, dass es keine 3:2 Fernseher gibt...
Nein, 16:9 ist das dominate Bildschirmformat für TV, Notebooks, Smartphones, Panels usw.
Bei einem 3:2 Sensor müsste man die Bilder oben und unten croppen, um auf das 4K-Format in 16:9 zu erreichen. Wegen der Cropbereiche müsste ein 3:2 Sensor nochmal um etwa den Faktor 1.2 größer sein als ein 16:9 Sensor, um 4k darzustellen. Damit wären wir bei 38 Megapixeln.
Insgesamt denke ich, dass das Megapixelrennen noch nicht zu Ende ist, hoffe aber, dass die zur Zeit übliche Interpolation in weniger großem Umfang durchgeführt wird, um aus jedem SubPixel ein RGB-Pixel zu errechnen und damit die Dateien unnötig zu vergößern. Zu Zeiten von 2 Megapixelkameras mag die Interpolation notwendig gewesen sein – jetzt nicht mehr.
Bei Fuji kann man bei EXR CMOS II Sensoren ja bereits 2 Pixel für eine bessere Bildqualität zusammenfassen. Damit wird aus einem 16 Megapixel Sensor ein 8 Megapixel Bild mit höherer Qualität generiert.
Zukünftig könnten noch mehr Subpixel für eine bessere Bildqualität zusammenfasst werden. Damit bräuchte der Sensor mehr Pixel, aber die resultierenden Fotos hätten bei gleicher Größe eine bessere Bildqualität.