Offenbar kommst du über allgemeinkonkrete Andeutungen doch nicht hinaus. #43 war der Ausgangspunkt, deine Hypothese mit den "gerade mal 1/4 - 1/3 der MP-Zahl". Worauf basiert denn diese Angabe?
Nun ja, eine detaillierte Beschreibung würde den Rahmen eines Forenpost natürlich sprengen. Daher mein Verweis auf Literatur. Da gibts auch (ggf bebilderte Beispiele usw).
Das ganze beginnt schon bei den Grundlagen der (optischen, graphischen) Digitalisierung.
Und wohl bräuchte man erst mal (wie bereits von @rednosed angedeutet definieren, obs nun um die eigentliche Sensor-Auflösung geht, oder um die erreichbare
effektive.
Aus pragmatischer Sicht schlage ich stets vor, sich auf zweiteres zu fokusieren. Damit verlässt man quasi auch die Grundlagen nicht.
Auch da ist noch einiges Frage der Definition. Etwa, was man überhaupt als einzelner "Bildpunkt" (Pixel) betrachten sollte.
Ist es eine einzelne Diode (mit natürlich nur einer Farbe), ist es ein Farbblock (also bestehtend aus drei Dioden oder ist es bereits ein Block der kleinsten rechnerischen Einheit.
Fragen tut sich das, weil eine A/D-Wandlung stattfindet und beginnt in der Literatur meist mit den Themen "Digitaler Definitionsbereich", "Nyquist-Theorem und "Wertebereich".
Das reale Licht (Lichtstrahlen vom Motiv und Umgebung) trift durch den Vorfilter auf den Sensor bzw die Dioden) wo dann die elektrischen Informationen in digitale Daten umgewandelt werden.
Bereits an dieser Stelle muss man sich vergegenwärtigen, dass alles Licht erst mal nur in drei Farben eingeteilt wird (eigentliche Bildaufzeichnung), woraus dann durch die Digitalisierung wiederum möglichst alle originalen Farben errechnet bzw später wiedergegeben werden sollten. Ebenso "spreizen" und "dämpfen" Vorfilter (AntiAliasing, AntiIF, Schutzfilter) die Lichtbündel/strahlen.
In der klassischen Bayer-Matrix werden die Dioden folgendermassen in Farben aufgeteilt :
Grün 50% , Rot & Blau jeweils 25%.
Errechnet (Farbinterpolation) werden aber für : Grün 50% und Blau und Rot 75%.
Warum Blau und Rot 75% statt 50% hängt damit zusammen weil benachbarte Bildpunkte schliesslich zusammengerechnet werden müssen (Errechnung der Zeilen 50% - benachbart in Folgezeilen- 100%).
Stochastisch (math. Wahrscheinlichkeit) hängen die Pixel zusammen bzw werden zusammengeführt, müssen sie schliesslich auch,da die digitalisierten Daten möglichst den vom elektrischen vom Sensor und wiederum von den natürlichen Übergängen entsprechen sollen.
Sonst wäre die spätere Darstellung von feinsten (zB modelierten) Details aber auch Flächen schlichtweg nicht möglich.
Diese Interpolation begründet die Differenz zwischen der nominellen und tatsächlichen Auflösung. Eben, das ein BayerMatrix-Sensor eine weitaus geringere Auflösung als Dioden erzielt. Mal unabhängig der resltichen Verluste der effektiven Auflösung durch optische Begebenheiten (Objektiv usw).
Einen Vergleich von Sensoren unterschiedlicher Größe und technischem Aufbau bei auch noch unterschiedlichen Kameramodellen kann nie vorbehaltlos angewendet werden.
Die Nachbearbeitung in der Kamera, das verwendete Objektiv und auch das Motiv haben einen wesentlich größeren Einfluss auf die Bildqualität als nur der reine Sensor.
Das sehe ich genau so.
Sogar noch einiges Mehr hat Einfluss auf die schlussendliche, effektive Auflösung, wobei's mir und @tabbycat hier spezifisch um den Auflösungsverlust alleinig durch die Matrix ging.