...und für all die, die es nachvollziehen wollen, ohne überall nach möglichen Missverständnissen zu suchen:
Ich könnte meinen Ansatz auch so beschreiben: Ich approximiere (nähere an) die Größe x=(effektive Pixelfläche mit Beugung)/(effektive Pixelfläche ohne Beugung) durch eine Newton'sche Reihe in B (der Blendenzahl), die ich nach dem quadratischen Term abschneide und wo ich den linearen Term zu null setze, also x=a+b*B². Der konstante Term a würde Einflüsse erfassen, die von der Blende unabhängig sind (also bspw. AA-Filter, Bayer-Mosaik, aber auch Abbildungsfehler des Objektivs, dazu später mehr), und b wäre ein Term, der den Beugungseinfluss enthält. Die ansteigenden Abbildungsfehler bei offenerer Blende klammere ich mal aus, sie könnten aber durch einen geeigneten Ansatz auch eingebaut werden. Ich könnte natürlich auch irgendeine andere Approximation wählen, wenn sie denn den tatsächlichen Kurvenverlauf genau genug nachbildet. Da ist man vollkommen frei, sich eine geeignete auszuwählen. Ich finde meine aber charmant, weil sie als Flächenaddition aufgefasst werden kann. Ob sich da wirklich Flächen addieren, ist dabei vollkommen nebensächlich, das ist nichts als eine Gedankenstütze. Mit einem bisschen physikalisch-mathematischer Vorbildung und Abstraktionsvermögen kriegt man da auch gedanklich die Verbindung hin. Und "physikalisch falsch" kann es schon sowieso nicht sein. Allenfalls trifft meine Newtonreihe die Messwerte nicht genügend genau, oder, und das wäre viel ärgerlicher, die beiden Konstanten a und b hängen so sehr von jeweiligen Sensoraufbau ab, dass ich da keinen sinnvollen Mittelwert angeben kann.
Und was ist eine "effektive Pixelfläche"? Nun, da könnte man sich einen der üblichen Messwerte für "Auflösung" nehmen, MTF50 oder MTF10 oder wie man mag, und könnte die dort angegebenen Linienpaare als 2 Pixel interpretieren (oder irgendeine andere Zahl, egal, die kürzt sich sowieso wieder raus). Und damit hätte man eine effektive Pixelbreite und mit dem Quadrat eine effektive Pixelfläche.
Selbst mit dem allerbesten Objektiv und ganz ohne Beugungseinfluss mag sich die so bestimmte "effektive Pixelfläche" von der tatsächlichen unterscheiden. Und deshalb würde ich das auf die tatsächliche Pixelfläche normieren, was erstens das a aus meiner Newton-Reihe zu eins werden lässt, zweitens die Annahme, ob nun 2 oder mehr oder weniger Pixel ein "Linienpaar" ausmachen, irrelevant macht (die Zahl kürzt sich raus), aber drittens bekäme das b aus der Newton-Reihe eine nicht unmittelbar nachvollziehbare Größe. Da müsste man dann einen bestimmten Bruchteil der Fläche eines Beugungsscheibchens benutzen. Aber wenn dieser Bruchteil über verschiedene Sensoren und Pixeldichte ausreichend konstant ist, hätte ich ein einfaches Denkmodell: Denk Dir zu der tatsächlichen Pixelfläche einen bestimmten Anteil, der quadratisch von der Blende abhängt, dazu, und Du hast die Größe des effektiven Pixels und damit die "effektive Pixelzahl". Und ich hätte sogar eine nachvollziehbare Annäherung an den Kurvenverlauf von MTF50 (oder was auch immer man da zugrunde legt) bei verschiedenen Pixelgrößen abhängig von der Blende.
Da man aber zwangsläufig keine Messwerte mit einem perfekten Objektiv ohne Beugungseinfluss finden kann, würde ich alle Messwerte unterhalb der kritischen Blende ignorieren, also nur den absteigenden rechten Ast der MTF50-Kurven benutzen und die Abweichung zwischen der maximal gemessenen und "theoretisch höchsten" Auflösung den Objektiv zuschreiben. Dann wäre das a in meiner Newtonreihe doch nicht eins, lässt sich aber auf die gleiche Art bestimmen wie das b. Ich ignoriere damit einen Unschärfeanteil aus Abbildungsfehlern jenseits der kritischen Blende, der zwar auch blenden-, aber nichts beugungsabhängig ist.
Und also nochmal: Ich behaupte nicht, dass das "richtig" ist. Und schon erst recht nicht, dass sich wirklich 2 oder mehr Flächen addieren. Aber ich behaupte, dass man es sich ungefähr so vorstellen darf und damit eine Idee von der beugungsbegrenzten Auflösung seines Sensors bekommt. Und diese Annäherung wird sogar für jeden Sensor mit jedem Objektiv jeweils für sich über einen gewissen Blendenbereich ausreichend genau funktionieren. Aber es ist natürlich witzlos, wenn man sich für jeden Sensor und/oder jedes Objektiv neue Parameter merken muss. Und um auch das nochmal klarzustellen: Dies ist keine "neue Theorie" und ich will damit auch nicht die Optik revolutionieren. Die haben längst viel bessere, aber auch aufwändigere Näherungsformeln. Es soll einfach den "Pixeldenkern" einen oder zwei Denkschritte weiter vereinfachen.
Gruß, Matthias