Moin!
Ich finde ja weiterhin, dass der nun, auf welchem Weg auch immer, gefundene Faktor 1,6 deutlich näher an dem Wert 1,3 von Sensorgen (ja, dort ist es die S100, nicht die S95) liegt, als an dem oben genannten Faktor 3. Ich verstehe auch weiterhin nicht, wie man eine Quanteneffizienz zwar auf gleiche Pixelgröße, aber nicht auf gleiche Pixelzahl normieren können sollte. Und schon erst recht verstehe ich nicht, wie sich die QE dabei ändern sollte, sie wird doch nur einfach gemittelt. Wohl aber können die Größen, aus denen man sie bestimmt hat, durch die Normierung verändert werden. Da muss man dann schon aufpassen, dass man auf vergleichbare Größen normiert (womit ich nicht unterstellen will, dass das nicht passiert ist). Ich verstehe auch nicht, wozu eine Normierung auf gleiche Pixelgröße hier gut sein sollte. Hier werden gleiche Ausgabegrößen verglichen, und das verlangt eine Normierung auf gleiche Pixel
zahl. Bill Claff verwendet bspw. 1MP (und nennt das "Normierung auf CoC"), aber jede andere Zahl ist auch ok, solange sie bei allen verglichenen Sensoren gleich ist.
Wie auch immer, wenn die Unterschiede in der QE nun 1,6 sind und das wirklich der entscheidende Unterschied ist, dann hätte die S95 eben doch einen leichten "Bleichtungsvorteil". Die fotografische Äquivalenz wäre dann hinsichtlich Dynamik/Rauschen/Tonwertumfang/Farbempfindlichkeit (das sind die Messwerte bei Dxomark) etwas zugunsten des kleinen Sensors "verbogen".
Beim Vergleich meiner beiden Schätzchen (Nikon D700 und P7000) finde ich aufgrund einfacher Äquivalenzbetrachtung einen Abstand in den genannten Werten von etwa 4,3EV (Flächenverhältnis 20, da hatte ich oben die falschen Zahlen, entschuldigt bitte). Die Messwerte bei Dxomark unterscheiden sich um etwa 3-3,5EV. Ich könnte bei der D700 die ISO um 3-3,5 Stufen höher drehen als an der P7000, aber eben nicht um die äquivalenten 4,3, und hätte sehr ähnliche Dynamik/Rauschen/Tonwertumfang/Farbempfindlichkeit. Die P7000 hat also auch einen leichten "Belichtungsvorteil" von knapp 1EV. Für mich ist das eine Korrektur auf die lineare Äquivalenzbetrachtung, aber bestimmt kein Beweis, dass sie grundsätzlich nicht gilt.
Aber all das war allenfalls ein Nebenthema, um das es hier gar nicht gehen sollte. Mir ging es um den oft behaupteten Schärfentiefevorteil kleiner Sensoren.
kknie hat oben meine Rechnungen nachvollzogen und bestätigt, sonst habe ich keine konstruktiven Kommentare erhalten. Auf destruktive Bemerkungen mit dem Unterton "das ist doch von vorn bis hinten falsch" reagiere ich gar nicht mehr, wenn schon meine "blöden Sprüche" nicht als Hinweis verstanden werden.
Ich habe oben deutlich meine Annahmen genannt, die Selbstverständlichkeit "gleiche Ausgabegröße und gleicher Betrachtungsabstand" aber vielleicht nicht deutlich genug. Ich nehme ein ganz einfaches idealisiertes optisches Modell an, das konstruktive Unterschiede zwischen Objektiven (gern genannt beim Canon 85/1,2, wenn auch vermutlich nicht bei maximaler Schärfentiefe) nicht berücksichtigt. Im übrigen sind es gleiche "Formatfüllung" bei allen Sensorformaten und gleiche Gegenstandsweite g. Daraus ergibt sich ein Verhältnis zwischen den Abbildungsmaßstäben gleich dem Cropfaktor, und es ergibt sich ein Verhältnis zwischen den äquivalenten Brennweiten und äquivalenten nominellen Blenden, das nicht dem Cropfaktor entspricht (wohl aber das Verhältnis aus Bildweiten und äquivalenten effektiven Blenden). Und natürlich unterscheiden sich die zulässigen Zerstreuungskreise (gesamt wie auch die erlaubten Anteile für Beugung und Defokus) um den Cropfaktor.
Ich habe oben die förderliche Blende bestimmt, und ich habe geschrieben, wie ich es getan habe. Man kann dort, wie erwähnt, andere Ansätze wählen und kommt dann zu einem anderen Ergebnis, das sich aber nur um einen konstanten Faktor von meinem Ergebnis unterscheiden wird. Da dieser Faktor aber bei allen Sensorgrößen gleich wäre, kürzt er sich bei einem Vergleich raus und ist irrelevant.
Ich habe auch ein Modell benutzt, wie sich die Unschärfeanteile von Beugung und Defokus addieren. Auch da kann man andere Ansätze wählen, die aber auch wieder nur zu einem anderen konstanten Faktor führen und damit irrelevant sind. In jedem Fall erreicht man nämlich die maximale Schärfentiefe genau dann, wenn beide Unschärfeanteile (effektiv) gleich große Flecken erzeugen, egal ob ich sie linear, quadratisch oder überhaupt nicht addiere (und wie man sie addiert, will ich gern diskutieren, es ist hier aber irrelevant).
Und die so gefundenen äquivalenten förderlichen Blenden, äquivalenten Brennweiten, Abbildungsmaßstäbe und zulässige Zertreuungskreise habe ich in die Formeln für die Schärfentiefe und die Unschärfe des unendlich entfernten Hintergrunds eingesetzt und stelle fest, dass der Cropfaktor sich unter diesen Voraussetzungen rauskürzt. Die maximal erreichbare Schärfentiefe (unter den Voraussetzungen für die förderliche Blende) und die minimale Hintergrundunschärfe sind (in diesem kleinen einfachen Modell, das aber jeder Schärfentieferechner auch benutzt) unabhängig von der Sensorgröße, und damit auch der Schärfeverlauf vor und hinter der Fokusebene. Und genau das wollte ich zeigen, mehr nicht.
Gruß, Matthias