Ausschließlich diese 4 Phänomene will ich mit meinem Denkmodell "vorstellbar" machen:
- Mit steigender Blendenzahl steigt die Beugungsunschärfe und begrenzt die Auflösung des fertigen Bilds
- Dieser Auflösungsverlust ist bei hochauflösenden Sensoren relativ ("prozentual") höher
- Trotzdem wird die Auflösung deshalb des höherauflösenden Sensors nie schlechter als die des niedrigauflösenden
- Wenn man aber "pixelrelative" Auflösungen (z.B. 100%-Ansichten) betrachtet, wirkt das Bild vom hochauflösenden Sensor schlechter. In gleicher Ausgabegröße ist es gleich oder besser
Und genau diese Punkte kann ich mit meinem kleinen Denkmodell ("addiere Flächen!") anschaulich darstellen. Und mehr soll es nicht.
Wenn man dieses kleine Modell dann mathematisch darstellt, kommen Kurven dabei raus, wie ich sie ganz oben gezeigt habe. Diese Kurven sind vollkommen "unkalibriert", und sind deshalb etwas zu steil geraten, sie sagen einen zu hohen Auflösungsverlust voraus. Das kann ich durch Änderung der Parameter anpassen. Aber eigentlich sollen sie gar keine Werte vorhersagen, sondern einfach nur das Phänomen darstellen. Und das tun sie.
Ob aus meinem Modell am Ende eine Kurve rauskommt, die (im interessanten Bereich zwischen etwa f/4 bis f/22!) einen leicht anderen Verlauf hat, als eine andere Kurve aus einem anderen Modell, ist dabei, im Kontext dieses Denkmodells mit grober Daumenformel, vollkommen irrelevant. Wer das anders sieht, möge bitte mal aufzeigen, um wieviel meine Kurve im relevanten Wertebereich denn zwangsläufrig (aus mathematischen Gründen) von der angeblich richtigeren Kurve aus einem anderen Modell abweichen
muss, und warum ein Nutzer aus der Zielgruppe meines Modells also einen solch großen Fehler macht, das er mein Modell praktisch nicht benutzen
darf.
Und wer glaubt, mein Modell sei vollkommen unbrauchbar, weil es die Unstetigkeit der Quantisierungsfehler ignoriert, der mache bitte die selbe Übung: Um wieviel weicht mein Modell dadurch zwangsläufig (aus mathematischen Gründen) von "der Realität" ab und warum ist diese Abweichung für den Nutzer aus der Zielgruppe so wichtig, dass er mein Modell nicht benutzen darf.
Ich habe jedenfalls keine Lust mehr, mir hier von einem nach dem anderen vorhalten zu lassen, ich könne oder wolle etwas nicht verstehen und würde auf "Argumente" nicht eingehen, oder mich persönlich angreifen und beleidigen zu lassen. Und ich werde jeden Beitrag, der auch nur ansatzweise in diese Richtung geht, umgehend melden.
Was mein Modell leisten soll und was nicht, habe ich nun schon x Mal gesagt. Bisher habe ich kein Argument gelesen, das (z.B. im Sinne der beiden letzten Fragen) aufzeigen würde, dass mein Modell grundsätzlich nicht funktionieren
kann. Dass ich viele Dinge nicht berücksichtige, habe ich auch x Mal gesagt. Wer meint, ich müsse sie aber unbedingt berücksichtigen, der soll bitte aufzeigen, warum diese so relevant sind, dass mein Modell für den ebenfalls x Mal genannten Zweck unbrauchbar wird. Auf andere Beiträge werde ich nicht mehr eingehen. Doch, über Beiträge wie die von nidschki und Thoma2008 freue ich mich und bedanke mich schon mal im voraus.
Gruß, Matthias