• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die Böse, böse Pixelunschärfe: Fundamentaldebatte

Nur eins noch: Deine Antwort zeigt deutlich, dass meine Entscheidung, die Diskussion mit dir abzubrechen, die richtige war. Du gehst auf Argumente nicht ein, bezeichnest sie ohne jede Grundlage als "destruktive Querschläge", wirst dafür persönlich, machst dich über versöhnliche Worte lustig und trittst selbst dann nach, wenn der andere das Handtuch wirft. In jeder realen Diskussionsrunde hätte man dich längst herausgeworfen - warum das hier nicht geschieht, ist mir ein Rätsel.
 
Ich schlage vor, ich beschränkt Euch auf rein fachliche Beiträge und unterlaßt jedwede persönliche Anspielungen.

Sollte der Thread in ähnlicher Form weitergehen, schließe ich ihn.
 
Ausschließlich diese 4 Phänomene will ich mit meinem Denkmodell "vorstellbar" machen:


  • Mit steigender Blendenzahl steigt die Beugungsunschärfe und begrenzt die Auflösung des fertigen Bilds
  • Dieser Auflösungsverlust ist bei hochauflösenden Sensoren relativ ("prozentual") höher
  • Trotzdem wird die Auflösung deshalb des höherauflösenden Sensors nie schlechter als die des niedrigauflösenden
  • Wenn man aber "pixelrelative" Auflösungen (z.B. 100%-Ansichten) betrachtet, wirkt das Bild vom hochauflösenden Sensor schlechter. In gleicher Ausgabegröße ist es gleich oder besser
Und genau diese Punkte kann ich mit meinem kleinen Denkmodell ("addiere Flächen!") anschaulich darstellen. Und mehr soll es nicht.


Wenn man dieses kleine Modell dann mathematisch darstellt, kommen Kurven dabei raus, wie ich sie ganz oben gezeigt habe. Diese Kurven sind vollkommen "unkalibriert", und sind deshalb etwas zu steil geraten, sie sagen einen zu hohen Auflösungsverlust voraus. Das kann ich durch Änderung der Parameter anpassen. Aber eigentlich sollen sie gar keine Werte vorhersagen, sondern einfach nur das Phänomen darstellen. Und das tun sie.


Ob aus meinem Modell am Ende eine Kurve rauskommt, die (im interessanten Bereich zwischen etwa f/4 bis f/22!) einen leicht anderen Verlauf hat, als eine andere Kurve aus einem anderen Modell, ist dabei, im Kontext dieses Denkmodells mit grober Daumenformel, vollkommen irrelevant. Wer das anders sieht, möge bitte mal aufzeigen, um wieviel meine Kurve im relevanten Wertebereich denn zwangsläufrig (aus mathematischen Gründen) von der angeblich richtigeren Kurve aus einem anderen Modell abweichen muss, und warum ein Nutzer aus der Zielgruppe meines Modells also einen solch großen Fehler macht, das er mein Modell praktisch nicht benutzen darf.


Und wer glaubt, mein Modell sei vollkommen unbrauchbar, weil es die Unstetigkeit der Quantisierungsfehler ignoriert, der mache bitte die selbe Übung: Um wieviel weicht mein Modell dadurch zwangsläufig (aus mathematischen Gründen) von "der Realität" ab und warum ist diese Abweichung für den Nutzer aus der Zielgruppe so wichtig, dass er mein Modell nicht benutzen darf.


Ich habe jedenfalls keine Lust mehr, mir hier von einem nach dem anderen vorhalten zu lassen, ich könne oder wolle etwas nicht verstehen und würde auf "Argumente" nicht eingehen, oder mich persönlich angreifen und beleidigen zu lassen. Und ich werde jeden Beitrag, der auch nur ansatzweise in diese Richtung geht, umgehend melden.


Was mein Modell leisten soll und was nicht, habe ich nun schon x Mal gesagt. Bisher habe ich kein Argument gelesen, das (z.B. im Sinne der beiden letzten Fragen) aufzeigen würde, dass mein Modell grundsätzlich nicht funktionieren kann. Dass ich viele Dinge nicht berücksichtige, habe ich auch x Mal gesagt. Wer meint, ich müsse sie aber unbedingt berücksichtigen, der soll bitte aufzeigen, warum diese so relevant sind, dass mein Modell für den ebenfalls x Mal genannten Zweck unbrauchbar wird. Auf andere Beiträge werde ich nicht mehr eingehen. Doch, über Beiträge wie die von nidschki und Thoma2008 freue ich mich und bedanke mich schon mal im voraus.






Gruß, Matthias
 
Man könnte sich auch auf das Thema der mit radialem Abstand zunehmenden Unschärfe sowie die Zusammenhänge der radialen bzw. tangentialen Distorsion zuwenden (auch wenn die tangentiale Verzeichnung bei hochwertigen Optiken auf Grund hoher Fertigungsqualität eher weniger das Thema sind) und die Unterschiede zwischen idealisierter optischen Betrachtung und den Ergebnissen realen Optiken (vorzüglicher Fertigung) widmen.

Nebenthema wäre, dass die Objektivachsen so gut wie nie dem tatsächlichen Hauptstrahl entsprechen und die Sensorebene (Bildebene) in Maßen von der senkrechten Lage zur optischen Achse abweichen und sich in der Zusammenschau all dieser Faktoren das reale Ergebnis manifestiert, ebenso ist die Betrachtung auf das Abbildungsvermögen der jeweiligen Referenzoptik zu erstrecken.
Weiters weicht in der Praxis die radiale optische Verzeichnung der Halbdiagonalen voneinander ab, was wieder stark von der Zentrierung der Linsen im System abhängt.

Erst die Zusammenschau der voranstehenden und hier z.T. angerissenen Themen ergibt eine brauchbare Aussage und das bisher diskutierte Thema ist nur ein Aspekt von für das reale Ergebnis mehreren relevanten Themen. Dazu kommen noch die physikalischen Eigenschaften der Bildwandler


abacus
 
Man könnte sich auch auf das Thema der mit radialem Abstand zunehmenden Unschärfe sowie die Zusammenhänge der radialen bzw. tangentialen Distorsion zuwenden [...]

Das könnte man ohne Frage. Es erklärt aber nicht im geringsten die "böse, böse Pixelunschärfe" im fertigen Bild, und um die geht es ja hier eigentlich.



Gruß, Matthias
 
Das könnte man ohne Frage. Es erklärt aber nicht im geringsten die "böse, böse Pixelunschärfe" im fertigen Bild, und um die geht es ja hier eigentlich.



Gruß, Matthias


Es geht da auch um das relevante Thema des Leistungsabfalls der realen Optiken mit zunehmenden Abstand vom Hauptstrahl Hs bzw. H (Bildhauptpunkt), das bleibt bei der bisher betriebenen idealisierten Betrachtungsweise schon mal außen vor.


abacus
 
[...] das bleibt bei der bisher betriebenen idealisierten Betrachtungsweise schon mal außen vor.

Ich nenne so etwas "Abbildungsfehler", und die habe ich deswegen außen vor gelassen, weil sie objektivspezifisch sind und es kein einfaches und allgemeingültiges Modell für deren Auflösungsminderung geht. Ganz im Gegensatz zur Beugung, und deshalb habe ich versucht, nur die mit der "Pixelunschärfe" zu verknüpfen. Und noch dazu kann man den Effekt der beiden in vielen vielen MTFxx-Kurven anschaulich sehen.


Gruß, Matthias
 
Wenn man dieses kleine Modell dann mathematisch darstellt, kommen Kurven dabei raus, wie ich sie ganz oben gezeigt habe. Diese Kurven sind vollkommen "unkalibriert", und sind deshalb etwas zu steil geraten, sie sagen einen zu hohen Auflösungsverlust voraus. Das kann ich durch Änderung der Parameter anpassen.
Ich schreibe es jetzt zum dritten Mal. Durch Änderung der Parameter (bzw. eigentlich nur des 2. Parameters, der erste legt das asymptotishce Verhalten für große Blendenöffnungen fest) lässt sich die Steilheit nicht beeinflussen, sondern nur durch ein anderes Modell. Im Gegensatz zu dir habe ich meine Behauptung auch schon zweimal begründet.

Wer das anders sieht, möge bitte mal aufzeigen, um wieviel meine Kurve im relevanten Wertebereich denn zwangsläufrig (aus mathematischen Gründen) von der angeblich richtigeren Kurve aus einem anderen Modell abweichen muss,
Sieh dir einfach nochmal das Bild in diesem post an. Ja, dieser Unterschied ist zwangsläufig. Die x-Achse stellt hier natürich keine Blendenzahlen dar, dazu müsste man ihn um ca. 2 Dekaden nach rechts schieben.

und warum ein Nutzer aus der Zielgruppe meines Modells also einen solch großen Fehler macht, das er mein Modell praktisch nicht benutzen darf.
Selbstverständlich kann jeder das Modell seiner Wahl benutzen. Wenn er damit für die Praxis die richtigen Schlüsse zieht, ist's gut, und sonst muss er halt ein besseres Modell suchen.

Von den qualitativen Aussagen her unterscheidet sich dein Ansatz nicht vom MTF-Modell, und ein überarbeitetes quantitatives Modell hast du ja noch nicht geliefert (Parameter und Schärfekriterium). Nur dann kann man wirklich beurteilen, welche Kurven der Realität näher kommen.

Burkhard.
 
Ich schreibe es jetzt zum dritten Mal. Durch Änderung der Parameter (bzw. eigentlich nur des 2. Parameters, der erste legt das asymptotishce Verhalten für große Blendenöffnungen fest) lässt sich die Steilheit nicht beeinflussen, sondern nur durch ein anderes Modell. Im Gegensatz zu dir habe ich meine Behauptung auch schon zweimal begründet.

Und wenn Du es noch 10x schreibst und begründest: Wie groß ist der Fehler bei üblichen Pixelgrößen zwischen f/4 und f/22? Und warum ist der so groß, dass sich das Denken in meinem Modell geradezu zwangsläufig verbietet, auch für das Ziel-Publikum der "Pixeldenker"?

Sieh dir einfach nochmal das Bild in diesem post an. Ja, dieser Unterschied ist zwangsläufig. Die x-Achse stellt hier natürich keine Blendenzahlen dar, dazu müsste man ihn um ca. 2 Dekaden nach rechts schieben.

Ich kann im Büro nur Text lesen, aber keine Bilder sehen. Aber auch hier nochmal die Frage: Wie groß wird die Abweichung im relevanten Wertebereich und warum darf ein "Pixeldenker" die nicht tolerieren?

Selbstverständlich kann jeder das Modell seiner Wahl benutzen. Wenn er damit für die Praxis die richtigen Schlüsse zieht, ist's gut, und sonst muss er halt ein besseres Modell suchen.

Eben, dafür ist's gemeint. Ich selber benutze es für mich übrigens nicht, wenn Du darauf hinauswillst. Aber ich möchte es benutzen, um "Pixeldenker" einen Schritt weiter zu bringen.

Von den qualitativen Aussagen her unterscheidet sich dein Ansatz nicht vom MTF-Modell, und ein überarbeitetes quantitatives Modell hast du ja noch nicht geliefert (Parameter und Schärfekriterium). Nur dann kann man wirklich beurteilen, welche Kurven der Realität näher kommen.

Und dieses MTF-Modell versteht mein "Pixeldenker" intuitiv? Ich fürchte nein. Im übrigen soll meine Kurve nicht "der Realität näher" kommen als eine andere. Dafür ist sie nicht gemeint. Aber das habe ich doch nun auch schon oft genug gesagt.


Gruß, Matthias
 
Und wenn Du es noch 10x schreibst und begründest: Wie groß ist der Fehler bei üblichen Pixelgrößen zwischen f/4 und f/22? Und warum ist der so groß, dass sich das Denken in meinem Modell geradezu zwangsläufig verbietet, auch für das Ziel-Publikum der "Pixeldenker"?
Schwer zu sagen, solange du deine Konstanten nicht veröffentlichst. Nach deinem ursprünglichen Modell hätte die D800 bei Blende 22 noch effektiv 5 MPx, nach meinem MTF50-basierten noch effektiv 12 MPx, siehe post 73. Ob das nun ein kleiner oder großer Unterschied ist, und welche praktischen Konsequenzen man ggf. aus dem einen oder anderen Wert ziehen würde, muss jeder für sich beurteilen.

Und dieses MTF-Modell versteht mein "Pixeldenker" intuitiv? Ich fürchte nein. Im übrigen soll meine Kurve nicht "der Realität näher" kommen als eine andere. Dafür ist sie nicht gemeint. Aber das habe ich doch nun auch schon oft genug gesagt.
Wenn ich das MTF-Modell entsprechend "verkaufen" wollte, würde ich eben den Radius des Beugungsscheibchens mit irgendweinem "passenden" Faktor versehen und zum Pixelabstand addieren und käme dann auf den Kurvenverlauf des MTF-Modells. Wäre aber nicht mein Stil.

L.G.

Burkhard.
 
Schwer zu sagen, solange du deine Konstanten nicht veröffentlichst.

Du hast mir bisher erzählt, meine Kurvenform sei grundsätzlich ungeeignet, das Phänomen überhaupt darzustellen. Ich habe nun schon x Mal gesagt, dass es gar keine exakten Zahlen ergeben können soll. Wenn es doch halbwegs glaubwürdige Zahlen liefern kann, ist's doch prima. Um bei f/22 von 5MP auf 12MP zu korrigieren, muss man an einem einzigen Parameter drehen, die Kurven hätten also gleiche Anfangs- und Endpunkte, aber dazwischen leicht unterschiedliche S-Formen. Wie groß ist der theoretisch nicht unterschreitbare Unterschied zwischen diesen beiden Modellen und warum und für wen sind die nicht tolerabel?

Wenn ich das MTF-Modell entsprechend "verkaufen" wollte, würde ich eben den Radius des Beugungsscheibchens mit irgendweinem "passenden" Faktor versehen und zum Pixelabstand addieren und käme dann auf den Kurvenverlauf des MTF-Modells. Wäre aber nicht mein Stil.

Das wäre also eine lieare Addition (gewichteter) Radien bzw. Durchmesser. Und das trifft die Wahrheit genauer?

Kennst Du eigentlich diesen Artikel? (hoffe der Link funktioniert). Der Mann ist auch so stillos, verschiedene Unschärfeanteile quadratisch (also flächenmäßig) zu addieren. Nicht alle, aber die meisten, darunter aber auch "Pixelunschärfe" und Beugung. Und die Idee ist auch nicht wirklich ganz neu. Die Kodak-Formel mit Exponent 2, die er zitiert, hat ja auch schon ein paar Jahre auf dem Buckel (einen direkten Link zu dieser Formel habe ich noch nicht gefunden, mit "Kodak formula" finde ich nur D76-Entwickler und solche Sachen). Und bei einer solchen Addition der Quadrate von Längen eine Fläche zu assoziieren, finde ich relativ naheliegend.


Gruß, Matthias
 
Du hast mir bisher erzählt, meine Kurvenform sei grundsätzlich ungeeignet, das Phänomen überhaupt darzustellen. Ich habe nun schon x Mal gesagt, dass es gar keine exakten Zahlen ergeben können soll. Wenn es doch halbwegs glaubwürdige Zahlen liefern kann, ist's doch prima. Um bei f/22 von 5MP auf 12MP zu korrigieren, muss man an einem einzigen Parameter drehen, die Kurven hätten also gleiche Anfangs- und Endpunkte, aber dazwischen leicht unterschiedliche S-Formen.
Ja, du kannst immer an dem Parameter drehen und für einen Blendenwert Übereinstimmung bekommen (vorausgesetzt, du willst auch, dass sich für Beugung -> 0 die nominelle Pixelanzahl des Sensors ergibt). Dann stimmen halt andere Werte nicht mehr mit dem MTF-Modell überein.


Das wäre also eine lieare Addition (gewichteter) Radien bzw. Durchmesser. Und das trifft die Wahrheit genauer?
Das ergibt – bei geeigneter Konstanten (die beim B in meiner Formel) – dasselbe Ergebnis wie das, was man über MTF-Kurven herausbekommt.

Aus dem präsentierten empirischen Material bei http://www.falklumo.com/lumolabs/articles/sharpness/ImageSharpness.pdf (Fig. 8 in Kap. 2.2) könnte ich nicht p=1 (Radius) oder p=2 (Fläche) herauslesen, da hätte ich mir Blendenwerte bis 16 oder 22 gewünscht.

L.G.

Burkhard.
 
... Die Kodak-Formel ...
Die "Kodak-Formel" ist nichts anderes als die Aussage, dass man den Kehrwert des Auflösungsvermögens eines Systems als Summe der Kehrwerte der einzelnen Auflösungswerte erhält. So ähnlich stand es auch in alten Filmdatenblättern von Kodak. Mein ältestes erhaltene Kodak Datenblatt stammt aus 1970. Dort wird z.B. zum TRI-X Umkehrfilm schon die Modulations-Übertragungskurve angegeben und es folgt der Satz
Diese Modulations-Übertragungserte können durch Multiplikation der Ordinaten von Kurven mit ähnlichen Werten für das verwendete optische System kombiniert werden, um daraus Daten für die resultierende Bildqualität zu erhalten.

Unten hänge ich noch ein Diagramm an, das Auflösungswerte für eine 6MPixel und eine 16 MPixel-Kamera zeigt. Die Modularübertragungsfunktion für das benutzte Apo-Rodagon-D 75 mm f/4 kann man hier finden.
 
Zuletzt bearbeitet:
Die "Kodak-Formel" ist nichts anderes als [...]

...eine empirische Näherungsformel für die Kombination verschiedener Unschärfeanteile. Die hat nicht zwangsläuifig den Exponenten 1 oder 2 oder so, sondern den, mit dem es am besten passt. Oft ist der aber offenbar in der Nähe von 2.



Gruß, Matthias
 
Ja, du kannst immer an dem Parameter drehen und für einen Blendenwert Übereinstimmung bekommen (vorausgesetzt, du willst auch, dass sich für Beugung -> 0 die nominelle Pixelanzahl des Sensors ergibt). Dann stimmen halt andere Werte nicht mehr mit dem MTF-Modell überein.

Und so habe ich dann also aus schierer Verlegenheit Stuessis Daten aus Beitrag #78 genommen und mal die beiden Kurvenmodelle reingelegt. Da mir das Einbinden von Grafiken hier am Netbook nicht gelingen will, hier also die Parameter:


  • Ein Linienpaar in Stuessis MTF50- und MTF15-Daten interpretiere ich als 2 Pixel, und daraus habe ich auf die effektive Pixelzahl des ganzen Sensors hochgerechnet.
  • Meine grobe Näherung aus Beitrag #3 habe ich angepasst, und benutze jetzt nur noch 1/2 der dort genannten Beugungsunschärfe (oder doppelte Pixelgröße, was auf's selbe rauskommt) (und bevor der nächste aus dem Busch hüpft: Ich weiß warum!)
  • Burkhards Näherung entnehme ich Beitrag #73 (mit der entscheidenden Aussage "durch (1 + Blende/6/Pixelabstand)^2 teilen"
Tja, und aus all dem schließe ich: Stuessis MTF50-Daten sind weit entfernt von beiden Näherungskurven. Die MTF15-Kurven hingegen treffen deutlich besser. Allerdings würde ich nicht entscheiden wollen, welche der beiden Näherung nun besser trifft. Aber darum geht es mir ja auch nicht.

Ich vermute, Burkhards Näherung wurde mit Blick auf den Auflösungsverlust wegen (starker) Beugung entwickelt und möglichst einfach (linear) gehalten. Meinem Modell traue ich zu, dass es das "globale Verhalten" etwas besser beschreibt: Wenig Effekt, solange Beugung deutlich kleiner als "1 effektiver Pixel" ist, im Übergang gleich starker Einfluss, darüber überwiegt Beugung. Aber es beschreibt den Abfall bei geschlossener Blende weniger genau, oder zumindest anders. Zu behaupten, eines der beiden Modelle sei "physikalisch falsch", ist allerdings kompletter Unfug. Beide sind "falsch".

Und jetzt habe ich auf diese Gewürge keine Lust mehr. Ich werde mir die Freiheit nehmen, einem interessierten Einsteiger die Zusammenwirkung verschiedener Unschärfeeinflüsse als "stell Dir vor, die Flächen würden sich addieren" nahezubringen, selbstverständlich wissend und erwähnend, dass das nur ein einfaches Denkmodell ist, und stelle mir vor und hoffe, dass er damit ein kleines bisschen mehr "des Prinzips" versteht. Muss er aber nicht.






Gruß, Matthias
 
Die "Kodak-Formel" ist nichts anderes als die Aussage, dass man den Kehrwert des Auflösungsvermögens eines Systems als Summe der Kehrwerte der einzelnen Auflösungswerte erhält.
Eben. :)
Und für Filmkorn passt das aufgrund dessen Heterogenität und statistischer Gleichverteilung auch wunderbar. Lässt man jetzt bei DSLRs die Feinheiten der Sampling-Faltung aufgrund der unnötigen Komplexität mal weg (wen's doch interessiert: periodische Fourier-Transformierte der Rechteckkurve & Co gibt es z.B. hier), kommt im Ergebnis das von burkhard2 geschriebene heraus. Ich denke, mit der Vorstellung, dass sich die Unschärfefläche aus dem Quadrat der Unschärfen in einer Dimension ergeben, sollte der durchschnittliche Leser durchaus problemlos zurecht kommen. Den Faktor p=2 scheint Falk Lumo im von Masi verlinkten Dokument auf S. 16 unter Bild 8 übrigens offensichtlich auch nur zu verwenden, weil es "turns out to be more reasonable" - zu deutsch: "vernünftiger aussieht". Naja.
Ich halte mich dann da doch lieber an Hr. Nauss von Zeiss, der auf S. 9 seines Dokuments ja selbst die Breite des Punktbildes mit etwa der Blendenzahl in µm gleichsetzt (was man von mir aus auch noch mit einem subjektiven Faktor belegen kann, wenn man möchte). Natürlich schränkt er das anschließend gleich auf die notwendige Multiplikation mit der MTF weiterer Komponenten - so auch des Sensors - ein, aber mal ehrlich: natürlich ist die MTF eines Sensors nicht unstetig, aber doch schon relativ nah an seiner Pixelauflösung dran.
Mit der Formel von burkhard2 bräuchte man dann nur noch einen von Tiefpassfilter, Mikrolinsen und Demosaicing abhängigen Korrekturfaktor und wäre schon relativ nah an dem, was "der Sensor" kann, dran.
Ohne Fourier-Reihen.
 
...

Mit der Formel von burkhard2 bräuchte man dann nur noch einen von Tiefpassfilter, Mikrolinsen und Demosaicing abhängigen Korrekturfaktor und wäre schon relativ nah an dem, was "der Sensor" kann, dran.
Ohne Fourier-Reihen.


Was ein Sensor technisch kann ist ohnedies physikalisch klargestellt (bzw. kann klargestellt werden), nicht jedoch wie sich Ergebnisse diverser Objektive dann in zunehmend zentrumsfernen Bereichen gestalten, denn es wird hier von den Qualitäten eines idealen Bildwandler ausgegangen ähnlich der Charakteristik von (Glas)Photoplatten, was nun mal nicht der Fall ist.

Deshalb gelten die Bemühungen hier mehr der rechnerischen Methodik denn der real verifizierbaren Ergebnisse. Ich gehen davon aus, dass "diverse Korrekturfaktoren" weitgehend ein rechnerisches Ergebnis obsolet machen.


abacus
 
Hier zeige ich mal keine MTF-Messungen, sondern das Bild, das auf dem Sensor der NEX-5N (16 MPixel) ankommt, wenn ich mein Testbild mit Siemenssternen mit dem 50mm/1,7 Objektiv aus 6m fotografiere. Dazu habe ich das Luftbild durch ein Mikroskop fotografiert.
Auf 23% verkleinertes Mikroskopbild (Blende 5,6) mit Auflösungswerten
 
Zuletzt bearbeitet:
Deshalb gelten die Bemühungen hier mehr der rechnerischen Methodik denn der real verifizierbaren Ergebnisse. Ich gehen davon aus, dass "diverse Korrekturfaktoren" weitgehend ein rechnerisches Ergebnis obsolet machen.

Und zum hundertsten Mal: Es geht nicht um die Korrektheit eines rechnerischen Ergebnisses!

Ich habe für mein Modell einen rein statistischen Ansatz gewählt. Das darf man tun. Und im Rahmen dessen, was ich anstrebe, schon sowieso. Ob da irgendwo nicht stetige Quantisierungsfehler hinzukommen, ist selbst bei genauerer Betrachtung vollkommen irrelevant. Und mein Ansatz führt zu dem Denkmodell "addiere Flächen".

Zu einer Addition von Radien oder Durchmessern, wie Burkhard sie als richtig darstellt, weil sie einem MTF-Modell entstammen, kommt man aber auch nur, wenn man gleich 3 Dinge linearisiert. Die MTF des Sensors mit AA-Filter und Bayer-Mosaik ist keineswegs linear, wird aber oft als linear angenommen, so auch in diesem MTF-Modell. Und die MTF aufgrund von Beugung an einer Kreisblende ist ebenfall nicht (gerade bei kleiner MTF), wird aber ebenfalls als linear angenommen. Und wenn man dann diese beiden linearisierten MTF-Kurven kombiniert, was etwa so aussieht:

MTF = (1-f/fnyq)*(1-f/fco)

f meint hier die Ortsfrequenz, fnyq ist die Nyquistfrequenz des Sensors (also 1/2/Pixelabstand), fco die Cutoff-Frequenz wie hier beschrieben)

..und dann nochmal linearisiert, nämlich den "quadratischen" Term f/fnyq*f/fco vernachlässigt, erst dann kommt man zu einer reiner Addition der Durchmesser. Ist das deshalb richtiger?

Falk Lumo findet in seinem Artikel den Exponenten 2 "reasonable". Und mehr soll er nicht sein! Ein ausreichend genaues empirisches Modell, weiter nichts. Dagegen "theoretische" Gründe vortragen zu wollen, geht in's leere. Die Kodak-Formel ist eine rein empirische Formel, die nicht aus irgendwelchen höheren Theorien abgeleitet wurde. Und sie hat auch überhaupt nichts mit Filmkorn zu tun und würde deshalb bei Pixeln grundsätzlich nicht funktionieren. Lächerlich. Dass Herr Nasse (und eigentlich jeder andere) den Durchmesser eines Beugungsscheibchens proportional zur Blendenzahl sieht, ist bekannt, wird sowohl in meinem als auch Burkhards (und sogar Falk Lumos) Modell so benutzt, hat aber schlicht und einfach nichts damit zu tun, wie Beugung und "Pixelunschärfe" kombiniert werden. Aber das kann man nachts um 3:00 ja schon mal als "Argument" hervorkramen, wenn einem sonst nichts einfällt.



Gruß, Matthias
 
Nun, die Linearisierungen sind auch von dir (vor burkhard2) angenommen worden und im Rahmen eines Modells absolut okay. Deine Frage, ob das dann "deshalb richtiger" ist, ist dann zu beantworten mit: ja - natürlich eher, als die Wahl eines Exponenten "nach Gefühl". Denn der systemische Fehler einer solchen Entscheidung ist deutlich höher.
Und dass Hr. Nasses Aussage nichts "mit Filmkorn zu tun" hat, sondern nur durch Filmkorn aufgrund dessen Struktur erfüllt wird, stand schon in meinem Post. Also dreh mir bitte nicht wieder die Worte im Munde rum.
Meine Arbeitszeiten gehen dich im Übrigen gar nichts an.
 
WERBUNG
Zurück
Oben Unten