• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die Böse, böse Pixelunschärfe: Fundamentaldebatte

Wenn man die MTF-Kurve des Sensors als Gerade ansieht [...]

Ich kann von hieraus mal wieder nicht bei Photozone reingucken, und das also auch nicht vergleichen. Aber mir fällt dazu als erstes ein, dass mit einer linearen MTF (ich vermute Du meinst von 1 bei Frequenz=0 linear runter auf 0 bei der Nyquistfrequenz?) die MTF50 nur bei der Hälfte der Nyquistfrequenz läge. Tatsächlich liegen die Photozone-Werte aber teilweise sehr nah an (oder sogar über) der Nyquistfrequenz. Offenbar werden geschärfte Bilder benutzt und die MTF50 nicht direkt, sondern indirekt über den Kantenabfall bestimmt. Und MTF10 kann dann nur noch ganz knapp über MTF50 liegen, ich habe aber MTF10 bei Photozone aber noch nie gesehen.

Nun kann man sich streiten, ob die Auswertung geschärfter Bilder sinnvoll ist, de facto werden Bilder aber geschärft, deshalb wäre eine Daumenformel auf dieser Grundlage zumindest "praxisrelevanter".

Für die Megapixel nimmt man das Quadrat dieses Faktors

...was Deine Formel meinem Ansatz sehr ähnlich machen würde. Du hast (1-x)², ich habe 1/(1+y²), was sich bei kleinen x nicht dramatisch unterscheidet (wobei ich im Momemt nicht überblicke, wie sich Dein x und mein y unterscheiden. In meinem steckt, glaube ich, die Pixelfläche drin, nicht der Pixelabstand). Klein ist Dein x aber mittlerweile nicht mehr wirklich. Bei der D800/D700 mit 5µm Pixelabstand und Blende f/8 ist x immerhin etwa 1/2 und bei f/16 dann schon 1 und damit Dein Faktor 0 (was nicht stimmen würde), aber auch bei x=1/2 stimmt diese Näherung...

oder wieder in erster Näherung:

1 - B·0,66 µm/p

...schon nicht mehr wirklich. Der größte Stolperstein ist hier aber, dass dieser Ausdruck schon bei Blende f/8 null würde. Die "effektive Pixelzahl" einer D800/D7000 oberhalb von Blende f/8 würdest Du damit also gar nicht abschätzen können. Bei deutlich größeren Pixeln und/oder offeneren Blenden mag die Näherung aber funktionieren.

Also als Faustformel für die Megapixel-Freunde:

Für MTF50:

Verlust an Megapixeln ≈ 2/3 x Megapixel x Blende / Pixleabstand

Was für D800/D7000-Freunde bedeuten würde, dass sie schon bei Blende f/8 effektiv alle Megapixel verlieren würden (ich gehe davon aus, dass da noch ein "µm" in die Formel gehört?).

Oder hat einer von uns beiden irgendwo eine Zehnerpotenz verloren?



Gruß, Matthias
 
Tatsächlich liegen die Photozone-Werte aber teilweise sehr nah an (oder sogar über) der Nyquistfrequenz.



Gruß, Matthias

Die Auflösung in L/LP kann sehr wohl oberhalb der Nyquist-Frequenz liegen, schließlich haben wir in der Diagonalen doppelte Pixelzahl auf 1,41-facher Strecke. Gemittelt mit den vertikalen oder horizontalen Strukturen sind wir also bei rund 20% drüber.

Bei der imho verbreitetsten Methode der MTF-Messung -nämlich der Flächenbestimmung im Siemensstern mit Kontrast unterhalb xy%- sieht man ja auch, daß diese Auflösungsfläche kein Kreis ist.

Gruß messi
 
Die Auflösung in L/LP kann sehr wohl oberhalb der Nyquist-Frequenz liegen, schließlich haben wir in der Diagonalen doppelte Pixelzahl auf 1,41-facher Strecke. Gemittelt mit den vertikalen oder horizontalen Strukturen sind wir also bei rund 20% drüber.

In einem ungeschärften Bild mit der dafür oben angenommenen linear abfallenden MTF hilft auch die Betrachtung entlang der Bilddiagonale nicht weiter, da käme man auch nur auf 0,7x (horizontale/vertikale) Nyquistfrequenz. Aber das ist auch gar nicht das Problem. Ich würde einfach die MTF50 von Photozone nehmen und mich nicht drum kümmern, ob die über oder unter Nyquistfrequenz liegen. Dann wäre mein k1<1, aber daran würde sich sowieso nur Wolfgang stören.



Gruß, Matthias
 
Ich kann von hieraus mal wieder nicht bei Photozone reingucken, und das also auch nicht vergleichen. Aber mir fällt dazu als erstes ein, dass mit einer linearen MTF (ich vermute Du meinst von 1 bei Frequenz=0 linear runter auf 0 bei der Nyquistfrequenz?) die MTF50 nur bei der Hälfte der Nyquistfrequenz läge.
Genauso ist es.

Tatsächlich liegen die Photozone-Werte aber teilweise sehr nah an (oder sogar über) der Nyquistfrequenz. Offenbar werden geschärfte Bilder benutzt und die MTF50 nicht direkt, sondern indirekt über den Kantenabfall bestimmt. Und MTF10 kann dann nur noch ganz knapp über MTF50 liegen, ich habe aber MTF10 bei Photozone aber noch nie gesehen.
Mir persönlich sind die Photozone-Werte sehr suspekt.

Nun kann man sich streiten, ob die Auswertung geschärfter Bilder sinnvoll ist, de facto werden Bilder aber geschärft, deshalb wäre eine Daumenformel auf dieser Grundlage zumindest "praxisrelevanter".
Ich denke, da kann man als groben Richtwert mit der MTF10-Version arbeiten, unterhalb von 10 % MTF hilft wohl auch Nachschärfen nicht mehr.

Der größte Stolperstein ist hier aber, dass dieser Ausdruck schon bei Blende f/8 null würde. Die "effektive Pixelzahl" einer D800/D7000 oberhalb von Blende f/8 würdest Du damit also gar nicht abschätzen können. Bei deutlich größeren Pixeln und/oder offeneren Blenden mag die Näherung aber funktionieren.
Erste Näherung geht halt nur bei geringen Verlusten, ansosnten braucht man mehr.

Die Auflösungsformel (bzw. effektive Bildbreite/Höhe) funktioniert eher noch.

Oder hat einer von uns beiden irgendwo eine Zehnerpotenz verloren?
Ja, irgendwo ist da noch der Wurm drin, ich kontrolliere das nochmal.

L.G.

Burkhard.
 
Mir persönlich sind die Photozone-Werte sehr suspekt.

Mir auch. Kennst Du denn eine bessere Quelle? Ich hatte jetzt bloß Photozone genannt, weil ich weiß, dass da gleiche Objektive an verschiedenen Kameras getestet wurden. Und weil die hier regelmäßig zitiert werden.

Ja, irgendwo ist da noch der Wurm drin, ich kontrolliere das nochmal.

Ich habe den Eindruck, ohne es nun im Detail nachvollzogen zu haben, dass Du zwei Linearisierungen nacheinander gemacht hast. Oder woher kommt der Faktor 0,33 in der ersten Formel? Der ist un 'nen Faktor 2 kleiner als meine Annahme (0,67µm*B) und um den Faktor 3 kleiner als Deine übliche Annahme (1µm*B). Irgendwie habe ich da Hr. Newton in Verdacht.



Gruß, Matthias
 
Mir auch. Kennst Du denn eine bessere Quelle? Ich hatte jetzt bloß Photozone genannt, weil ich weiß, dass da gleiche Objektive an verschiedenen Kameras getestet wurden. Und weil die hier regelmäßig zitiert werden.
Im direkten Vergleich finde ich PhotoZone auch sinnvoll – nur die MTF-Zahlen …

DxO hat auch jede Menge Objektivtests an verschieden Kameras – mit kompletten MTF-Kurven, die deutlich realistischer aussehen. Ohne das jetzt nachgesehen zu haben, nehme ich mal an, dass DxO direkt im Raw misst – damit sie die Ergebnisse für ihren Konverter nutzen können.

Ich habe den Eindruck, ohne es nun im Detail nachvollzogen zu haben, dass Du zwei Linearisierungen nacheinander gemacht hast.
Jein, das Ergebnis mit zwei einzelnen Linearisierungen ist dasselbe.
1/(1+x) ≈ 1-x, und (1/(1+x))^2 ≈ 1-2x.

Oder woher kommt der Faktor 0,33 in der ersten Formel? Der ist un 'nen Faktor 2 kleiner als meine Annahme (0,67µm*B) und um den Faktor 3 kleiner als Deine übliche Annahme (1µm*B).
Die Formeln sind inzwischen korrigiert, irgendwo hatte ich einen Faktor 1-q "verloren", dadurch haben sich die Konstanten für MTF50 halbiert. Gute Nachricht für D800/D7000-Besitzer: bei Blende 8 sinkt die MTF50-Auflösung nur um 25 % bzw. die effektive MTF50-Pixelzahl auf die Hälfte. Wenn man genau rechnet, sind es ca. 20 % bzw. 40 %.

Der Faktor hat direkt nichts mit dem Beugungsscheibendurchmesser zu tun, sondern ist der Faktor q · 1mm/(1500·2·p), die 1500 sind 1500 lp/mm, die Grenzfrequenz der MTF-Funktion bei Blende 1.

L.G.

Burkhard.
 
In einem ungeschärften Bild mit der dafür oben angenommenen linear abfallenden MTF hilft auch die Betrachtung entlang der Bilddiagonale nicht weiter, da käme man auch nur auf 0,7x (horizontale/vertikale) Nyquistfrequenz. Aber das ist auch gar nicht das Problem. Ich würde einfach die MTF50 von Photozone nehmen und mich nicht drum kümmern, ob die über oder unter Nyquistfrequenz liegen. Dann wäre mein k1<1.

Der Verlauf der MTF des Sensors ohne AA-Filter bei 100%-Gapless-Design:
https://www.dslr-forum.de/showpost.php?p=9942058&postcount=11
 
Der Verlauf der MTF des Sensors ohne AA-Filter bei 100%-Gapless-Design:

Weiß ich, die sinc-Funktion, habe ich mir selber mal hergeleitet. Hab mir aber die Mühe gemacht, mit symmetrischer und asymmetrischer Betrahlung des Pixels zu rechnen und dann zu mitteln. Und wenn man die einfach als gerade zwischen (0;1) und (1;0) approximiert, wie groß ist der Fehler?


Gruß, Matthias
 
Auf Grund des Zentralen Grenzwertsatzes der Statistik ist ein guter Ansatz:
  • Alle Unschärfen sammeln.
  • Die einzelnen Unschärfen werden als Standardabweichung (z.B. in Mikrometer) erfaßt. Die Gesamt-Standardabweichung ergibt sich zu:
    • Sigma_gesamt² = Sigma_1² + Sigma_2² + Sigma_3² + ...
Die zweite Potenz kommt kommt aus der Standardabweichung, nicht daraus, das Pixel eine Fläche haben! Für den 2D-Fall interessiert das aber den Praktiker nicht.

Die Dämpfung des Signals ist dann exp(-0.5 * (omega*sigma)²)

Erhält man z.B. für Sigma_gesamt = 10 µm, dann ist

  • eine (Kreis-)Ortsfrequenz von 50 mm-1 um auf 88% der Amplitude abgefallen,
  • eine (Kreis-)Ortsfrequenz von 100 mm-1 um auf 60% der Amplitude abgefallen,
  • eine (Kreis-)Ortsfrequenz von 150 mm-1 um auf 32% der Amplitude abgefallen,
  • eine (Kreis-)Ortsfrequenz von 200 mm-1 um auf 13% der Amplitude abgefallen,
  • eine (Kreis-)Ortsfrequenz von 250 mm-1 um auf 4% der Amplitude abgefallen,
  • eine (Kreis-)Ortsfrequenz von 300 mm-1 um auf 1% der Amplitude abgefallen.
  • eine (Kreis-)Ortsfrequenz von 350 mm-1 um auf 0,2% der Amplitude abgefallen.
So in dieser Ecke bewegt sich der Abfall, wenn sich genügend unabhängige Unschärfen mischen.
 
DxO hat auch jede Menge Objektivtests an verschieden Kameras – mit kompletten MTF-Kurven, die deutlich realistischer aussehen.

Die werde ich mir angucken.

Ohne das jetzt nachgesehen zu haben, nehme ich mal an, dass DxO direkt im Raw misst – damit sie die Ergebnisse für ihren Konverter nutzen können.

Ja, die messen meines Wissens in Raw. Aber wie realistisch ist so ein Ergebnis dann für "Otto Normalfotograf"? Der schärft doch seine Bilder. Oder meinst Du, man sollte dann gleich MTF10 oder so benutzen?

Also als Faustformel für die Megapixel-Freunde:

Für MTF50:

Verlust an Megapixeln ≈ Megapixel x Blende / Pixleabstand in µm / 3

Tja, jetzt hat der D800-Freund dann eben bei f/16 alle Megapixel verloren, während der D700-Freund nur etwa 60% verliert, also noch etwa 5MP übrigbehält. Und genau das wäre ein Ergebnis, was zu vieler Leute Trugschluss passt. Die D800 behält auch bei f/16 eine höhere Auflösung als die D700! Und um genau diesem Trugschluss einfacher widersprechen zu können, will ich mein kleines Rechenmodell entwickeln.



Gruß, Matthias
 
Die zweite Potenz kommt kommt aus der Standardabweichung, nicht daraus, das Pixel eine Fläche haben! Für den 2D-Fall interessiert das aber den Praktiker nicht.

Da der Praktiker "Otto Normalfotograf" sich unter einer Fläche wenigstens überhaupt etwas vorstellen kann, unter einer Standardabweichung aber aus Prinzip nicht, rede ich von Flächen. Dass ich es auf statistische Ansätze zurückführe, kannst Du auch irgendwo nachlesen, das will ich jetzt nicht auch noch verlinken.


Gruß, Matthias
 
Aber wie realistisch ist so ein Ergebnis dann für "Otto Normalfotograf"? Der schärft doch seine Bilder. Oder meinst Du, man sollte dann gleich MTF10 oder so benutzen?
Ich finde es wichtig, was für ein Input vor dem Schärfen da ist. Je weniger man nachschärfen muss, desto weniger Probleme mit Rauschen, Halos, … insofern ist es schon interessant, was aufnahmeseitig so verloren geht.


Tja, jetzt hat der D800-Freund dann eben bei f/16 alle Megapixel verloren, während der D700-Freund nur etwa 60% verliert, also noch etwa 5MP übrig behält.
Ja, da ist man mit der ersten Näherung definitiv am Ende. Dann muss man eben die ganze Formel nehmen und die Megapixel halt durch (1 + Blende/6/Pixelabstand)^2 teilen … ist jedenfalls auch nicht schwieriger als die Flächenaddition.

Dann bleiben dem D800-Besitzer bei Blende 16 noch 15 MPx bei MTF50.


Und genau das wäre ein Ergebnis, was zu vieler Leute Trugschluss passt. Die D800 behält auch bei f/16 eine höhere Auflösung als die D700! Und um genau diesem Trugschluss einfacher widersprechen zu können, will ich mein kleines Rechenmodell entwickeln.
Dein bisheriges Rechenmodell sagt allerdings auch, dass die D700 bei Blende 4 mehr bietet als die D800 bei Blende 16.

Ich hänge mal zum Vergleich eine Grafik an, jeweils für 12 MPx und 36 MPx die äquivalenten Sensorgrößen für MTF10 und MTF50 und zum Vergleich die Kurven, die man aus der Flächen-/Varianzabschätzung bekommt. Den Unterschied der beiden Herangehensweisen sieht man, glaube ich, deutlich – die Flächenberechnung sagt einen wesentlich stärkeren Schärfeabfall für große Blendenwerte voraus als die MTF-basierte Methode.
Anhang anzeigen 2298152
Sorry, die Beschriftung der x-Achse ist nicht so toll, in der ersten Dekade sind es Einerschritte, in der zweiten Zehnerschritte.

L.G.

Burkhard.



Gruß, Matthias[/QUOTE]
 
Ja, da ist man mit der ersten Näherung definitiv am Ende. Dann muss man eben die ganze Formel nehmen und die Megapixel halt durch (1 + Blende/6/Pixelabstand)^2 teilen … ist jedenfalls auch nicht schwieriger als die Flächenaddition.

Das ist vielleicht nicht schwieriger, aber viel weniger anschaulich.

Dein bisheriges Rechenmodell sagt allerdings auch, dass die D700 bei Blende 4 mehr bietet als die D800 bei Blende 16.

Na ja gut, da muss dann noch ein bisschen an den Parametern gedreht werden.

Ich hänge mal zum Vergleich eine Grafik an, jeweils für 12 MPx und 36 MPx die äquivalenten Sensorgrößen für MTF10 und MTF50 und zum Vergleich die Kurven, die man aus der Flächen-/Varianzabschätzung bekommt. Den Unterschied der beiden Herangehensweisen sieht man, glaube ich, deutlich – die Flächenberechnung sagt einen wesentlich stärkeren Schärfeabfall für große Blendenwerte voraus als die MTF-basierte Methode.

Auch da: Der grundsätzliche Kurvenverlauf ist ja nicht falsch. Die Steilheit kann man einfach durch ein anderes Verhältnis aus Beugung und Pixelgröße angleichen. Ob das dann über verschiedene Pixeldichten hinweg konsistente Werte ergibt, weiß ich natürlich auch noch nicht.

Wie auch immer: Wenn ein so einfaches und anschauliches kleines Denkmodell mit ein bisschen Feintuning zu realistischen Ergebnissen führt, finde ich das charmant und viel leichter "an den Mann" zu bringen. Und dafür soll es sein.



Gruß, Matthias
 
Auch da: Der grundsätzliche Kurvenverlauf ist ja nicht falsch. Die Steilheit kann man einfach durch ein anderes Verhältnis aus Beugung und Pixelgröße angleichen.
Nein. Ein anderes Verhältnis von Beugung und Pixelgröße verschiebt die Kurve nur in Richtung der x-Achse (bei logarithmischer Skala für die Blendenzahlen).

Wie auch immer: Wenn ein so einfaches und anschauliches kleines Denkmodell mit ein bisschen Feintuning zu realistischen Ergebnissen führt, finde ich das charmant und viel leichter "an den Mann" zu bringen. Und dafür soll es sein.
Tja, so einfach ist es halt nicht. Du kannst ein bestimmtes Kriterium festlegen und dann über dieses Kriterium eine "äquivalente Megapixelzahl" berechnen, aber bei einem anderen Kriterium kommt etwas ganz anderes heraus.

Du kennst doch sicher diesen Artikel des hier gern zitierten Herrn Nasse. Meine Schlussfolgerung daraus ist jedenfalls, dass letztlich ein 24 MPx-Sensor einem 12 MPx-Sensor im gleichen Format in der Praxis immer überlegen ist, wenn man nachträglich passend schärft (und nicht den Fehler macht, die Bilder in 100 %-Ansicht zu vergleichen).

L.G.

Burkhard.
 
Nein. Ein anderes Verhältnis von Beugung und Pixelgröße verschiebt die Kurve nur in Richtung der x-Achse (bei logarithmischer Skala für die Blendenzahlen).

Streng mathematisch: Nein, denn ich habe eine Funktion 1/(x²+1), nur deshalb macht die doch den leichten S-Schlag. Diesen S-Schlag werden Deine Kurven auch machen, nur weiter rechts. Und wenn wir uns einen unendlich großen Sensor denken, würden alle 3 asymptotisch gegen 0 laufen (dann natürlich in "effektive Pixel pro Flächenelement). Bei einem endlichen Sensor enden die Kurven spätestens bei "2 effektive Pixel" oder so.

Und mit dem Ansatz "Daumenformel" im Hinterkopf: Macht doch nichts! Lass doch die Kurven bei f/128 auseinanderlaufen, das ist fotografisch nicht relevant (zumindest bei Kleinbild-ähnlichen Formaten).


Tja, so einfach ist es halt nicht. Du kannst ein bestimmtes Kriterium festlegen und dann über dieses Kriterium eine "äquivalente Megapixelzahl" berechnen, aber bei einem anderen Kriterium kommt etwas ganz anderes heraus.

Na klar, aber es soll eben eine Daumenformel mit einem ganz einfachen Denkmodell dahinter sein. Wenn heute immer noch genügend Leute in dem Einzahlwert "Auflösung" denken und dann bspw. meinen, ein mittelprächtiges Objektiv würde an einer D800 schlechtere Bilder abliefern als eine D700, weil das Objektiv deren "Auflösung nicht bedient", dann kommen die mit meinem kleinen Denkmodell vielleicht ein paar Schritte weiter.

Ich stelle mir da eine "Lehrsituation" fast so vor: Ich lege 20¢ auf den Tisch und sage "Stell Dir vor, das wäre ein Pixel. Und das ganze Bild wäre aus hellen und dunklen 20¢-Münzen aufgebaut." Aus genügend großer Entfernung siehst Du ein Bild, aus der Nähe siehst Du Münzen. Aber schärfer als so kann Dein Bild nicht werden. Und jetzt benutzst Du ein reales Objektiv mit Abbildungsfehlern, Du verwackelst, Du hast Beugung usw. Jeder dieser Anteile sei auch ein kleiner Kreis, einige nur stecknadelkopfgroß, andere wie 1¢, 5¢, 20¢, 2€ oder wie ein Bierdeckel. Aber die legt man eben nicht alle aufeinander und der größte bestimmt die Unschärfe (das wäre das Modell "schwächste Glied der Kette"). Man legt die auch nicht nebeneinander und malt dann einen großen Kreis drum. Sondern man addiert die Flächen! Stecknadelkopf-Unschärfen machen aus meinem 20¢-Pixel einen eine Winzigkeit größeren Fleck. 20¢-Unschärfe erzeugt einen Fleck mit 40% größerem Durchmesser. Und Bierdeckel-Unschärfe führt zu "Bierdeckel plus ein bisschen" und verdeckt natürlich benachbarte Pixel. Und dadurch sinkt die effektive Auflösung des Sensors. Um das Bild trotzdem scharf zu sehen, muss man immer weiter weggehen. Das wäre quasi die D700.

Und jetzt lege ich 1¢ auf den Tisch, nenne es D800 und mach das Gedankenspiel nochmal mit gleich großen Unschärfeanteilen wie eben. Ich finde das einfach, anschaulich, nachvollziehbar, selbst wenn es nicht alle Effekte darstellen kann. Soll es ja auch gar nicht. Man muss dann bloß noch die Größen der Unschärfeanteile "kalibrieren".

Du kennst doch sicher diesen Artikel des hier gern zitierten Herrn Nasse. Meine Schlussfolgerung daraus ist jedenfalls, dass letztlich ein 24 MPx-Sensor einem 12 MPx-Sensor im gleichen Format in der Praxis immer überlegen ist, wenn man nachträglich passend schärft (und nicht den Fehler macht, die Bilder in 100 %-Ansicht zu vergleichen).

Genau darum geht es mir ja am Ende! Und ich möchte ein Denkmodell aufzeigen, mit dem man sich diese Tatsache anschaulich machen kann. Mehr nicht. Das soll es nicht für Dich, mich oder Hr. Nasse erklären, wir wissen es ja noch ein bisschen besser. Aber ein paar anderen hilft es vielleicht.



Gruß, Matthias
 
Streng mathematisch: Nein, denn ich habe eine Funktion 1/(x²+1), nur deshalb macht die doch den leichten S-Schlag. Diesen S-Schlag werden Deine Kurven auch machen, nur weiter rechts.
Nein, im logarithmischen Maßstab bestimmt die Konstante k bei 1/(1 + (k x)²) bzw. 1/(1+kx)² jeweils die Verschiebung in x-Richtung. (Bei einer linearen x-Achse hättest du jeweils eine Stauchung um den Faktor k in x-Richtung, sollte aus der Mittelstufe bekannt sein. Beim log. Maßstab entspricht das einer Verschiebung in x-Richtung, bei der der x-Wert k auf die 1 verschoben wird). Mit deinen Annahmen kommst du also nie auf den MTF-Kurvenverlauf, es handelt sich nicht um ein Kalibrierungsproblem. Soweit die Mathematik.

Kann natürlich trotzdem sein, dass du ein passendes Testkriterium findest, bei dem dein Kurvenverlauf empirisch der richtige ist.

Jedenfalls halte ich nichts davon, Leuten ein Denkmodell ("Flächenaddition") zu verkaufen, das m. E. weder intuitiv ist (wieso sollten zwei gleich große Kreise genauso unscharf sein wie ein Kreis der doppelten Fläche) noch quantitativ eine brauchbare Abschätzung liefert.

Gegenvorschlag: gleich große (Unschärfe-)Kreise auf unterschiedlich grobes Karomuster ("Sensor") zeichnen und überdeckte Pixel anmalen. (Entscheidend ist es, unterschiedlich grobe Karomuster zu nehmen, dann löst sich das Problem des Betrachtungsabstands "von selbst". Und natürlich nicht nur Kreise zu betrachten, deren Zentrum in der Pixelmitte liegt.) Vorteil: näher an der Realität, quantitative Schlüsse auf der Basis dieses Modells schwierig (vermutl. jenseits der mathematischen Möglichkeiten der Zuschauer – wer das hinbekommt, kann auch die Artikel von Herrn Nasse lesen).

L.G.

Burkhard.
 
Heute habe ich mal einen Vergleich mit zwei meiner APS-C Kameras angestellt, einer Dynax 7D (6 MPixel) und einer Alpha 700 (12 MPixel).
dasselbe 50mm-Objektiv, gleiche Blitzbeleuchtung, Stativ
Auswertung der ungeschärften Bilder meiner Testvorlage (Bild 1) mit QuickMTF: (Mittelwerte der Stellen 4-7)
Die Ergebnisse habe ich in der Tabelle zusammengefasst.
 
Zuletzt bearbeitet:
sollte aus der Mittelstufe bekannt sein.

Ich hab nur Hilfsschule. :cool:

Jedenfalls halte ich nichts davon, Leuten ein Denkmodell ("Flächenaddition") zu verkaufen, das m. E. weder intuitiv ist (wieso sollten zwei gleich große Kreise genauso unscharf sein wie ein Kreis der doppelten Fläche) noch quantitativ eine brauchbare Abschätzung liefert.

Ich finde es intuitiv. Und dass es quantitiv keine brauchbare Abschätzung liefert, hast Du bisher nicht gezeigt. Aber wenn es Dir nicht passt, dann mach was besseres.



Gruß, Matthias
 
WERBUNG
Zurück
Oben Unten