• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hyperfokale Distanz vs. Fokus auf unendlich

AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Natürlich ist sie das – unter anderem schon deshalb, weil man die Auflösung eines Objektives gar nicht in Form eines einzelnen Lp/mm-Wertes charakterisieren kann.

Natürlich kann man das, sieh MTF-Charts. Die Auflösung hängt immer mit dem Kontrast zusammen.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Großartig, wie du dir in einem einzigen Satz selber widersprichst :top:

verstehe ich nicht. Man kann ganz einfach über das das gesamte Bildfeld, Sagittal und Tangential den Kontrast in Abhängigkeit der Auflösung nach beliebigen lp/mm-werten angeben.
 
Verstehe ich nicht. Man kann ganz einfach über das das gesamte Bildfeld, sagittal und tangential den Kontrast in Abhängigkeit der Auflösung nach beliebigen Lp/mm-Werten angeben.
Du hast jetzt schon keine Ahnung mehr, auf welche Aussage du vor etwa 90 Minuten geantwortet hattest, oder? Du hattest sie sogar zitiert ... aber offensichtlich nicht verstanden.

Man benutzt MTF-Diagramme, weil man die Auflösungsgrenze eines Objektives in Gegensatz zu der eines Sensors eben nicht in in Form eines einzigen Lp/mm-Wertes angeben kann.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Ich kann nicht damit umgehen!? :lol:
Was Du alles kannst.
Will ein Brötchen dem Bäcker erklären, wie ein Backofen funktioniert ...
So machen wir's
Richtig. Und wo genau liegt jetzt dein Problem?
Und dazu stellen wir uns ganz dumm und sagen so:
1. Das analoge Bild eines Objektivs habe eine Helligkeitsverteilung (oder Helligkeitsdichte)
h(x) = sin(x)
2. Ein Sensor gibt entsprechend seiner Pixel diese Funktion als Stufenfunktion wieder. Die Helligkeit eines Pixels H ergibt sich als Integral über das Pixel (Grenzen a,b):
H = int von a bis b ( h(x) ) dx.
Zum Vergleich mit 1 dividiere ich H durch die Pixelgröße (b-a), um eine auch mit anderen Pixelbreiten vergleichbare Helligkeitsdichte zu bekommen.
3. Die Amplitude des Pixelbildes berechnet sich aus den Maxima der Helligkeitswerte H. Ich erwarte sie für a<90°<b. Der Einfachheit halber setze ich b=90°. (Man kann es auch in die Mitte setzen, dies sei Übung für den Leser).

4.1 Die Grenzauflösung des Oblektivs habe eine Wellenlänge von 100Pixeln (aus der gewesenen Diskussion). Die Pixelbreite b-a ist somit 360°/100=3,6°. Das unbestimmte Integral von sin(x) ist gleich cos(x) (Vorzeichen unwichtig).

4.2 Die Helligkeitsdichte nach 2 ist somit:
H = cos(90)-Cos(86,4) = 0,06279052;
(b-a) = 3,6°*2*pi/360° = 0,062831853;
Der Quotient ist 0.9993.

Der relative Fehler zur Amplitude des analogen Objektivbildes durch Abtasten des Objektivbildes beträgt daher etwa 1.e-4.

Fazit: Das Abtasten des Objektivbildes mit einem derart hoch auflösenden Sensor hat keinen nachweisbaren Einfluss auf ein experimentell gewonnenes MTF Bild aus Objektiv+Sensor. Daraus folgt unmittelbar, dass die Erhöhung der Sensorauflösung auf 101 Pixel/Wellenlänge ebenso unerheblich ist auf das experimentell gefundene MTF Bild.

Ich wünsche bar viel Vergnügen beim Weitervertrieb Deines Wissens und Deiner Formeln.
 
Und dazu stellen wir uns ganz dumm und sagen so: [...]
Grad gestern abend hat mich diese Diskussion hier auf folgenden Gedanken gebracht:

Menschen mit mathematisch-naturwissenschaftlichem Verständnis können Abstraktionen verstehen – für sie ist eine Abstraktion wie das Wegziehen eines Vorhanges, der den Blick auf das große Ganze verschleiert. Nimm Details weg, und die Einsicht wächst. Natürlich muß man hierfür unterscheiden können, was Detail und was Kern ist.

Menschen ohne mathematisch-naturwissenschaftliches Verständnis können mit Abstraktionen nichts anfangen – sie haben das Gefühl, wenn man Details beiseite läßt, dann könne die Einsicht doch nur geringer werden, nicht größer. Sie haben überhaupt kein Gefühl dafür, was wichtig und was unwichtig ist. Deswegen kommen Diskussionen z. B. über digitales Rauschen oder auch über Lichtstärke von Objektiven immer so schnell auf das einzelne Photon. Oder eben, wie hier, auf das Integral der Sinus-Funktion vom linken zum rechten Rande eines einzelnen Pixels.

Wir diskutieren hier aber nicht die Helligkeit eines einzelnen Pixels, sondern Auflösungen von Bildern, die von auflösungsbegrenzten Objektiven und auflösungsbegrenzten Sensoren erzeugt werden. Du guckst in die völlig falsche Richtung, und das auch noch mit dem Mikroskop statt mit dem Fernglas.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Der relative Fehler zur Amplitude des analogen
Objektivbildes durch Abtasten des Objektivbildes beträgt daher etwa 1.e-4.
Genau. Im Prinzip kann man auf diese Weise die MTF eines Sensors (ohne AA-Filter in horizontaler oder vertikaler Richtung) berechnen. Kleines Detail: die Amplitude verringert sich um den doppelten Betrag, weil sich entsprechend auch der Schwarzwert erhöht – dafür schwankt die Kurve aber nur zwischen 0 und 1, was den Fehler wieder halbiert. Im Endeffekt müsste deine Zahl also wieder stimmen.

Fazit: Das Abtasten des Objektivbildes mit einem derart hoch auflösenden Sensor hat keinen nachweisbaren Einfluss auf ein experimentell gewonnenes MTF Bild aus Objektiv+Sensor. Daraus folgt unmittelbar, dass die Erhöhung der Sensorauflösung auf 101/Wellenlänge ebenso unerheblich ist auf das experimentell gefundene MTF Bild.
Klar, unerheblich – aber das heißt noch nicht, dass sich die MTF-Auflösung dadurch nicht ändert. Wenn das Objektiv bei 100E z. B. noch 50 % Kontrast liefert, sind's bei Objektiv + Sensor dann eben 49,995 Prozent, und damit ist die Gesamtauflösung ist geringer (um wieviel, das hängt davon ab, bei welcher Wellenlänge das Objektiv 50,005 % Kontrast liefert – typischerweise sollte sie aber eher bei 100,01E liegen). Aber egal – selbst bei einem Auflösungsverlust von 100E auf 101E wüsste ich, dass ich den in der Praxis getrost vergessen kann – insofern sehe ich jetzt nicht, dass Theorie und Praxis bei diesem Beispiel wesentlich auseinander liegen.

L.G.

Burkhard.
 
Ich glaube nicht, dass man hier mit dem Streit, wie der Einfluss normaler optischer Elemente zusammenzufassen ist viel weiter kommt. Die Situation ist doch folgende, es gibt 2 Modelle*:


1. Modell: Wenn der Zerstreuungskreis klein genug ist (hier gleiche Fläche wie ein RGB-Pixel), "schluckt" die Diskretisierung die Unschärfe. Daraus würde folgen, dass am Rand der berechneten Schärfentiefe kein Schärfeunterschied zur Mitte der Schärfentiefe zu sehen sein sollte.

Wie man an den Bildern - die ich gepostet habe - sieht, stimmt das bei genauer Beachtung nicht ganz.


2. Modell: Man kann die Auswirkungen der Diskreditierung (vor allem die der Bayerinterpolation - mit viel Rechen-Voodoo) genau so behandeln wie den Durchgang durch ein optisches Element und darum die Auswirkung einfach "dazurechnen" als wäre sie von einer weiteren Linse.

Daraus würde folgen, das von der Fokusebene die Unschärfe sofort kontinuierlich ansteigen müsste.

Wie man einfach überprüfen kann, stimmt das auch nicht so richtig. Das Beispielbild was ich vom Rand der Schärfentiefe gepostet habe ist z.B. deutlich zu scharf, als das dieses Modell so stimmen könnte. Da die Fläche von Pixel und Zerstreuungskreis hier gleich groß sind, sollte sich eine Unschärfe ausbilden, die jeweils 2 Nachbarixel deutlich miteinander verschmiert.


Ich habe hier das erste Modell verwendet, weil es für die Praxis vorteilhaftere Ergebnisse liefert (darum wird es ja auch anderswo in der Literatur erwähnt). Das zweite Modell ist sicher angemessener. Vermutlich nimmt die Unschärfe tatsächlich direkt ab der Fokusebene zu, aber eben nicht einfach linear oder quadratisch. Darum kann dieser letzte Schritt in der Kette wohl auch nicht wie eine weitere Linse behandelt werden und liefert somit auch keine wirklich guten Ergebnisse.

Das ist möglicherweise auf die Bayerinterpolation zurück zu führen, die ja z.B. gerne eine 5x5 Matrix als Einflussgebiet für die Berechnung eines Pixelwertes verwendet.


* Der Satz des Pythagoras ist ein (beweisbarer) mathematischer Satz und damit etwas ganz anderes als die Modelle die hier verwendet werden.
 
Das Beispielbild was ich vom Rand der Schärfentiefe gepostet habe ist z.B. deutlich zu scharf, als das dieses Modell so stimmen könnte.
Welches Modell meinst du denn genau? Ich würde gerne zwischen dem MTF-Modell und der angeblich darauf basierenden "Auflösungsformel" deutlich unterschieden.

Das zweite Modell ist sicher angemessener. Vermutlich nimmt die Unschärfe tatsächlich direkt ab der Fokusebene zu, aber eben nicht einfach linear oder quadratisch.
Da stimme ich dir voll zu – aber das hat m.E. mehr damit zu tun, was vor dem Sensor passiert. Bei dem gängigen Schärfentiefemodell legt man ja ein ideales Objektiv und geometrische Optik zugrunde – dann kommt man bei einer Linienfrequenz von 1Lp/Streukreisdurchmesser auf einen Kontrastabfall von 80 % (beim Streukreisdurchmesser von 2 Pixelbreiten wäre das die Nyquist-Frequenz), bei 0,5 Lp/Streukreisdurchmesser auf knapp 30 % und bei 0,25 Lp/Streukreisdurchmesser auf knapp 10 %. Und ein Kontrastabfall von 50 % bei hohen Frequenzen fällt nur im direkten Vergleich wirklich auf – das beträfe dann Details, die nur einzelne Pixel groß sind. Wenn man unbedingt will, kann man das in MTF50-Werte umrechnen, dann entspräche das der Abnahme von 0,7·Nyquist-Frequenz (angenommen für Sensor mit AA-Filter) auf 0,5·Nyquist-Frequenz (der MTF50-Wert des defocussierten Objektivs wäre ebenfalls 0,7·Nyquist-Frequenz).

Bei einem realen Objektiv oder bei der Berücksichtigung der Beugung geht der Streukreisdurchmesser nie auf 0, wächst aber dafür außerhalb des Fokuspunktes i.d.R. langsamer an – dadurch ist ggf. der Defocus-Verlust weniger sichtbar. Bei dem bekannten Zeiss-Artikel zu MTF-Kurven findet man ab S. 24 einige Beispiele zum Thema "Kontrastverlust bei Defocus-Unschärfe".

Bei den Beispielbildern am Anfang des Threads ist schon der Durchmesser der Beugungsscheibchen (bis zum 1. Minimum) bei etwa 2 Pixelbreiten. Insofern finde ich es nicht so überraschend, dass da, wo die theoretische Defocus-Unschärfe auf 2 Pixelbreiten angewachsen wäre, die tatsächliche Defocus-Unschärfe des Objektivs nicht viel zugenommen hat. (Der Sensor spielt da noch gar keine Rolle!)

Ein gutes Modell, das die Defocusunschärfe eines idealen Objektivs unter Berücksichtigung der Beugung darstellt, kenne ich leider nicht (würde mich aber sehr interessieren!), so dass ich nicht mal theoretisch den Auflösungsverlust des Objektivs mit Berücksichtigung der Beugung (aber ohne Sensor) beschreiben kann.

Da die Fläche von Pixel und Zerstreuungskreis hier gleich groß sind, sollte sich eine Unschärfe ausbilden, die jeweils 2 Nachbarixel deutlich miteinander verschmiert.
Wenn du die obige Überlegung nun auf die Pixel überträgst, sind die Pixel bereits am Focuspunkt miteinander verschmiert – es ergibt sich also nur ein gradueller Unterschied (bzw. ein entsprechend geringerer Kontrast). Hinzu kommt der Antialiasing-Filter (sofern vorhanden), dessen einzige Aufgabe es ist, Nachbarpixel zu "verschmieren". Wenn das Foto – wie üblich – bei der Raw-Entwicklung geschärft wurde, dann wird genau dadurch dieser Effekt z. T. rückgängig gemacht. Wirklich sehen kann man diese Effekte vermutlich nur im RAW vor dem Demosaicing.

Darum kann dieser letzte Schritt in der Kette wohl auch nicht wie eine weitere Linse behandelt werden und liefert somit auch keine wirklich guten Ergebnisse.
Wie gesagt, ich glaube nicht, dass da in diesem Fall das entscheidende Problem liegt, sondern eher darin, dass das klassische Schärfentiefemodell bei der Darstellung dessen, was bei so kleinen Streukreisdurchmessern vor dem Sensor passiert, versagt.

Eigentlich problematisch für die Anwendung des MTF-Modells sind Tonwertkorrekturen und Gammakurven. Und vielleicht noch eine Bemerkung zu MTF50-Werten und dergl. die kann ich durch Nachschärfen fast beliebig hin- und herschieben und sind eigentlich höchstens da aussagekräftig, wo man noch eine lineare Signalkette hat.

Jedenfalls würde ich erwarten, dass die Defocusunschärfe bei guten Objektiven und Blendenwerten beim Schärfeoptimum des Objektivs deutlicher sichtbar müsste als bei schlechten und/oder großen Blendenwerten. Bei niedrig auflösenden Sensoren müsste der Effekt auch deutlicher sichtbar als bei hoch auflösenden, weil im Vergleich zur Pixelgröße Beugung und Objektivfehler weniger ins Gewicht fallen. Wenn der Sensor und die Signalverarbeitung dahinter dafür verantwortlich wären, dass die Defocusunschärfe fast unsichtbar bleibt, dürfte die Bildschärfe des Objektivs bzw. die Pixelgröße (bei entsprechender Wahl des Streukreisdurchmessers) ja keine entscheidende Rolle spielen.

L.G.

Burkhard.
 
Ich glaube nicht, dass man hier mit dem Streit, wie der Einfluss normaler optischer Elemente zusammenzufassen ist viel weiter kommt. Die Situation ist doch folgende, es gibt 2 Modelle*:

(...)

Ich habe hier das erste Modell verwendet, weil es für die Praxis vorteilhaftere Ergebnisse liefert
Was Dir unabhängig vom Wahrheitsgehalt freigestellt ist.

Wen es interessiert, wie man sowas jenseits von Näherungsformeln behandelt, dem seien Begriffe wie Fouriertransformation, Raumfrequenz und Faltung(sintegral) empfohlen. Das ist ja keine schwarze Magie.
 
Hier wurde mal auf den ersten Seiten folgendes erwähnt:

HF-Kennzahl = f²/zzul

zzul = zulässiger Zerstreuungskreis? Aber wie kommt dann dabei ein Zahl von 44 raus?
 
Ich denke ich habe eine Lösung für das Problem, ob die Sensorauflösung dazu geeignet ist, ein gewisses Maß an Unschärfe zu "schlucken". Also ob man sagen kann, dass: Wenn die Zerstruungskreise die auf den Sensor projiziert werden kleiner x*Pixelpitch sind, dann wird das Bild nicht mehr schärfer, auch wenn die Zerstruungskreise noch kleiner werden.

...Die Situation ist doch folgende, es gibt 2 Modelle*:

1. Modell: Wenn der Zerstreuungskreis klein genug ist (hier gleiche Fläche wie ein RGB-Pixel), "schluckt" die Diskretisierung die Unschärfe. Daraus würde folgen, dass am Rand der berechneten Schärfentiefe kein Schärfeunterschied zur Mitte der Schärfentiefe zu sehen sein sollte.

Wie man an den Bildern - die ich gepostet habe - sieht, stimmt das bei genauer Beachtung nicht ganz.


2. Modell: Man kann die Auswirkungen der Diskreditierung (vor allem die der Bayerinterpolation - mit viel Rechen-Voodoo) genau so behandeln wie den Durchgang durch ein optisches Element und darum die Auswirkung einfach "dazurechnen" als wäre sie von einer weiteren Linse.

Daraus würde folgen, das von der Fokusebene die Unschärfe sofort kontinuierlich ansteigen müsste.

Wie man einfach überprüfen kann, stimmt das auch nicht so richtig. Das Beispielbild was ich vom Rand der Schärfentiefe gepostet habe ist z.B. deutlich zu scharf, als das dieses Modell so stimmen könnte. Da die Fläche von Pixel und Zerstreuungskreis hier gleich groß sind, sollte sich eine Unschärfe ausbilden, die jeweils 2 Nachbarixel deutlich miteinander verschmiert.

Um eine möglichst gute Abbildung der Realität für mein neues Objektivmodell zu generieren, habe ich gestern eine Optimierung in cBlur gebastelt, in der ich über 9 Messreihen von repräsentativen Objektivauflösungen die Konstanten der beteiligten Funktionen kalibriere (falls es jemand genauer wissen möchte schreibe ich gerne was dazu). Dabei pendelt sich der Wert für den Durchmesser der Unschärfe durch die Sensorauflösung die zum Gesamtergebnis dazugezählt werden sollte jedes mal auf ziemlich genau 2*Pixelpitch ein.

Da eine solche Kalibrierung natürlich nicht "die Wahrheit" findest, sondern nur so lange an den Parametern dreht, bis die Berechnung/das Modell am besten zur Realität (der Kalibrierungsdaten) passt, ist das natürlich kein Beweis dafür, dass Ansatz Nummer zwei näher an der Realität ist als der erste, aber doch ein starker Hinweis. Das würde dann bedeuten, sofort vor und hinter der Schärfeebene wird es im Bild unschärfer, die Diskreditierung hebt die Unschärfe nicht mal ein klein wenig auf und es gibt (auf Pixelebene) weder so etwas wie Schärfentiefe oder gar so etwas wie eine Hyperfokalmethode.

Das widerspricht aber der Erfahrung. In der 100% Ansicht gibt es (je nach Gegebenheiten mehr oder weniger) tiefe Bereiche in denen die Schärfe konstant gleich hoch erscheint. Wer sich die Ergebnisse z.B. auf Photozone ansieht stellt fest, dass sich z.B. die Ergebnisse bei guten Objektiven sehr früh unter der Beugung verschlechtern oder auch, dass die mehr als gut brauchbare Offenblende bei einem Objektiv den Zahlen nach wesentlich schlechter sein müsste im Vergleich zum abgeblendeten Bild.

Der Grund warum das in der 100% Ansicht so ist, dürfte die algorithmische Optimierung/Schärfung der Bilder sein. Führt man solche Auflösungs-Tests mit Schärfung durch, ergeben sich Auflösungswerte die rechnerisch höher liegen, als die physikalisch mögliche Auflösung des Sensors. Denn auch wenn das Schärfen aus informationstechnischer Sicht kein Mehr an Daten bringt, so bügelt es doch visuell durch Kontrastverstärkung sehr effektiv kleine Unschärfen aus.

Das dürfte auch die Lösung des Problems beinhalten. Rein rechnerisch ist der zweite Ansatz vermutlich wesentlich besser und liefert bei unbearbeiteten Bildern auch verblüffend gute Ergebnisse. Der Ansatz das die Pixelgröße Unschärfen "schluckt" dürfte damit falsch sein. Aber der Umstand, dass man die visuelle (und z.T auch messbare) Auflösung durch Nachschärfen über die Auflösungsgrenze des Sensors anheben kann, ergibt einen (Auflösungs-)Puffer die real beobachtbare Schärfentiefe auf Pixelebene ermöglicht.

Es bleibt also eigentlich alles so wie es war. Wer mit x*Pixelpitch (ich empfehle mit x=2 zu beginnen) sein max. Unschärfekreis berechnet bekommt recht brauchbare Ergebnisse. Das dürfte der Grund sein warum dieser Ansatz so weit verbreitet ist, er funktioniert recht gut - nur die Erklärung dafür dürfte meistens falsch sein...
 
... das Problem, ob die Sensorauflösung dazu geeignet ist, ein gewisses Maß an Unschärfe zu "schlucken". Also ob man sagen kann, daß: Wenn die Zerstruungskreise, die auf den Sensor projiziert werden, kleiner x*Pixelabstand sind, dann wird das Bild nicht mehr schärfer, auch wenn die Zerstruungskreise noch kleiner werden.
Im streng mathematischen Idealfall gilt das bei x = 0. Mit anderen Worten: Egal, wie klein die Zerstreuungskreise bereits sind – werden sie noch kleiner, so wird das Bild noch schärfer. Immer.

In der Praxis aber ist die Frage nicht, ob das Bild nicht mehr schärfer wird, sondern ob es nicht mehr erkennbar schärfer wird. Das ist natürlich keine eindeutige Definition, so daß die Antwort darauf von einigen Randbedingungen abhängt und daher immer ein wenig schwammig bleiben muß ... aber ich würde einmal für Sensoren ohne Tiefpaßfilter und Objektive höchster Güteklasse mit x = 0,1 bis 0,2 rechnen.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

aber ich würde einmal für Sensoren ohne Tiefpaßfilter und Objektive höchster Güteklasse mit x = 0,1 bis 0,2 rechnen.
Das mag sein und wenn Du jetzt überlegst, was ein AA-Filter tun soll, bist Du ungefähr bei dem was ich schreibe.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

In der Praxis aber ist die Frage nicht, ob das Bild nicht mehr schärfer wird, sondern ob es nicht mehr erkennbar schärfer wird. Das ist natürlich keine eindeutige Definition, so daß die Antwort darauf von einigen Randbedingungen abhängt und daher immer ein wenig schwammig bleiben muß ... aber ich würde einmal für Sensoren ohne Tiefpaßfilter und Objektive höchster Güteklasse mit x = 0,1 bis 0,2 rechnen.
Mit x = 0,2 hast du bei der Nyquistfrequenz einen theoretischen Kontrastverlust von ca. 1,2 %. Vielleicht durch Messung am Foto nachweisbar. Bei x = 1 ist der Kontrastverlust bei der Nyquistfrequenz ca. 30 %, dürfte ohne direkten Vergleich gerade so sichtbar sein. Bei x = 2 beträgt de Kontrastverlust über 80 % (und bei der halben Nyquistfrequenz entsprechend 30 %).

L.G.

Burkhard.
 
Hallo Burkhard,

kannst Du mir sagen wie Du das ausrechnest?
Eigentlich so, wie die MTF definiert ist – ein Schwarz-Weiß-Linienmuster (sinusförmig) über die Kreisscheibe legen, aufintegrieren und mit der Kreisfläche normieren und – entsprechend der Lage des Musters Maximum und Minimum finden (klar, das ist, wenn Weiß bzw. Schwarz in der Kreismitte sind). Näherungsweise (Kreis z. B. in 100 Streifen schneiden) kann man das sogar mit einer Tabellenkalkulation machen.

Letztlich ist das Ganze aber nur eine Fourier-Transformation, und die Fouriertransformierte der Kreisscheibe ist bekannt ("Airy-disc"), und man bekommt die einfache Formel

K = 2 J_1(π f)/π/f,

wobei J_1 die Bessel-Funktion erster Ordnung ist (heißt bei OpenOffice und Excel BesselJ), f die Frequenz in Linienpaaren/Streukreisdurchmesser und K der Kontrast (1 = voller Kontrast, entsprechend MTF 100%).

L.G.

Burkhard.
 
WERBUNG
Zurück
Oben Unten