WERBUNG

DOF-Calculator: Formeln

Ich bin im Zweifel eher für die Theorie als für Experimente.



Goodman untersucht hier

http://iate.oac.uncor.edu/~manuel/libros/Optics/Introduction to Fourier Optics 2nd - J. Goodman.pdf

den kombinierten Effekt von Defokus und Beugung bei quadratischen Blenden. In Formel (6.41) steht die entsprechende "Optische Transfer Funktion". Nach meinem Verstaendnis sollte deren inverse FT die Intensitaetsverteilung eines Punktbildes darstellen. Vielleicht koennte man damit etwas herausfinden.


Gruesse,
Paul
 
Zuletzt bearbeitet:
OK, ich stelle gerade fest: Wenn ich die erlaubte Größe der Zerstreuungskreise wie im DOF-Calculator zugrundelege, kommen auch mit den Wikipedia-Formeln die gleichen Zahlen heraus. Zum Abschätzen lernen lasse ich die Beugungsgrenze auch erst einmal außen vor.

Und die beiden Diagramme im Anhang werden jetzt laminiert und in die Fototasche gelegt.

Eigentlich komisch, daß soetwas nicht bei jedem Objektiv in die Anleitung gedruckt ist - wer will sich mit Apps herumärgern?
 

Anhänge

Goodman untersucht hier

http://iate.oac.uncor.edu/~manuel/libros/Optics/Introduction to Fourier Optics 2nd - J. Goodman.pdf

den kombinierten Effekt von Defokus und Beugung bei quadratischen Blenden. In Formel (6.41) steht die entsprechende "Optische Transfer Funktion". Nach meinem Verstaendnis sollte deren inverse FT die Intensitaetsverteilung eines Punktbildes darstellen. Vielleicht koennte man damit etwas herausfinden.
Danke für den Hinweis. Bin gerade dabei, das Paper von H. H. Hopkins von 1955 auszuwerten, das Frank Lumo zitiert. Die Ergebnisse dort (für Kreisblende) sehen sehr ähnlich aus wie Fig. 6.11 aus deiner Quelle (was nicht weiter überrascht).

OTF ist prima, daran kann man viel mehr sehen als an der PSF. Da alles schön symmetrisch ist, ist die OTF ja reell und gleicht bis aufs Vorzeichen der MTF.

Sieht jedenfalls für mich so aus, als hätte die Beugung keinen nennenswerten Einfluss auf die Schärfentiefe. Selbst wenn die Beugung so stark ist, dass sie in der Fokusebene schon in etwa dem Zerstreuungskreis entspricht (Blende 32 bei z = 30 µm), ist die MTF an den Rändern des geometrischen Schärfentiefebereichs noch nicht nennenswert schlechter als in der Fokusebene. Die Grenzauflösung ist sogar höher als im geometrischen Modell. Für mich ziemlich überraschend. Mal sehen, ob ich morgen dazu komme, ein paar Grafiken dazu hier einzustellen.

L.G.

Burkhard.
 
Alles schön und gut mit der theoretischen Formelwelt, nur vernachlässigt die-
se, auf Basis der "idealen Optik" gestellt den individuellen Part realer tatsäch-
lich gefertigter Objektive und da ist es die Ausführung der Blendenlamellen,
deren Ränder sowie Anzahl und Geometrie mit hinein spielen. Das Schärfe-/
Kontrastverhalten ist zudem eine variable Größe, so dass der Gewichtung der
Berechnung für den praktischen Nutzen jeder Optik dann Szenarien zu Grunde
zu legen sind um zu einer gegenständlicheren bzw. fallzutreffenderen Aussage
zu kommen.

Der interessanteste Part ist wohl der abstrakte Erkenntnisgewinn, was wo wie
in Richtung Ergebnis in der praktische Anwendung hineinspielt bis hin zum in-
dividuellen Gegen- & Streulichtverhalten von Optiken bei vor Ort gegebenen
individuellen Verhältnissen.

Ein parametrisiertes visualisierendes Sheet ist für solche Sachen natürlich
ideal, wenn man per Schieberegler und/oder Zahlenangaben an den Para-
metern drehen (verändern) kann und das Ergebnis sieht.


abacus
 
...

Aber auf der von dir verlinkten Seite ist ja auch die Defocus-MTF angegeben, ich denke, damit kommt man im Zweifel weiter. Ich bin im Zweifel eher für die Theorie als für Experimente.

L.G.

Burkhard.


Auf Grund der Relevanz der Abweichung der physischen Ausführung vom
mathematischen Konstrukt des optischen-physikalischen Idealzustandes
wird man ohne gewichtendes Element aus der messenden Welt nicht das
Auslangen finden können. Zu groß ist da die Abweichung und Streuung
durch die jeweils gefertigte gegenständliche Optik.

Die Theorie liefert die Hinweise worauf zu achten ist, das Experiment findet
dann in der jeweiligen Aufnahme sein Ergebnis ab.

Interessant wäre wie weit die Streuung vom Idealzustand abweicht, die ein-
zelnen Faktoren zu gewichten, wird ohne Forschungsanstalten wohl kaum
möglich sein. Wäre interessant was die Produktentwickler dazu aus der Er-_
fahrung als Konstrukteure optischer Systeme dazu zu sagen haben.


abacus
 
Eigentlich komisch, daß soetwas nicht bei jedem Objektiv in die Anleitung gedruckt ist - wer will sich mit Apps herumärgern?

Naja, Du hast nur 2 Brennweiten pro Objektiv, das ist bei den großen Brennweitenbereichen nicht gerade viel. Dann hast Du den maximalen Zerstreuungskreis wohl an der Sensorauflösung fest gemacht. Das Diagramm ist also Kameraabhängig. Dann kann man nicht ablesen, wo die Schärfentiege anfängt und aufhört (das schwankt ja von ~50:50 bis fast alles hinter der Schärfeebene). Ich glaube Dir sofort, dass die Diagramme für Dich hilfreich sind, wenn man sie aber allgemein halten möchte, hat man schnell ein Büchlein, dass so schwer wie ein Smartphone ist :)

Waartfarken hast es schon gesagt, wenn man mehr Erfahrung hat, brauchst man solche Hilfen kaum noch. Wenn man aber wie Du die Diagramme selbst gemacht hat und nicht einfach irgendwo ergoogled hat, hat man schon einen großen Schritt in die Richtung gemacht.
 
Natürlich sollte man den Zusammenhang von Blende, Entfernung ... und Schärfentiefe kennen und mit der Zeit ein Bauchgefühl entwickeln.

Ich denke aber, dass DOF-Berechnungen nicht mehr zeitgemäß sind. Bei analogem Film und geringen Pixelzahlen und kleinen Abzügen hatte das seine Berechtigung, aber bei den heutigen Megapixeln und z.T. großen Ausbelichtungen ist der scharfe Bereich tatsächlich sehr viel kleiner als der nach Berechnung mit dem DOF-Calculator.

Ähnlich ist es mit der Standardregel für Belichtungszeiten. Die lautet: Belichtungszeit soll gleich oder kleiner 1/Brennweite sein (Vollformat). Für die folgende Betrachtung lassen wir mal den Bildstabilisator außen vor.
Bei den heute üblichen Megapixeln sind Bilder, die nach dieser Regel gemacht werden, meist unscharf, d.h. verwackelt. Das liegt daran, dass durch die Megapixeln unscharfe Bereiche deutlicher dargestellt werden. Beispiel: Bei wenig Pixeln des Bildsensors war eine Kante z.B. 1 Pixel breit, aber mit den heutigen Bildsensoren ist mit gleichen Aufnahmeparametern die gleiche Kante z.B. 3 Pixel breit, also unscharf. Wenn man ein gutes Objektiv hat und die Belichtungszeit halbiert gegenüber der Faustformel, dann ist die Kante wieder 1 Pixel breit, also wieder scharf.

Früher hat man die Verwacklungen infolge der Faustformel einfach nicht auflösen können.
 
... aber bei den heutigen Megapixeln und z.T. großen Ausbelichtungen ist der scharfe Bereich tatsächlich sehr viel kleiner als der nach Berechnung mit dem DOF-Calculator.

Wenn man Bilder größer als vorher betrachtet, verringert man eben den zulässigen Zerstreuungskreis.

Ähnlich ist es mit der Standardregel für Belichtungszeiten.

Wenn man Bilder größer als vorher betrachtet, verringert man eben die maximale Belichtungszeit.
 
Wenn man Bilder größer als vorher betrachtet, verringert man eben den zulässigen Zerstreuungskreis.

Damit können viele Hobbyfotografen nichts anfangen, d.h. müssten sich erst mal einlesen. Also sollte man auch schreiben, wie man den zulässigen Zerstreungskreis verringert. Es läuft eben darauf hinaus, die Blende zu verkleinern und höher auflösende Objektive zu verwenden.

Wenn man Bilder größer als vorher betrachtet, verringert man eben die maximale Belichtungszeit.

Genau das habe ich empfohlen, z.B. eine Halbierung der Belichtungszeit im Vergleich zur bisherigen Faustformel.
 
Damit können viele Hobbyfotografen nichts anfangen, d.h. müssten sich erst mal einlesen. Also sollte man auch schreiben, wie man den zulässigen Zerstreungskreis verringert. Es läuft eben darauf hinaus, die Blende zu verkleinern und höher auflösende Objektive zu verwenden.

Wenn man Bilder größer als vorher betrachtet, verringert man eben den zulässigen Zerstreuungskreis.

Den kann man bei besseren Doofrechnern eingeben.
 
Auf Grund der Relevanz der Abweichung der physischen Ausführung vom
mathematischen Konstrukt des optischen-physikalischen Idealzustandes
wird man ohne gewichtendes Element aus der messenden Welt nicht das
Auslangen finden können. Zu groß ist da die Abweichung und Streuung
durch die jeweils gefertigte gegenständliche Optik.
Selbstverständlich haben beide Ansätze – der induktive wie der deduktive – ihre Berechtigung. Beim deduktiven läuft man Gefahr, dass die Abweichungen in der Praxis zu groß sind und das Modell deshalb nichts taugt, beim induktiven, dass man oft den Wald vor lauter Bäumen nicht sieht. Jedenfalls müsste eine Formel für das "Verrechnen" von Beugung und Defocus-Unschärfe auch für ideale Objektive funktionieren, und wenn ich eine für ideale Objektive gefunden habe, muss ich sie natürlich in der Praxis testen. Was das konkrete Problem anbelangt, habe ich mal einen eigenen Thread aufgemacht:
https://www.dslr-forum.de/showthread.php?t=1655886.

Was die Kombination mit Objektivfehlern anbelangt, bin ich eigentlich ganz zuversichtlich, dass sie – wie bei der geometrischen Schärfentiefe – kaum eine Rolle spielen, solange sie gegenüber dem Zerstreuungskreis klein bleiben.

L.G.

Burkhard.
 
Jedenfalls müsste eine Formel für das "Verrechnen" von Beugung und Defocus-Unschärfe auch für ideale Objektive funktionieren, und wenn ich eine für ideale Objektive gefunden habe, muss ich sie natürlich in der Praxis testen.

Auch hier..

Geht mir genau andersrum.

Ich würde mir Ergebnisse "aus der Praxis" angucken und auswerten und versuchen, den relevanten Parameterbereich mit einer (semi-) empirischen Ausgleichskurve anzunähern. So machen wir das mit vielen strömungsakustischen Problemchen und aus einem aktuellen Forschungsprojekt mit der Uni Southampton hat sich bei mir dafür der Begriff "to collapse" eingebrannt: Mit welchem semi-empirischen Modell "kollabieren" meine Messwerte in (fast) einem einzigen Punkt?
 
Aus meiner Sicht sollte für die reine Formel der Lehre dann ein Korrekturglied
hinzu genommen werden, das auf festgestellte Werte der Praxis hin korrigiert.
Dass das auf Grund der vielen Faktoren nicht ganz so einfach ist, ist auch klar.
Der Zusammenhang zwischen Blende, Beugung und Pixelgröße sollte da auch
noch einfließen sowie die Relation zur Ausgabegröße.

Ein parametrisiertes sheet wäre fein, Eingabe der Parameter und dann die Ent-
fernung des Objekts, auf den scharf gestellt wird. Was auch noch ein wenig un-
lustig ist, ist, dass innenfokussierende Objektive die Brennweite auch ändern,
sowie die Lage der Blende zur Hauptebene selbst auch noch mal nicht ganz un-
wichtig ist.


abacus
 
Semi-empirisch nennt ma das.


Ja, mache ich selber im Bereich thermischer Untersuchungen, da der Standard-
Apparat das in der Regel nicht abbildet und abzudecken vermag. Zur Zeit läuft
gerade eine Messserie, die kommende Kältewelle kommt wie gerufen, doch lei-
der ist der Auftrag noch nicht da und das Einbauen der Messfühler steht hinten
an. Ist eh erst seit Wochen bekannt.


abacus
 
WERBUNG
Zurück
Oben Unten