Gast_194966
Guest
Moin und Gruß aus Alice Springs!
Bitte entschuldigt, ich sitze mit dem Handy und kann kaum sinnvoll googeln oder im Forum suchen. Wenn die Frage schon längst beantwortet ist, freue ich mich über Links.
Auf stundenlangen Flügen nach und Busfahrten durch Australien ist mir folgende Idee gekommen: Bisher habe ich auch selber die Pixelgröße/diche/anzahl einfach als eine starre Grenze für maximale Vergrößerungen oder Ausschnitte gesehen. Jetzt dämmert mir langsam, dass sie genau wie Beugungsunschärfe, Defokusunschärfe (->Schärfentiefe) und auch sonstige Abbildungsfehler einfach eine weitere Form der Unschärfe im fertigen Bild (!) ist, die genauso behandelt werden kann. Und zwar folgendermaßen:
In vielen Schärfentieferechnern werden einfach die Flächen (!) der Unschärfescheibchen aufgrund von Defokus und Beugung addiert. cBlur scheint auch einen Anteil der Abbildungsfehler zu addieren (->Objektivqualität). Und ich tendiere jetzt sogar dazu, auch die Pixelgröße als Fläche zu addieren. Und wenn die Summe all dieser Unschärfeflächen zu einem größeren als dem zulässigen Zerstreuungskreis führt, erscheint das fertige Bild unscharf.
Als Formel, wenn's sein muss, und mit sinnnigen Abkürzungen für Defokus, Beugung, sonstige Abbildungsfehler des Objektivs und Pixelgröße:
zges=Wurzel(zf^2+zb^2+za^2+zp^2)
Wenn dieser zges größer als der zulässige Z-Kreis zzul wird, erscheint das Bild unscharf.
Versteht Ihr, was ich meine? Wortreiche Erklärungen sind am Handy einfach lästig. Ich kann auch nicht regelmäßig teilnehmen und antworten. Lasst aber bitte die Idee mal sacken. Und vor allen Dingen: Gibt es Literatur in der Richtung? Ich mag mich am Handy nicht durch lange pdf-Aufsätze arbeiten. Das tue ich sofort, wenn ich wieder zuhause bin.
Grüße aus down under,
Matthias
Bitte entschuldigt, ich sitze mit dem Handy und kann kaum sinnvoll googeln oder im Forum suchen. Wenn die Frage schon längst beantwortet ist, freue ich mich über Links.
Auf stundenlangen Flügen nach und Busfahrten durch Australien ist mir folgende Idee gekommen: Bisher habe ich auch selber die Pixelgröße/diche/anzahl einfach als eine starre Grenze für maximale Vergrößerungen oder Ausschnitte gesehen. Jetzt dämmert mir langsam, dass sie genau wie Beugungsunschärfe, Defokusunschärfe (->Schärfentiefe) und auch sonstige Abbildungsfehler einfach eine weitere Form der Unschärfe im fertigen Bild (!) ist, die genauso behandelt werden kann. Und zwar folgendermaßen:
In vielen Schärfentieferechnern werden einfach die Flächen (!) der Unschärfescheibchen aufgrund von Defokus und Beugung addiert. cBlur scheint auch einen Anteil der Abbildungsfehler zu addieren (->Objektivqualität). Und ich tendiere jetzt sogar dazu, auch die Pixelgröße als Fläche zu addieren. Und wenn die Summe all dieser Unschärfeflächen zu einem größeren als dem zulässigen Zerstreuungskreis führt, erscheint das fertige Bild unscharf.
Als Formel, wenn's sein muss, und mit sinnnigen Abkürzungen für Defokus, Beugung, sonstige Abbildungsfehler des Objektivs und Pixelgröße:
zges=Wurzel(zf^2+zb^2+za^2+zp^2)
Wenn dieser zges größer als der zulässige Z-Kreis zzul wird, erscheint das Bild unscharf.
Versteht Ihr, was ich meine? Wortreiche Erklärungen sind am Handy einfach lästig. Ich kann auch nicht regelmäßig teilnehmen und antworten. Lasst aber bitte die Idee mal sacken. Und vor allen Dingen: Gibt es Literatur in der Richtung? Ich mag mich am Handy nicht durch lange pdf-Aufsätze arbeiten. Das tue ich sofort, wenn ich wieder zuhause bin.
Grüße aus down under,
Matthias