• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hyperfokale Distanz vs. Fokus auf unendlich

Für was steht die Abkürzung RFC ?
 
Wenn ich nun die Skyline von New York vom Rockefeller Center ablichten möchte und möchte möglichst viele Bildanteile scharf haben sollte ich also am besten auf die Hyperfokale Distanz fokussieren, richtig ?

Ja, das ist die Möglichkeit, die die größte Schärfentiefe ergibt (wenn das auch bei weit entfernten Hochhäusern nicht so kritisch ist...).

Was bedeutet dies nun genau. Fokussiert man dann manuell oder fokussiert man mit z.B. dem mittleren Autokokus-Messfeld ? Fokussiert man (manuell oder mit Autofokus) auf ein Objekt was auf der Hyperfokalen Distanz liegt und verschwenkt dann ?

Ja, Erntfernung abschätzen und mit AF fokussieren.

Mal angenommen ich fotografiere mit einer 5D Mark II und einem 24-105 Objektiv bei 24 mm und einer Blende von 8. Von einem Stativ aus.
Das Objekt was ich auf jeden Fall scharf haben möchte ist das Emipre State Building in 1700 m entfernung
Laut meinem DoF rechner liegt die Hyperfokale Distanz dann bei 2,4 m, ich müsste dann quasi auf den Boden vor meinen Füßen fokussieren.

2,4m ist vermutlich mit Standardzerstreungskreis, das reicht gerade mal für eine 3 MPixel Kamera. Du solltest 10m nehmen, dann ist alles von 5m bis unendlich so scharf es mit einer 5D² eben geht. Ist etwas näher dran, das Du auch scharf haben willst, dann musst Du Dir etwas anderes einfallen lassen...
 
Argh...
 
Und für eine Skyline ist - egal ob vom oder mit dem RFC - die HFD-Methode nunmal nicht gut.
Wenn bei Dir weitwinklige Skylines mit HFD nichts werden, kann das eigentlich nur daran liegen, dass Du die "normale" HFD wie man sie in jedem DOF-Rechner bestimmen kann verwendest (in diesem Thread geht es um 2xPixelpitch als max. Zerstreuungskreis s. erster Beitrag hier), oder das Du das mit dem Abschätzen der Fokusdistanz nicht hin bekommst.

Für Surfista gilt: 5D², 24mm, f/8, 10m Fokusdistanz - Es gibt keine andere Einstellung bei der irgend etwas im Bereich 5m - unendlich sichtbar schärfer werden würde (vielleicht bringt f/11 noch was für die Ecken, bei schlecht zentrierten bzw. randschwachen UWW kann das schon mal sein - die Mitte leidet dann schon ein ganz wenig).
 
Nein nein nein... Du verstehst nicht, worauf ich hinaus will.

Bei einer Skyline - ohne den naturfotografietypischen Pilz als Vordergrund 50cm vor der Kamera oder noch näher - braucht man überhaupt keine Schärfe verschenken, wie das HFD zwangsläufig macht.

Selbst wenn das nächste wichtige Gebäude nur 50, 100m entfernt ist, und der Rest kilometerweit am Horizont - eine Foussierung auf ein paar wenige Meter ist da grundfalsch. Ob jetzt 2m, oder 10m mit "vorsichtigerer HFD" - beides ist da Unsinn.

Dein zweiter Abschnitt ist komplett falsch, sobald über "sichtbar" diskutiert wird. Entweder, du hast etwas anderes gemeint und dich unglücklich ausgedrückt, oder du hast die Methode überhaupt nicht verstanden...
 
Zuletzt bearbeitet:
... braucht man überhaupt keine Schärfe verschenken, wie das HFD zwangsläufig macht.

Selbst wenn das nächste wichtige Gebäude nur 50, 100m entfernt ist, und der Rest kilometerweit am Horizont - eine Foussierung auf ein paar wenige Meter ist da grundfalsch. Ob jetzt 2m, oder 10m mit "vorsichtigerer HFD" - beides ist da Unsinn.

Auf dem Sensor ist das Bild in der Ferne mit der HFD tatsächlich einen winzigen Hauch unschärfer als die "Fokus auf die Skyline"-Variante.

ABER: Ich berechne die HFD so, dass die Unschärfe kleiner ist als die Auflösung der Kamera. Die fertigen Bilder lassen sich in der Ferne von der Schärfe nicht unterscheiden (nah dran ist die HFD natürlich besser). Ich habe das selbst gründlich ausprobiert (s. Beitrag 1 - oder besser probier es selbst und zeig die Bilder hier).
 
Vielleicht wirklich aneinander vorbeigeredet, aber:

Ich beziehe mich auf die Aufgabe "Skyline" und die dazu eingestellten Beispiele. Auf beiden Bildern ist nichts näher als 50 oder gar 100 Meter zur Kamera. Und schon gar nichts bildrelevantes. Da muss es einem.doch widerstreben, überhaupt darum zu streiten, ob 5m als HFD oder 10m als HFD mit Marge besser fokussiert sei. Beides ist daneben, und erst noch umsonst, da es den Vordergrundpilz gar nicht gibt.

Und jetzt, der Klarheit Willen, ganz ganz konkret: Beispielbild 2
Meinetwegen mag gestritten werden, ob Blende 5.6, 8 oder 11. Ob ausschnittsvergrössert, oder nicht. Ob Fokus auf vorderen Brückenpfeiler, hinteren, Brückenmitte.
Wenn gar jemand Anfänger wäre und feststellen würde: "Bin unzufrieden!" - ja dann, gerade als Anfänger: Brückenmitte, Stativ, Blende 8. Und dann reden wir über gutes Licht und Dreck in der Luft. 10m Fokusdistanz gewinnt nichts und verwirrt nur.


Dies mal ganz abgesehen davon, dass ich pixelbasierte HFD-Rechnerei als methodischen Bauchschmerz mitempfinde.
 
Zuletzt bearbeitet:
Dies mal ganz abgesehen davon, dass ich pixelbasierte HFD-Rechnerei als methodischen Bauchschmerz mitempfinde.

Und dann beschwerst Du Dich, dass die HFM nicht funktioniert :rolleyes:?

Ob ich die Bilder mit HFM gemacht hätte hängt vom verwendeten Objektiv ab. Mit meinem manual Fokus 14mm bin ich 4 Wochen durch Japan und habe nur 4-5 mal die Fokusdistanz von 3.5m weg gedreht (da waren viele Skylines dabei). Beim 24mm Tilt/Shift ist es mal so mal so. Bei einem 24-105mm würde ich fast immer auf die Skyline fokussieren (aber nur wenn nichts im Vordergrund ist), aber dass habe ich ja auch geschrieben das es bei diesen Bildern keinen großen Unterschied macht.

Und gerade ein Anfänger ist bei starkem WW (und NUR da) mit der Methode nicht schlecht beraten...
 
Das entscheidende (Un-) Wort ist "Pixel" :D

Du hast schon Recht: mit 14mm braucht man oft gar nicht uu fokussieren. Einmal eingestellt, und passt.

Aber bei einer arrangierten Aufnahme ab Stativ passiert es vielen, dass sie fokussieren... ;)
 
... schon länger mal zeigen wollte, wie man die Hyperfokalmethode mit wirklich scharfem Hinter- und Vordergrund hinbekommt. [...]

Das Rezept ist einfach. Man nimmt als Zerstreuungskreisdurchmesser zweimal die Kantenlänge eines Pixels auf dem Sensor und rechnet damit die Hyperfokaldistanz aus. Das sorgt dafür, dass der Hintergrund so scharf wird, dass die Auflösung des auf den Sensor projizierten Bildes der Kameraauflösung entspricht. Mehr Schärfe kann die Kamera eh nicht aufnehmen.
Es ist ein – wenngleich weit verbreiteter – Irrtum, die für einen gegebenen Sensor maximal mögliche Bildschärfe ergäbe sich dann, wenn die vom Objektiv erzeugten Streukreisdurchmesser nicht größer seien als zweimal der Pixelabstand (zweimal statt einmal wegen der Bayer-Interpolation), und daß eine Verkleinerung der Streukreisdurchmesser über dieses Maß hinaus "nichts brächte", weil's der Sensor schließlich gar nicht mehr auflösen könne.

Diesem Mythos liegt die naive Vorstellung zugrunde, in einer Kette hintereinandergeschalteter auflösungsbegrenzter Übertragungselemente, bei denen das Ausgangssignal des einen Elementes als Eingangssignal für das nächste dient, sei die Systemauflösung, also die Auflösung der gesamten Kette, gleich dem Minimum der Auflösungen der Einzelelemente – so wie die Stärke der Kette gleich der ihres schwächsten Gliedes ist. Diese Vorstellung ist naheliegend, aber falsch. Stattdessen ergibt sich der Kehrwert der Systemauflösung aus der Summe der Kehrwerte der Einzelauflösungen.

1/Rgesamt = 1/R1 + 1/R2

Betrachten wir also eine Kette aus zwei Gliedern. Das erste Glied sei das Objektiv und das zweite der Sensor. Nehmen wir weiter an, wir könnten die Auflösungen beider Glieder einfach in Linienpaaren pro Millimeter ausdrücken. Das ist zwar alles etwas simplifiziert – aber es geht hier erst einmal nur um das Prinzip.

Wenn also der Sensor zum Beispiel 40 Lp/mm auflösen kann und das Objektiv ein Bild darauf wirft, das ebenfalls mit 40 Lp/mm aufgelöst ist, so ergibt sich eine Gesamt-Auflösung des Systems von – nein, nicht 40 Lp/mm, sondern gerade einmal 20 Lp/mm! Verdoppeln wir die Auflösung des Objektives auf 80 Lp/mm (und lassen die des Sensors unverändert), so steigt die Systemauflösung auf immerhin 26,67 Lp/mm an. Verdoppeln wir sie noch einmal, so kommen am Ende 32 Lp/mm heraus. Wollten wir dem System eine Leistung abtrotzen, die um nicht mehr als 5 % unter dem theoretischen Maximum des Sensors liegt, so müßte das Objektiv mal eben flotte 760 Lp/mm auflösen.

Daraus folgen zwei wichtige Dinge. (1) Die theoretische Auflösung, die ein Sensor aufgrund seiner Pixelzahl zu bieten hat, kann in der Praxis niemals ganz erreicht, sondern bestenfalls approximiert werden. Und dazu bräuchte es schon ein richtig gutes Objektiv. (2) Lösen die Einzelelemente einer Abbildungskette unterschiedlich hoch auf, so steigt die Gesamtauflösung der Kette auch dann an, wenn man das Element verbessert, das ohnehin schon am besten ist.

Deswegen ist oben empfohlenes Rezept für eine hyperfokale Einstellung mit maximal möglicher Schärfe bis unendlich eine haltlose Milchmädchenrechnung. Das soll nicht heißen, das Rezept sei nicht praktikabel ... selbstverständlich ergibt es eine sehr gute bildmäßige Hintergrundschärfe, die auch hohe Ansprüche erfüllt, und zugleich eine vergleichsweise gute Schärfentiefe. Doch der Anspruch "schärfer geht's nicht" wird dennoch verfehlt – für diesen Anspruch gilt nach wie die Merklinger-Methode: Willst du perfekte Schärfe bei unendlich, so fokussiere auf unendlich. Punkt, basta, aus die Maus.

Und warum scheint es dann in den eingangs gezeigten Beispielaufnahmen (hier und hier) tatsächlich nicht schärfer zu gehen als mit der "pixelbasierten Hyperfokalmethode"? Keine Ahnung. Vielleicht einfach schlampig gearbeitet ... oder das Objektiv taugt nichts ... oder das Tiefpaßfilter der verwendeten Kamera war zu stark. Dazu kommt ja noch, daß bei Blende 11 die zunehmende Beugung die Unterschiede zwischen "fast scharf" und "ganz scharf" ein wenig zu verwischen beginnt.

Um meine Ausführungen zu untermauern, habe ich einmal selber ein paar Testaufnahmen angefertigt. Ich verwendete – genau wie in den eingangs gezeigten Beispielbildern – eine digitale Kleinbildkamera mit 24-mm-Objektiv (aber ohne Tiefpaßfilter). Wie man sieht, ist bei Fokussierung auf unendlich die Schärfe im weit entfernten Hintergrund stets klar erkennbar besser als bei Fokussierung nach der "pixelbasierten Hyperfokalmethode" ... wenngleich der Unterschied nur klein ist und somit für bildmäßige Anwendungen kaum eine Rolle spielen dürfte. Dennoch – die Behauptung "schärfer geht's nicht" ist klar widerlegt.


Fokus 8 m vs Fokus unendlich bei 24 mm und f/5,6:

HF_24mm_f5-6_8m.jpg HF_24mm_f5-6_inf.jpg


Fokus 4 m vs Fokus unendlich bei 24 mm und f/11:

HF_24mm_f11_4m.jpg HF_24mm_f11_inf.jpg


Bei genauem Hinsehen ist zu erkennen, daß die Gesamtschärfe bei Blende 11 aufgrund der Beugung ein klein wenig in Mitleidenschaft gezogen wird – so als ob ein hauchfeiner Weichzeichner über dem Bild läge. Dies führt dazu, daß der Unterschied zwischen der Hyperfokal- und der Unendlich-Fokussierung um eine Spur kleiner erscheint als derselbe Unterschied bei den f/5,6-Bildern.

Zum Schluß noch das gesamte Bild, aus dem die oben gezeigten Ausschnitte gezogen wurden – damit man einen Eindruck bekommt, wovon wir hier reden. Es handelt sich selbstverständlich um höhere Pixelglotzerei ... die Relevanz für die Praxis ist also fragwürdig, zugegeben. Trotzdem – entscheidend ist, zu verstehen, daß es eine "pixelbasierte Hyperfokal-Fokussierung" gar nicht gibt. Und obige Beispielbilder beweisen dies.

HF_24mm_voll.jpg
 
Zuletzt bearbeitet:
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Es ist ein – wenngleich weit verbreiteter – Irrtum, die für einen gegebenen Sensor maximal mögliche Bildschärfe ergäbe sich dann, wenn die vom Objektiv erzeugten Streukreisdurchmesser nicht größer seien als zweimal der Pixelabstand (zweimal statt einmal wegen der Bayer-Interpolation), und daß eine Verkleinerung der Streukreisdurchmesser über dieses Maß hinaus "nichts brächte", weil's der Sensor schließlich gar nicht mehr auflösen könne.

Eigentlich bin ich damals auf 2x gekommen, weil die Fläche von drei Subpixeln (rgb) ziemlich genau der Fläche eines Kreises mit 2x Pixelbreite als Durchmesser entspricht. Das klang gut und war so der Ausgangspunkt - der sich dann auch für verschiedene Kameras gut bewährt hat.


Diesem Mythos liegt die naive Vorstellung zugrunde, in einer Kette hintereinandergeschalteter auflösungsbegrenzter Übertragungselemente, bei denen das Ausgangssignal des einen Elementes als Eingangssignal für das nächste dient, sei die Systemauflösung, also die Auflösung der gesamten Kette, gleich dem Minimum der Auflösungen der Einzelelemente – so wie die Stärke der Kette gleich der ihres schwächsten Gliedes ist. Diese Vorstellung ist naheliegend, aber falsch.

Ja, es ist nur ein stark vereinfachtes Modell mit Fehlern.

Stattdessen ergibt sich der Kehrwert der Systemauflösung aus der Summe der Kehrwerte der Einzelauflösungen.

1/Rgesamt = 1/R1 + 1/R2

Deinem Modell liegt die naive Vorstellung zugrunde, dass die einzelnen Komponenten tatsächlich jeweils nur eine Auflösung haben, die sich dann auch noch auf so einfache Weise addieren lassen. Dein Modell beruht also auch nur auf (vielleicht etwas weniger) naiven Vorstellungen (zum Beeindrucken musst du schon Impulsantworten falten oder so was :cool: und auch das wäre wieder eine Vereinfachung).

Die Komplexität eines Modells sollte dem Zweck angemessen sein. Hier geht es darum:

..., dass ich schon länger mal zeigen wollte, wie man die Hyperfokalmethode mit wirklich scharfem Hinter- und Vordergrund hin bekommt .



Um meine Ausführungen zu untermauern, habe ich einmal selber ein paar Testaufnahmen angefertigt. Ich verwendete – genau wie in den eingangs gezeigten Beispielbildern – eine digitale Kleinbildkamera mit 24-mm-Objektiv (aber ohne Tiefpaßfilter). Wie man sieht, ist bei Fokussierung auf unendlich die Schärfe im weit entfernten Hintergrund stets klar erkennbar besser als bei Fokussierung nach der "pixelbasierten Hyperfokalmethode" ... wenngleich der Unterschied nur klein ist und somit für bildmäßige Anwendungen kaum eine Rolle spielen dürfte.

...

Dennoch – die Behauptung "schärfer geht's nicht" ist klar widerlegt.

Du verwendest eine modifizierte Kamera ohne AA-Filter und zeigst Bilder in 400% Vergrößerung bei denen dann eins ein wenig besser ist um - im herablassendem Tonfall - zu beweisen welch riesen Fehler ich mit der Methode gemacht habe?!

Ja, Du hast recht. Wenn man den Zerstreuungskreisdurchmesser auf 2x Pixelbreite setzt, alle anderen Parameter an die Grenze dreht, den AA-Filter aus der Kamera schraubt und so groß vergrößert, das Pixel als quadratische Flächen erscheinen ist ein echter Unterschied aus zu machen.


Aber auch Du findest einen Faktor x* bei dem Du die Bilder mit nicht mehr als 50% Trefferquote unterschieden kannst, egal was Du anstellst. Das ist dann Deine eigene (unsinnige) "pixelbasierte Hyperfokalmethode". Sie existiert nämlich auch für Dich und wenn der Faktor nur ein Haar breit ist (Ich weiß gar nicht wie ich hier gerade auf Haarspalterei komme :rolleyes:).
 
Zuletzt bearbeitet:
Ja, es ist nur ein stark vereinfachtes Modell mit Fehlern.
Nein, dein "Modell" ist nicht "stark vereinfacht". Sondern es ist grundverkehrt. Es ist nicht einmal ein Modell ... sondern bloß ein Mißverständnis.


Deinem Modell liegt die naive Vorstellung zugrunde, dass die einzelnen Komponenten tatsächlich jeweils nur eine Auflösung haben ...
Nun – daß die Betrachtung einer Kamera als Kette aus nur zwei Komponenten eine Vereinfachung sei, sagte ich ja bereits. Natürlich sind's in Wirklichkeit viel mehr – allein der Sensor besteht ja schon aus mindestens fünf oder sechs hintereinandergeschalteten Elementen.


... die sich dann auch noch auf so einfache Weise addieren lassen.
Das ist der Knackpunkt: genau so einfach lassen sich die Kehrwerte addieren ... auch gern mehr als zwei. Statt Auflösungen in Linienpaaren pro Millimeter oder Punkten pro Zoll oder Grenzfrequenzen könnte man auch Einzel-MTFs betrachten – die müßte man dann entsprechend miteinander multiplizieren. Im Prinzip jedenfalls. Das ist der entscheidende Unterschied zu deinem, äh, "Modell". Aus deinem Modell lassen sich gar keine Erkenntnisse ableiten ... nicht einmal vereinfachte, nicht einmal vom Prinzip her.


Die Komplexität eines Modells sollte dem Zweck angemessen sein.
Ganz genau das meine ich auch.


Du verwendest eine modifizierte Kamera ...
Wie kommst du diese Idee? :confused:


... zeigst Bilder in 400 % Vergrößerung, bei denen dann eins ein wenig besser ist, um – im herablassendem Tonfall – zu beweisen welch Riesen-Fehler ich mit der Methode gemacht habe?!
Seufz ... eigentlich hatte ich gehofft, du wärst zu einer differenzierteren Diskussion fähig. Ich hatte doch mehrfach betont, daß es eben kein "Riesenfehler" ist. Im Gegenteil – in der Praxis funktioniert deine Methode ja recht gut. Aber daß die Bilder nach der Merklinger-Methode, also bei Fokussierung auf unendlich, schärfer werden, erkennt man ja sogar schon in den Miniaturen der Bilder, die übrigens einer 80-%-Ansicht entsprechen. Die 400-%-Ansicht, die beim Anklicken der Miniaturen erscheint, dient also nur der Verdeutlichung.

Mir geht es gar nicht um das Ausmaß des Fehlers, der bei gaaanz genauem Hinsehen gefunden werden kann, sondern um den grundlegenden Denkfehler deiner Vorgehensweise – also daß Streukreise in der Größe eines Pixels (oder eines 2×2-RGGB-Clusters) irgend eine Relevanz für die Frage hätten, wie man die Leistung eines Sensors voll ausschöpfen könne. Nein, haben sie nicht.

Tatsächlich definierst du dir einfach nur einen kleineren als den traditionell üblichen maximal zulässigen Streukreisdurchmesser, das ist alles. Die Orientierung an der Pixelgröße des Sensors ist bedeutungsloses Getue – wie du ja nun im nachhinein selber zugibst. Denn auch für diesen Streukreisdurchmesser gilt, was für alle anderen ebenso gilt: Bestmögliche Schärfe gibt's nur in der Einstellebene; davor und dahinter wird's weniger scharf. Eine Hyperfokaldistanz existiert immer nur dann, wenn du dir einen Schärfeverlust definieren kannst, den du für akzeptabel hältst. Doch dein erklärter Anspruch war: Schärfeverlust = null ... ich zitiere: "Hintergrund genauso scharf wie bei Fokus auf unendlich" (Hervorhebung von dir). Na ja – und das gibt's eben nicht. Prinzipiell nicht ... auch dann nicht, wenn der Sensor weniger als unendlich viele Pixel hat.
 
Zuletzt bearbeitet:
Du bist so selig damit herauszufinden wie naiv und unwissend ich bin, dass Du gar nicht merkst, dass Du gar nicht meinen Ansatz, sondern das Konzept der Schärfentiefe in Frage stellst.

Deine Aussage läuft darauf hinaus, das es keine Schärfentiefe gibt (außer im Unendlichen), da sich bei jedem Entfernen von der Schärfeebene ja die Auflösungsversluste von Sensor und Fokusunschärfe vermischen. Egal wie ich das Bild hinterher vergrößere oder verkleinere, es bleibt immer ein Schärfeunterschied zwischen Fokusebene und dem Rest.

Diese Aussage ist genauso richtig wie sinnlos.


Im Gegenteil – in der Praxis funktioniert deine Methode ja recht gut.

Ach?
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Das ist der Knackpunkt: genau so einfach lassen sich die Kehrwerte addieren ... auch gern mehr als zwei. Statt Auflösungen in Linienpaaren pro Millimeter oder Punkten pro Zoll oder Grenzfrequenzen könnte man auch Einzel-MTFs betrachten – die müßte man dann entsprechend miteinander multiplizieren.
Du solltest die Ergebnisse mal vergleichen. Wenn es um Aufllösungen im Sinne von MTFxx geht, ist die Formel mit den Kehrwerten i.A. eine genauso schlechte Näherung wie die mit dem Minimum der Auflösungen. Einfaches Beispiel: zwei Systeme mit gleicher MTF-Funktion. Die MTF50-Auflösung des Gesamtsystems entspricht etwa der MTF70-Auflösung der Einzelsysteme, die MTF10-Auflösung etwa der MTF30-Auflösung der Einzelsysteme. Je nach Kurvenverlauf können die jeweiligen Punkte "irgendwo" liegen. Die Minimum-Näherung passt eher, wenn die Kurve zuerst flach verläuft und dann steil abfällt, die Kehrwert-Näherung eher, wenn die Kurve erst steil abfällt und dann flach ausläuft. Eine Definition der Auflösung, die mit deiner Kehrwert-Formel kompatibel ist, kenne ich nicht.

Qualitativ hast du natürlich Recht – in dem Bereich, wo die Defocus-Unschärfe des Objektivs, Beugungsunschärfe und Pixel ähnliche Größe haben, sinkt die Gesamtauflösung unter das Minimum der Einzelauflösungen. Insofern ist die 2-x-Pixelbreite-Schärfentiefe auch nur eine Variante, genau wie 1/1500 Sensordiagonale, nur mit anderem Schärfeanspruch.

L.G.

Burkhard.
 
Deine Aussage läuft darauf hinaus, das es keine Schärfentiefe gibt (außer im Unendlichen), da sich bei jedem Entfernen von der Schärfeebene ja die Auflösungsversluste von Sensor und Fokusunschärfe vermischen. Egal wie ich das Bild hinterher vergrößere oder verkleinere, es bleibt immer ein Schärfeunterschied zwischen Fokusebene und dem Rest.

Diese Aussage ist genauso richtig wie sinnlos.
Wieso sinnlos? Schärfentiefe ist der Bereich, wo der Fotograf/der Betrachter die Aufnahme noch genügend scharf findet. Das kann eben 1/1500 Diagonale sein, "in Pixelansicht sehe ich keinen Unterschied zum perfekt fokussierten Foto" oder "ich kann keinen Schärfeunterschied messen". Ein objektives Maß für Schärfentiefe gibt es nicht.

L.G.

Burkhard.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Es ist ein – wenngleich weit verbreiteter – Irrtum, die für einen gegebenen Sensor maximal mögliche Bildschärfe ergäbe sich dann, wenn die vom Objektiv erzeugten Streukreisdurchmesser nicht größer seien als zweimal der Pixelabstand (zweimal statt einmal wegen der Bayer-Interpolation),
Das ist ein tatsächlich weit verbreiteter Irrtum, der auch durch Wiederholen nicht besser wird.
Diesem Mythos liegt die naive Vorstellung zugrunde, in einer Kette hintereinandergeschalteter auflösungsbegrenzter Übertragungselemente, bei denen das Ausgangssignal des einen Elementes als Eingangssignal für das nächste dient, sei die Systemauflösung, also die Auflösung der gesamten Kette, gleich dem Minimum der Auflösungen der Einzelelemente – so wie die Stärke der Kette gleich der ihres schwächsten Gliedes ist. Diese Vorstellung ist naheliegend, aber falsch. Stattdessen ergibt sich der Kehrwert der Systemauflösung aus der Summe der Kehrwerte der Einzelauflösungen.

1/Rgesamt = 1/R1 + 1/R2
Die genannte naive Vorstellung ist auch richtig beschrieben. Jedoch ist die genannte Summe der Kehrwerte der Einzelauflösungen zwar im Ansatz eine gute Idee, sie liefert aber das schlechtest denkbare Ergebnis. Daher nimmt man bei der Fehlerfortpflanzung zweier unabhängiger Quellen von Unschärfe als Gesamtauflösung die

Wurzel aus der Summe der Quadrate der Einzelauflösungen.

Auch dieser Ansatz ist hier nicht ganz richtig, weil er für die Helligkeitsverteilung der Unschärfekreise jeweils eine Normalverteilung verlangt. Der Unterschied bei 2 Unschärfequellen dürfte in der fotografischen Praxis praktisch nicht feststellbar sein.

Bezogen auf die fotografische Praxis ist die Rechnerei ohnehin Unsinn. Hängt doch die Bildschärfe nicht vom Bild sondern vom Betrachter und seinem Abstand zum Bild ab. Sei also zB ein 2x3m großes Bild aus 1m betrachtet "matschig" so ist es aus 10m Abstand knackscharf.

Genau deswegen ist auch die hyperfokale Dingsda keine Eigenschaft von Kamera/Objektiv. Sie ist nur dann darauf übertragbar, wenn der Betrachtungsabstand festgelegt ist. Die Schärfentiefeskala am Blendenring bezieht sich daher auf einen Betrachtungsabstand=Bilddiagonale.
 

Was ich meine ist, es ist sinnlos theoretisch nach zu weisen, dass es keine Schärfentiefe gibt. Damit ist niemandem geholfen und man kann damit auch nichts für die Fotografie herleiten.


Wurzel aus der Summe der Quadrate der Einzelauflösungen.

Ja, so rechne ich in cBlur auch. Masi hat hier immer noch die Unschärfe durch die Diskreditierung aufgeschlagen, was ja in etwa dem entspricht was 01af schreibt. Führt aber letztendlich dazu:

Bezogen auf die fotografische Praxis ist die Rechnerei ohnehin Unsinn. Hängt doch die Bildschärfe nicht vom Bild sondern vom Betrachter und seinem Abstand zum Bild ab.

und damit dazu, dass man beim Fotografieren überhaupt keine Aussage darüber machen kann, ob ein Bild später als scharf wahrgenommen wird. Was zwar auch wieder richtig aber auch wenig hilfreich ist, da ich nicht weiß wie die Schärfe zwischen Vorder- und Hintergrund balancieren muss.


Alles was ich hier tue ist einen (einfachen) Zusammenhang zwischen der Schärfe auf Pixelebene und der allgemeinen Schärfeberechnung her zu stellen. Wenn man also 2x (oder auch 1.5x oder 1x) den Pixelpitch als Maßstab/Zerstreuungskreis nimmt, hat man in der 100% Ansicht immer eine ähnliche Schärfe, egal ob 3 oder 30 MPixel Kamera. Und bekommt damit eine bessere Verteilung der Schärfe zwischen Vorder- und Hintergrund hin als mit jedem anderen Verfahren das ich kenne und das unabhängig von der späteren Vergrößerung.
 
WERBUNG
Zurück
Oben Unten