Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Wenn ich nun die Skyline von New York vom Rockefeller Center ablichten möchte und möchte möglichst viele Bildanteile scharf haben sollte ich also am besten auf die Hyperfokale Distanz fokussieren, richtig ?
Was bedeutet dies nun genau. Fokussiert man dann manuell oder fokussiert man mit z.B. dem mittleren Autokokus-Messfeld ? Fokussiert man (manuell oder mit Autofokus) auf ein Objekt was auf der Hyperfokalen Distanz liegt und verschwenkt dann ?
Mal angenommen ich fotografiere mit einer 5D Mark II und einem 24-105 Objektiv bei 24 mm und einer Blende von 8. Von einem Stativ aus.
Das Objekt was ich auf jeden Fall scharf haben möchte ist das Emipre State Building in 1700 m entfernung
Laut meinem DoF rechner liegt die Hyperfokale Distanz dann bei 2,4 m, ich müsste dann quasi auf den Boden vor meinen Füßen fokussieren.
RFC = Rockefeller Center - oder anders ausgedrückt, fokussiere auf dein Hauptmotiv wenn du es so willst.
Wenn bei Dir weitwinklige Skylines mit HFD nichts werden, kann das eigentlich nur daran liegen, dass Du die "normale" HFD wie man sie in jedem DOF-Rechner bestimmen kann verwendest (in diesem Thread geht es um 2xPixelpitch als max. Zerstreuungskreis s. erster Beitrag hier), oder das Du das mit dem Abschätzen der Fokusdistanz nicht hin bekommst.Und für eine Skyline ist - egal ob vom oder mit dem RFC - die HFD-Methode nunmal nicht gut.
... braucht man überhaupt keine Schärfe verschenken, wie das HFD zwangsläufig macht.
Selbst wenn das nächste wichtige Gebäude nur 50, 100m entfernt ist, und der Rest kilometerweit am Horizont - eine Foussierung auf ein paar wenige Meter ist da grundfalsch. Ob jetzt 2m, oder 10m mit "vorsichtigerer HFD" - beides ist da Unsinn.
Dies mal ganz abgesehen davon, dass ich pixelbasierte HFD-Rechnerei als methodischen Bauchschmerz mitempfinde.
Es ist ein – wenngleich weit verbreiteter – Irrtum, die für einen gegebenen Sensor maximal mögliche Bildschärfe ergäbe sich dann, wenn die vom Objektiv erzeugten Streukreisdurchmesser nicht größer seien als zweimal der Pixelabstand (zweimal statt einmal wegen der Bayer-Interpolation), und daß eine Verkleinerung der Streukreisdurchmesser über dieses Maß hinaus "nichts brächte", weil's der Sensor schließlich gar nicht mehr auflösen könne.... schon länger mal zeigen wollte, wie man die Hyperfokalmethode mit wirklich scharfem Hinter- und Vordergrund hinbekommt. [...]
Das Rezept ist einfach. Man nimmt als Zerstreuungskreisdurchmesser zweimal die Kantenlänge eines Pixels auf dem Sensor und rechnet damit die Hyperfokaldistanz aus. Das sorgt dafür, dass der Hintergrund so scharf wird, dass die Auflösung des auf den Sensor projizierten Bildes der Kameraauflösung entspricht. Mehr Schärfe kann die Kamera eh nicht aufnehmen.
Es ist ein – wenngleich weit verbreiteter – Irrtum, die für einen gegebenen Sensor maximal mögliche Bildschärfe ergäbe sich dann, wenn die vom Objektiv erzeugten Streukreisdurchmesser nicht größer seien als zweimal der Pixelabstand (zweimal statt einmal wegen der Bayer-Interpolation), und daß eine Verkleinerung der Streukreisdurchmesser über dieses Maß hinaus "nichts brächte", weil's der Sensor schließlich gar nicht mehr auflösen könne.
Diesem Mythos liegt die naive Vorstellung zugrunde, in einer Kette hintereinandergeschalteter auflösungsbegrenzter Übertragungselemente, bei denen das Ausgangssignal des einen Elementes als Eingangssignal für das nächste dient, sei die Systemauflösung, also die Auflösung der gesamten Kette, gleich dem Minimum der Auflösungen der Einzelelemente – so wie die Stärke der Kette gleich der ihres schwächsten Gliedes ist. Diese Vorstellung ist naheliegend, aber falsch.
Stattdessen ergibt sich der Kehrwert der Systemauflösung aus der Summe der Kehrwerte der Einzelauflösungen.
1/Rgesamt = 1/R1 + 1/R2
..., dass ich schon länger mal zeigen wollte, wie man die Hyperfokalmethode mit wirklich scharfem Hinter- und Vordergrund hin bekommt .
Um meine Ausführungen zu untermauern, habe ich einmal selber ein paar Testaufnahmen angefertigt. Ich verwendete – genau wie in den eingangs gezeigten Beispielbildern – eine digitale Kleinbildkamera mit 24-mm-Objektiv (aber ohne Tiefpaßfilter). Wie man sieht, ist bei Fokussierung auf unendlich die Schärfe im weit entfernten Hintergrund stets klar erkennbar besser als bei Fokussierung nach der "pixelbasierten Hyperfokalmethode" ... wenngleich der Unterschied nur klein ist und somit für bildmäßige Anwendungen kaum eine Rolle spielen dürfte.
...
Dennoch – die Behauptung "schärfer geht's nicht" ist klar widerlegt.
Nein, dein "Modell" ist nicht "stark vereinfacht". Sondern es ist grundverkehrt. Es ist nicht einmal ein Modell ... sondern bloß ein Mißverständnis.Ja, es ist nur ein stark vereinfachtes Modell mit Fehlern.
Nun – daß die Betrachtung einer Kamera als Kette aus nur zwei Komponenten eine Vereinfachung sei, sagte ich ja bereits. Natürlich sind's in Wirklichkeit viel mehr – allein der Sensor besteht ja schon aus mindestens fünf oder sechs hintereinandergeschalteten Elementen.Deinem Modell liegt die naive Vorstellung zugrunde, dass die einzelnen Komponenten tatsächlich jeweils nur eine Auflösung haben ...
Das ist der Knackpunkt: genau so einfach lassen sich die Kehrwerte addieren ... auch gern mehr als zwei. Statt Auflösungen in Linienpaaren pro Millimeter oder Punkten pro Zoll oder Grenzfrequenzen könnte man auch Einzel-MTFs betrachten – die müßte man dann entsprechend miteinander multiplizieren. Im Prinzip jedenfalls. Das ist der entscheidende Unterschied zu deinem, äh, "Modell". Aus deinem Modell lassen sich gar keine Erkenntnisse ableiten ... nicht einmal vereinfachte, nicht einmal vom Prinzip her.... die sich dann auch noch auf so einfache Weise addieren lassen.
Ganz genau das meine ich auch.Die Komplexität eines Modells sollte dem Zweck angemessen sein.
Wie kommst du diese Idee?Du verwendest eine modifizierte Kamera ...
Seufz ... eigentlich hatte ich gehofft, du wärst zu einer differenzierteren Diskussion fähig. Ich hatte doch mehrfach betont, daß es eben kein "Riesenfehler" ist. Im Gegenteil – in der Praxis funktioniert deine Methode ja recht gut. Aber daß die Bilder nach der Merklinger-Methode, also bei Fokussierung auf unendlich, schärfer werden, erkennt man ja sogar schon in den Miniaturen der Bilder, die übrigens einer 80-%-Ansicht entsprechen. Die 400-%-Ansicht, die beim Anklicken der Miniaturen erscheint, dient also nur der Verdeutlichung.... zeigst Bilder in 400 % Vergrößerung, bei denen dann eins ein wenig besser ist, um – im herablassendem Tonfall – zu beweisen welch Riesen-Fehler ich mit der Methode gemacht habe?!
Im Gegenteil – in der Praxis funktioniert deine Methode ja recht gut.
Du solltest die Ergebnisse mal vergleichen. Wenn es um Aufllösungen im Sinne von MTFxx geht, ist die Formel mit den Kehrwerten i.A. eine genauso schlechte Näherung wie die mit dem Minimum der Auflösungen. Einfaches Beispiel: zwei Systeme mit gleicher MTF-Funktion. Die MTF50-Auflösung des Gesamtsystems entspricht etwa der MTF70-Auflösung der Einzelsysteme, die MTF10-Auflösung etwa der MTF30-Auflösung der Einzelsysteme. Je nach Kurvenverlauf können die jeweiligen Punkte "irgendwo" liegen. Die Minimum-Näherung passt eher, wenn die Kurve zuerst flach verläuft und dann steil abfällt, die Kehrwert-Näherung eher, wenn die Kurve erst steil abfällt und dann flach ausläuft. Eine Definition der Auflösung, die mit deiner Kehrwert-Formel kompatibel ist, kenne ich nicht.Das ist der Knackpunkt: genau so einfach lassen sich die Kehrwerte addieren ... auch gern mehr als zwei. Statt Auflösungen in Linienpaaren pro Millimeter oder Punkten pro Zoll oder Grenzfrequenzen könnte man auch Einzel-MTFs betrachten – die müßte man dann entsprechend miteinander multiplizieren.
Wieso sinnlos? Schärfentiefe ist der Bereich, wo der Fotograf/der Betrachter die Aufnahme noch genügend scharf findet. Das kann eben 1/1500 Diagonale sein, "in Pixelansicht sehe ich keinen Unterschied zum perfekt fokussierten Foto" oder "ich kann keinen Schärfeunterschied messen". Ein objektives Maß für Schärfentiefe gibt es nicht.Deine Aussage läuft darauf hinaus, das es keine Schärfentiefe gibt (außer im Unendlichen), da sich bei jedem Entfernen von der Schärfeebene ja die Auflösungsversluste von Sensor und Fokusunschärfe vermischen. Egal wie ich das Bild hinterher vergrößere oder verkleinere, es bleibt immer ein Schärfeunterschied zwischen Fokusebene und dem Rest.
Diese Aussage ist genauso richtig wie sinnlos.
Das ist ein tatsächlich weit verbreiteter Irrtum, der auch durch Wiederholen nicht besser wird.Es ist ein – wenngleich weit verbreiteter – Irrtum, die für einen gegebenen Sensor maximal mögliche Bildschärfe ergäbe sich dann, wenn die vom Objektiv erzeugten Streukreisdurchmesser nicht größer seien als zweimal der Pixelabstand (zweimal statt einmal wegen der Bayer-Interpolation),
Die genannte naive Vorstellung ist auch richtig beschrieben. Jedoch ist die genannte Summe der Kehrwerte der Einzelauflösungen zwar im Ansatz eine gute Idee, sie liefert aber das schlechtest denkbare Ergebnis. Daher nimmt man bei der Fehlerfortpflanzung zweier unabhängiger Quellen von Unschärfe als Gesamtauflösung dieDiesem Mythos liegt die naive Vorstellung zugrunde, in einer Kette hintereinandergeschalteter auflösungsbegrenzter Übertragungselemente, bei denen das Ausgangssignal des einen Elementes als Eingangssignal für das nächste dient, sei die Systemauflösung, also die Auflösung der gesamten Kette, gleich dem Minimum der Auflösungen der Einzelelemente – so wie die Stärke der Kette gleich der ihres schwächsten Gliedes ist. Diese Vorstellung ist naheliegend, aber falsch. Stattdessen ergibt sich der Kehrwert der Systemauflösung aus der Summe der Kehrwerte der Einzelauflösungen.
1/Rgesamt = 1/R1 + 1/R2
Wieso sinnlos?
Wurzel aus der Summe der Quadrate der Einzelauflösungen.
Bezogen auf die fotografische Praxis ist die Rechnerei ohnehin Unsinn. Hängt doch die Bildschärfe nicht vom Bild sondern vom Betrachter und seinem Abstand zum Bild ab.