WERBUNG

Ist so wenig Tiefenschärfe normal?

Modertier

Themenersteller
Beim Verwenden von meinem EF85/1,8 , dem EF50/1,4 für Kopfportraits ist mir schon oft die sehr geringe Tiefenschärfe bei Blende 2,0 und weniger aufgefallen.
Auch bei Blende 2,8 sind bei einem fast frontal aufgenommenen Kopfportrait nicht immer beide Augen scharf...
Damit muss man eben leben (oder größere Blendenzahlen benutzen)

ABER:

Das Beispielfoto wurde mit f22 gemacht damit auch die Ohrringe scharf sind. mit dem Ergebnis bin ich aber nicht wirklich zufrieden...
Ist das der normale Fotoalltag oder bin ich für irgendwas zu blöde?
 

Anhänge

kann es sein, dass Du mit beim Fokussieren
nicht auf Nachführen gestellt hast...?
 
kann es sein, dass Du mit beim Fokussieren
nicht auf Nachführen gestellt hast...?

ja, wurde mit "One Shot" gemacht (wie immer)

und das mit dem "Servo AF" für Blenden kleiner alos f2,8 werde ich mal in Ruhe üben :evil:
 
Das Auge hat ja auch keine Beugungsunschärfe......oder gibt es die nur am Rand?

Hat das Auge denn auch Blende 22 zur Verfügung? :D:D

Vorsicht! Die Vergleiche zwischen Fotokamera und Auge hinken nicht einmal, sondern sind komplett beinamputiert. Weil das Auge keine Einzelbilder schießt, sondern wie eine Videocam permanent aufzeichnet und das Gehirn dahinter perfekte Bilder aus einem technisch miesen Videostream errechnet. Dabei kommen auch Algorithmen zur Anwendung, die ähnlich wie Focus-Stacking oder auch HDR funktionieren.

Gruß
Pixelsammler


Nachtrag: die Schärfentiefe des eingestellten Beispielbildes finde ich gar nicht so schlecht. Ich vermute bei dem Ohrring eher eine leichte Verwacklungsunschärfe, schließlich ist es ja ein hängendes und damit auch ein schwingendes Gebilde. Bei einer Belichtungszeit von 1/80 Sekunde würde ich Verwacklung nicht ausschließen.
 
Zuletzt bearbeitet:
Hat das Auge denn auch Blende 22 zur Verfügung? :D:D

Vorsicht! Die Vergleiche zwischen Fotokamera und Auge hinken nicht einmal, sondern sind komplett beinamputiert. Weil das Auge keine Einzelbilder schießt, sondern wie eine Videocam permanent aufzeichnet und das Gehirn dahinter perfekte Bilder aus einem technisch miesen Videostream errechnet. Dabei kommen auch Algorithmen zur Anwendung, die ähnlich wie Focus-Stacking oder auch HDR funktionieren.

Gruß
Pixelsammler

Du hast da was falsch verstanden, glaub ich. Er meint, am Auge sieht er keine Unschärfe.
 
Ich wuerde behaupten, das ist bei diesem Abbildungsmasstab zumindest nicht unnormal. Der Fokus liegt zudem vielleicht etwas weit vorne (Fokus-Shift vielleicht?), so dass der Mund noch in der Tiefenschaerfe liegt, die Ohrringe aber nicht mehr wirklich. Legt man den Fokus passend, sollte es eigentlich moeglich sein, Ohrringe, Augen und Mund gleichzeitig scharf zu bekommen.

Aber ja, die Tiefenschaerfe ist halt nicht so wahnsinnig gross.
 
100mm bei f/22 ergibt auf eine Fokusdistanz von 88cm eine Schärfeebene von 9.35cm. Davon lediglich 4.43cm vor dem fokussierten Punkt. (Ein Hoch auf den DOF-Rechner :) )
Und das sind lediglich Angaben zur "akzeptablen" Schärfe. Was akzeptabel ist und was nicht, ist subjektiv und verändert sich mit der Technik.
 
Muss man nicht auch den Sweet Spot des Objektivs Berücksichtigen ? Ich meine mal gelesen zu haben dass jenseits dieser Blende mit der maximalen Schärfe doch die Schärfe wieder abfällt - es also nix bringt die Blende möglichst klein zu machen , weil dadurch zum einen die Schärfentiefe abnimmt, aber zum anderen auch die Schärfe die das Objektiv maximal abbildet.
 
1... (Ein Hoch auf den DOF-Rechner :) )
Und das sind lediglich Angaben zur "akzeptablen" Schärfe. Was akzeptabel ist und was nicht, ist subjektiv und verändert sich mit der Technik.

Das oben angesprochene ist so mein Hauptproblem mit dem DOF-Rechner: Wie kann eine mathematisch und physikalisch korrekte Rechnung in einem Ergebnis münden das subjektiv eine akzeptabele Schärfe beschreibt. Ich war immer der Meinung das es zumindest in der Mathematik und in der Physik ein eindeutiges Ergebnis gibt und kein subjektives "die Schärfe könnte akzeptabel sein"
 
Ich war immer der Meinung das es zumindest in der Mathematik und in der Physik ein eindeutiges Ergebnis gibt


Gibt es auch: ALLES außerhalb der Fokussierebene ist unscharf, d.h. JEDER sich nicht auf dieser Ebene befindende Punkt wird als Scheibe abgebildet (Bildfeldwölbung mal aussen vor). Bei welchem Scheibendurchmessers diese nun noch als Punkt (sprich: ausreichend scharf) wahrgenommenen wird, hängt von einigen, teils subjektiven Kriterien, ab.
 
Da aber "Schärfe" eine sehr subjektive Angelegenheit ist, zeigt der Mensch der Physik hier Grenzen auf. Wie scharf etwas auf dem Sensor sein muss, hängt in erster Linie von der Ausgabegrösse und dem Betrachtungsabstand ab. Der Zerstreuungskreis, der von den gängigen DOF-Rechnern genommen wird, ist relativ groß, d.h. für Pixelpeeping absolut ungeeignet. Wer vor der Aufnahme weiß, wie groß das Bild gedruckt wird und aus welcher Entfernung es betrachtet wird, kann entsprechend den notwendigen Zerstreuungskreis ausrechnen und dann kommen auch wieder objektive Resultate raus. ;)

@missGarfield: Beim Abblenden nimmt die Tiefenschärfe immer zu, nur irgendwann ist die Beugung so stark, dass die Beugungsunschärfe das wieder überlagert.
 
Da aber "Schärfe" eine sehr subjektive Angelegenheit ist, zeigt der Mensch der Physik hier Grenzen auf. Wie scharf etwas auf dem Sensor sein muss, hängt in erster Linie von der Ausgabegrösse und dem Betrachtungsabstand ab. Der Zerstreuungskreis, der von den gängigen DOF-Rechnern genommen wird, ist relativ groß, d.h. für Pixelpeeping absolut ungeeignet.

Sagen wir mal eher Pixepeeping ist Blödsinn. Und ein Mensch zeigt der Physik keine Grenzen auf. Der Zerstreungskreis als Grundlage für die DOF-Rechner kann normalerweise eingestellt werden. Über die Grenzen der Physik und den Fähigkeiten des Auges wirst du aber nicht hinauskommen.

Und wie scharf etwas sein muss hängt allein von der Auflösung des menschlichen Auges ab. Da mittlere Auflösungsvermögen des unbewaffneten Auges ist ca. 1 Winkelminute, damit können wir 2 Punkte die 2 Winkelminuten entfernt sind voneinander trennen. Der übliche (für Otto-normalverbraucher, nicht dem Drucker mit dem Fadenzähler) Betrachtungsabstand eines Bildes liegt bei der Bilddiagonalen, das sind beim Sehwinkels des Auges ca. 50°=3000 Winkelminuten, somit erkennen wir eine Unschärfe von 1/1500 der Sensordiagonalen (wenn das volle Bild genommen wird, kein Ausschnitt), somit ist der Zerstreungskreis für KB-Format 0.03mm, APSC-1.5 (Pentax, Nikon) 0.02 mm, APSC-1.6 (Canon) 0.01875mm, 4/3 0.015mm

siehe auch https://de.wikipedia.org/wiki/Zerstreuungskreis
 
Zuletzt bearbeitet:
...Sagen wir mal eher Pixepeeping ist Blödsinn....

...achja, Zahlenpeeping etwa nicht??? Du kannst mit dem Ergebnis Deiner Berechnungen nicht beurteilen, ob die Schärfe in der Bildwiedergabe passt oder nicht. Dazu ist subjektives Empfinden erforderlich, das den Gesamteindruck berücksichtigt.
 
Zuletzt bearbeitet:
Dazu ist subjektives Empfinden erforderlich, die den Gesamteindruck berücksichtigt.

Genau, daher helfen ja auch so Späße wie Kantenaufsteilung, Kontrasterhöhung etc. den Schärfeeindruck zu erhöhen, obwohl effektiv Bildinformationen zerstört werden.
Letztens zeigte mir eine Freundin wieder ganz stolz wie sie aus einem völlig fehlfokussierten Bild "was ganz tolles" gemacht hat. Filter drüber, sah dann aus wie dieses 2bit Graustufenbild. "Und schau nur wie scharf das jetzt ist".


Aaaaahhh... :ugly:
 
Das oben angesprochene ist so mein Hauptproblem mit dem DOF-Rechner: Wie kann eine mathematisch und physikalisch korrekte Rechnung in einem Ergebnis münden das subjektiv eine akzeptabele Schärfe beschreibt. Ich war immer der Meinung das es zumindest in der Mathematik und in der Physik ein eindeutiges Ergebnis gibt und kein subjektives "die Schärfe könnte akzeptabel sein"

Die üblichen und "alle Nase lang" hier verlinkten Doofrechner benutzen ein einfaches strahlenoptisches Modell der Abbildung außerhalb der Fokusebene eines Objektivs und ein geradezu lächerlich einfaches Modell der Auflösung des menschlichen Sehsinns, wo dann i.a. auch noch von der Betrachtung eines Fotos aus einer Entfernung ausgegangen wird, die seiner Bilddiagonale entspricht. Das Ergebnis solch einer Modellrechnung dann überhaupt auf 2 Nachkommastellen genau anzugeben, ist einer der Gründe, weshalb ich sie fast alle "doof" nenne. Es gibt aber noch mehr Gründe.


Gruß, Matthias
 
Die üblichen und "alle Nase lang" hier verlinkten Doofrechner benutzen ein einfaches strahlenoptisches Modell der Abbildung außerhalb der Fokusebene eines Objektivs und ein geradezu lächerlich einfaches Modell der Auflösung des menschlichen Sehsinns, wo dann i.a. auch noch von der Betrachtung eines Fotos aus einer Entfernung ausgegangen wird, die seiner Bilddiagonale entspricht. Das Ergebnis solch einer Modellrechnung dann überhaupt auf 2 Nachkommastellen genau anzugeben, ist einer der Gründe, weshalb ich sie fast alle "doof" nenne. Es gibt aber noch mehr Gründe.


Gruß, Matthias

Na ja. Die Frage geht hier ja nicht darum was jemand mit einer 10 Dioptrenbrille oder ein Adler als scharf empfindet, sondern eher darum ab wann unter vernünftigen Umständen ein durchschnittliches menschliches Auge überhaupt noch in der Lage ist etwas als scharf oder unscharf zu unterscheiden.

Werden bei vorgegebener Umgebung die angegebenen Kritierien unterschritten, so ist das menschlich Auge nicht mehr in der Lage einen Unterschied zu sehen. Liegen also mehr Informationen innerhalb der 2 Bogenminuten Auflösung, kann sich ein Pixelpeeper mit der Lupe erfreuen, ein normaler Mensch, der das Bild ansieht wird diese Details nicht mehr erkennen können. Und erst wenn der Wert über diese Grenze von zwei Bogenminuten hinausgeht wird er eine Unschärfe erkennen können vorher nicht.

Und zwei Stellen hinter dem Komma können wir gerne auch abändern aus 0.02mm wird dann halt 20 µM, dann hast du keine Stellen nach dem Komma, vielleicht beruhigt das. Und eine Vereinfachung des Models ist mit Sicherheit zulässig wenn die höheren Terme vielleicht Korrekturen im 10 Prozent Bereich erbringen, das wäre in deiner Nomenklatur dann in der dritten Stelle hinter dem Komma.


Aber ich erfreu mich lieber an den Bildern an der Wand, so daß ich sie ganz sehe und setze mich nicht mit einer Lupe (Fadenzähler) in 5cm Abstand davor und stelle fest welche Düse an dem 90cm Plotter bei dem 60*90cm großen Bild heute nicht funktioniert hat.

Diese Angaben dienen ja als Anhalt (Daumenregel also grob), damit man vorher abschätzen kann ob es funktionieren wird.

Das man durch optische (durchaus sinnvolle) Tricks erreichen kann, das die Wahrnehmung (nicht das Sehen) beinflusst wird steht auf einem ganz anderen Blatt und hat hier mit der Diskussion nichts zu tun. Auch die altersabhängige Sehfähighkeit wird ja sinnvollerweise aussen vor gelassen.

Diese Diskussion kommt mir oftmals so vor wie in den Hifi-Zeiten, als man mit Spektrumanalysern den Freuenzgang von Boxen nachgemessen hat und nur vergoldete Kabel mit 5mm^2 zum Anschluß nahm, mit der Behauptung man könne das genau hören und dann lag die Auswertung des letzten Hörtests auf dem Tisch, der sagte das ab 10Khz das Hören in die Binsen geht
 
WERBUNG
Zurück
Oben Unten