• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Zerstreuungskreis für VF neuerdings 0,025 mm?

Re: Zerstreuungskreis für VF neuerdings 0,025mm?

Wenn man will, dass ein Motiv in der 100%-Ansicht keine sichtbare Unschärfe aufweist, muss es innerhalb des Schärfentiefenbereichs liegen, der mit einem ZK in der Grösse eines Pixels gerechnet ist.
Jetzt hab' ich (glaub' ich) kapiert worauf es Dir ankommt, Matthis. Trifft es folgendes in etwa?

  • Was ist 100%-Ansicht? Das Bild wird entweder so stark vergrößert, oder ich gehe so nah ran, dass ich jedes Pixel erkennen kann.
  • ZKs, die nicht über ein einzelnes Pixel hinausgehen, zählen somit zum tiefenscharfen Bildbereich, ZKs darüberhinaus zum tiefenunscharfen.
  • Damit ist aber klar, dass die Schärfentiefe damit ultraklein ist - eigentlich sogar kleinstmöglich, denn bei noch stärkerer Vergrößerung würde das Bild insgesamt unscharf.

Damit ist die Argumentationskette bei Dir nur eine andere, als bei mir:

Ich: Gegeben: Bildgröße, Betrachtungsabstand. Resultat: ZK-Obergrenze

Du:
Entweder: Gegeben: ZK-Obergrenze physischer Durchmesser eines Pixels, Betrachtungsabstand. Resultat: Bildgröße
Oder: Gegeben: ZK-Obergrenze physischer Durchmesser eines Pixels, Bildgröße. Resultat: Betrachtungsabstand

Im Grunde ist beides aber dasselbe.

- Cocker :wq
 
Zuletzt bearbeitet:
AW: Re: Zerstreuungskreis für VF neuerdings 0,025 mm?

Ich habe mal versucht das in meine Worte zu fassen.


Völlig einverstanden. Halten wir zunächst fest: "Tiefenschärfe" und/oder Schärfentiefe werden bei der Aufnahme festgeschrieben.

Ich versuch das jetzt auch mal in meine Worte zu fassen:

Die *Erkennbarkeit* (!) von Schärfe beim Betrachten hat mit dem Betrachtungsabstand zu tun. Logisch. Eine Zeitung kann man auf 20cm Abstand besser lesen als auf 20m Abstand . . . Es ändert sich aber nicht die Schärfe der Buchstaben in der Zeitung auf wundersame Weise bei unterschiedlichen Entfernungen.

Die Schärfentiefe und auch die Tiefenschärfe des Bildes ändern sich NICHT beim Betrachten aus unterschiedlichen Abständen. Können sie nicht - denn sie sind in Negativ/Dia/Datei aufgezeichnet und festgeschrieben.

Die ERKENNBARKEIT der im Bild *unwiderruflich festgeschriebenen* Schärfe/Unschärfeverläufe verändert sich mit der Deutlichkeit, die beim Betrachten besteht - sprich: dem Abstand, mit dem ein Bild betrachtet wird.
Näher dran: deutlicher, weil alles (!) größer. Weiter weg: weniger deutlich, weil alles (!) kleiner.
Das Gleiche trifft nat. auch beim Vergrößern des ganzen Bildes zu: je größer es vergrößert wird, desto *deutlicher erkennbar* ist auch der Schärfe-/Unschärfeverlauf im Bild (und nicht nur der - auch Artefakte werden deutlicher sichtbar.)

Der Schärfe-/Unschärfeverlauf *des Bildes* ÄNDERT sich aber NICHT! Also kann man auch nicht sagen, Tiefenschärfe oder Schärfentiefe seien vom Betrachtungsabstand abhängig - oder gar NUR vom Betrachtungsabstand abhängig. Wie auch schonmal behauptet wurde.

Ihre ERKENNBARKEIT ist es aber - natürlich.

Es geht also um zwei Dinge, die unabhängig voneinander sind:

1) Schärfeverlauf im Bild - festgeschrieben.
2) ERKENNBARKEIT des Schärfeverlaufs des Bildes - variabel durch Betrachtungsabstand/Darstellungsgröße/Deutlichkeit.

"Zum Tiefenschärfeverlauf kann man sagen, er sei
  • abrupt oder sanft
"

sagen wir lieber: stärker oder weniger stark fließend. Niemals aber wirklich "abrupt".
 
Vermutlich vermutet HtPC, dass hier nicht nur gestitched, sondern auch gestacked wurde...

nur gestitched. Auf Deutsch: einzelne Bilder in mehreren Reihen nebeneinander gesetzt. KEIN Focusstacking!
Die Datei wurde auch NICHT geschärft!
Was zu sehen ist, ist die originale Auflösung des Objektivs - bei f:11 und ca. 1/60sek, 100ISO, RAW (Spiegelvorauslösung, Schwerer Nodalkopf und gutes Stativ).
RAW ohne Zwischenschritt in AutoPanoPro.
 
Völlig einverstanden. Halten wir zunächst fest: "Tiefenschärfe" und/oder Schärfentiefe werden bei der Aufnahme festgeschrieben.

Wieso Völlig einverstanden????
schockiert_26.gif

Deine Position ist doch meiner genau entgegengesetzt!

Die Schärfentiefe ist abstands- und vergrößerungsabhängig! Sie ist abhängig davon was beim Betrachten als tiefenscharf akzeptiert wird.

Ein Mensch wird demselben Bild eine größere Schärfentiefe zuordnen, als ein Adler.

Beispiel:
  • Fotografiere ein Maßband.
  • Betrachte das Foto und entscheide: Scharf ist es von 2,5m bis 2,8m
  • Wahlweise verkleinerst Du das Foto nun, oder entfernst Dich etwas, was denselben Effekt hat.
  • Betrachte das Foto und entscheide: Scharf ist es von 2,0m bis 3,2m

Schärfentieferechner gehen davon aus, dass der Betrachtungsabstand gleich der Bilddiagonalen ist!

Wie kann man da der Ansicht sein, die Schärfentiefe sei eine ureigenste Eigenschaft des physischen Bildes und werde zum Aufnahmezeitpunkt festgeschrieben?

Anderes Beispiel:
  • Fertiger Ausdruck
  • Bestimme wie oben die Schärfentiefe.
  • Mache einen Ausschnitt und bestimme sie erneut, mit dem Ergebnis, dass ein kleinerer Wert herauskommt.
  • Oder stelle Dir vor, jemand offenbarte Dir, Dein ursprünglich bewertetes Bild sei nur ein Ausschnitt eines viel größeren...

- Cocker :wq
 
Zuletzt bearbeitet:
AW: Re: Zerstreuungskreis für VF neuerdings 0,025mm?

Jetzt hab' ich (glaub' ich) kapiert worauf es Dir ankommt, Matthis. Trifft es folgendes in etwa? [...]
Damit ist die Argumentationskette bei Dir nur eine andere, als bei mir:

Ich: Gegeben: Bildgröße, Betrachtungsabstand. Resultat: ZK-Obergrenze

Du:
Entweder: Gegeben: ZK-Obergrenze physischer Durchmesser eines Pixels, Betrachtungsabstand. Resultat: Bildgröße
Oder: Gegeben: ZK-Obergrenze physischer Durchmesser eines Pixels, Bildgröße. Resultat: Betrachtungsabstand

Im Grunde ist beides aber dasselbe.

- Cocker :wq
Genau! Es geht mir eigentlich darum, dass die herkömmliche, für normale Bildbetrachtung gerechnete Berechnung der Schärfentiefe nicht passt, wenn man die 100%-Ansicht verwendet. Wenn man das nicht berücksichtigt, wundert man sich dann, wenn beim Pixelpeeping Objekte unscharf sind, obwohl sie im Schärfentiefebereich liegen.

Deshalb finde ich es auch nicht a priori unberechtigt, wenn in den Zeiten allgemeinen Pixelpeepings und Nase-auf-dem-Ausdruck-Plattdrückens über den "üblichen" Betrachtungsabstand und den daraus errechneten Zerstreuungskreis nachgedacht wird.
 
AW: Zerstreuungskreis für VF neuerdings 0,025mm?

WIE, glaubst Du denn, kommt das Abbild der Welt auf den Chip . . :rolleyes:

Das Objektiv projeziert doch jedes einzelne der vielen Bilder auf den Chip - wie sollte es also
"soviel mit dem Bildprodukt zu tun haben, wie der Bremsstreifen auf dem Asphalt mit der Automarke."

Das Objektiv ist das wesentliche Element dabei - egal, ob ein Bild allein oder 600 Bilder zusammengsetzt.

Bremsen kann man mit jedem Auto ( Kamera / Chip) und zum Fahren braucht jedes Reifen (Objektiv).

Wo ist den jetzt das Problem? Das kann jedes andere System auch
Es ist nur nicht mehr alleinig eine Produkt von Kamera und Objektiv, sondern im maßgeblich das einer Software, ohne die es überhaupt nicht möglich wäre.

das einzige System aus Objektiv und Kamera, das es so kann ist glaube ich das Hubble, mit den Deepspacefield Aufnahmen.
Da kann man immer näher an das ausbelichtete Foto treten und entdeckt zuvor nicht aufgelöste Galaxien im Detail.

In wieweit dort mit Sicherheit auch eine Software zur Steuerung des Systems benötigt wird weis ich nicht, nehme es aber an.

Daher sollte man schon die Software angeben, und nicht nur die HW.

MfG
 
Ein kleiner Einwurf vielleicht:

das was beim Schärfentieferechner als "Zerstreuungskreis" bezeichnet wird, ist eigentlich der "maximal akzeptable Zerstreuungskreis".

Diese Kurzfassung macht die Sache natürlich noch schlimmer :)

Ich finde - und das war der Grund meiner Anregung zur Reflexion - das Problem liegt bei der Fixierung auf den Begriff "Zerstreuungskreise".
Jeder Fotograf - egal ob Amateur oder Profi - weiß, wie man Tiefenschärfe beim Fotografieren herstellt: durch das Kombinieren von Fokus und Blende.

Ich glaube eins der Verständnis - und Verständigungsprobleme besteht darin, daß man als Profi nicht über solche Dinge theoretisiert sondern mit ihnen visuell umgeht. Ich sagte deshalb "als Profi", weil die Zusammenhänge bei z. B. Großbildkameras mit ihren sehr langen Brennweiten bei großen Bildkreisen unbd sehr großen Mattscheiben SOFORT erkennbar sind.
Man SIEHT den Schärfeverlauf bis ins Kleinste - was bei den Winz-Suchern von DSLRs nicht möglich ist (auch nichgt bei KBs).
Darüberhinaus geht man mit Schärfeverläufen selbstverständlicher um, weil das Verschwenken und/oder Verschieben von Objektiv- und Filmstandarten permanente VISUELLE Kontrolle des Schärfenverlaufs erfordert.

Mit Formeln und Rechnen ist da gar nix, wenn man abenteuerlich verdrehte/verschwenkte/verschobene Standarten hat, um Schärfe EXAKT DAHIN zu legen, wo man sie braucht - und in EXAKT dem Maß, der Ausdehnung in der man sie verteilt haben MUSS.

Um die Zusammenhänge nicht nur rechnerisch/theoretisch zu betrachten sondern mit ihnen umzugehen kann ich jedem Interessierten nur wärmstens empfehlen, sich mal mit einer Fachkamera die tatsächlichen Implikationen der Begriffe nachzuvollziehen. Vielleicht gibt es Gelegenheiten in der Nähe.

Ich hab´s, glaube ich, schonmal gesagt: Fotografen beschäftigen sich nicht ZKs. Sie beschäftigen sich mit Schärfe und Unschärfe . . Tiefenschärfe halt . . :p (egal, ob einer es Tiefenschärfe oder Schärfentiefe nennen will).
 
AW: Re: Zerstreuungskreis für VF neuerdings 0,025 mm?

Wieso Völlig einverstanden????
schockiert_26.gif

Deine Position ist doch meiner genau entgegengesetzt!

Die Schärfentiefe ist abstands- und vergrößerungsabhängig! Sie ist abhängig davon was beim Betrachten als tiefenscharf akzeptiert wird.


Hi Cocker68,

du verstehst nicht ganz den Standpunkt von Klaus. Um es mit deinem Schreibstil auszudrücken meint er (und was auch richtig ist), dass der Anstellwinkel der Zertreuungskegel mit der Blende und dem Abbildungsmaßstab während der Belichtung unwiederbringlich fix ist.

Nun wird das Auflösungsvermögen des optische Systems ausschlaggebend für die Schärfentiefe. Dieses optische System besteht aus dem Objektiv, dessen Auflösung begrenzt ist, des Aufnahmemediums, dessen Auflösung begrenzt ist und dem betrachtenden Auge dessen Auflösung begrenzt ist. Nachdem das Bild im Kasten ist und bereits ausgegeben wurde entledigt sich Klaus der letzten Variable und klammert das Auge hier aus, indem er so nah an das FERTIGE Bild herangeht (mittels vergrößerung oder durch verkürzung des Abstandes), bis das Auge nicht mehr das schwächste Glied in der Auflösungskette ist. Der jetzt scharfe bereich ist nun ausschließlich abhängig von Blende, Abbildungsmaßstab, und Ausgabemedium.

Dies ist eben die zweite mögliche Betrachtungsweise des Sachverhaltes und durchaus legitim.
 
Re: Zerstreuungskreis für VF neuerdings 0,025mm?

[...] dass die herkömmliche, für normale Bildbetrachtung gerechnete Berechnung der Schärfentiefe nicht passt, wenn man die 100%-Ansicht verwendet.
[...]
Deshalb finde ich es auch nicht a priori unberechtigt, wenn in den Zeiten allgemeinen Pixelpeepings und Nase-auf-dem-Ausdruck-Plattdrückens über den "üblichen" Betrachtungsabstand und den daraus errechneten Zerstreuungskreis nachgedacht wird.
Man könnte den Betrachtungsabstand beim Pixelpeeping berücksichtigen und Z berechnen, wenn man ihn den kennen würde. Der ist aber Abhängig von der Monitorauflösung und -diagonalen, sowie vom Abstand Auge-Monitor, und somit nicht allgemein angebbar.

„Üblicher Abstand“ finde ich auch schlecht. „Definierter Abstand“ (von üblicherweise einer Bilddiagonalen) fände ich besser. Aber das ist Haarspalterei.

Ich freue mich, dass man hier im Forum ausnahmsweise mal sachlich zur Sache geht, und auch versucht sich die Sichtweise der „Gegenpartei“ durch den Kopf gehen zu lassen
thumbsup4kk.gif


- Cocker :wq
 
@ Eure Hoheit klausesser der Zweite:

Wenn man die Argumentation und Meinungen mancher User hier liest,so wächst bei mir die Erkenntnis,dass wir in der Fotografie als Gestaltungsmittel für die Schärfentiefe keine Objektive mit 8-10 Blenden mehr brauchen.
Es reicht ein Objektiv mit Einheitsblende.
Anschließend vergrößern oder verkleinern wir das Bild,machen Auschnitte,nehmen eine Lupe oder ändern den Betrachtungsabstand.
Et voilà,so können wir uns die Schärfentiefe so passend machen,wie wir sie brauchen.
 
AW: Zerstreuungskreis für VF neuerdings 0,025mm?

Bremsen kann man mit jedem Auto ( Kamera / Chip) und zum Fahren braucht jedes Reifen (Objektiv).

Wo ist den jetzt das Problem? Das kann jedes andere System auch
Es ist nur nicht mehr alleinig eine Produkt von Kamera und Objektiv, sondern im maßgeblich das einer Software, ohne die es überhaupt nicht möglich wäre.

das einzige System aus Objektiv und Kamera, das es so kann ist glaube ich das Hubble, mit den Deepspacefield Aufnahmen.
Da kann man immer näher an das ausbelichtete Foto treten und entdeckt zuvor nicht aufgelöste Galaxien im Detail.

In wieweit dort mit Sicherheit auch eine Software zur Steuerung des Systems benötigt wird weis ich nicht, nehme es aber an.

Daher sollte man schon die Software angeben, und nicht nur die HW.

MfG

ich bin nicht sicher, ob ich Dich verstehe.

Daher hgier nochmal im Einzelnen:

Es werden in einer bestimmnten Reihenfolge einzelne Bilder nebeneinander belichtet und daqs in mehreren Reihen untereinander.
Die einzelnen originalen Bilder werden NICHT - in KEiNER WEISE - dabei verändert! Sie behalten ihre native (originale) Auflösung.

Die Gesamtauflösung des ganzen Bildes hängt dann ebenso wie seine Gesamtgröße allein von der Anzahl der Bilder ab - und der Brennweite des Objektivs.
Der Bildwinkel des gezeigten Motivs liegt bei ca. 70x130Grad.

Mit einer Brennweite von 85mm braucht man an Crop 1,6 dafür ca. 25Bilder nebeneinander in ca. 5 Reihen untereinander - hab´s nicht genau im Kopf.

Bei einer Brennweite von z. B. 105mm oder 200mm dann halt entsprechend mehr: das "Mosaik" wird immer feiner, besteht aus immer mehr "Steinchen" und daher immer höher aufgelöst.

Ds jeweils verwendete Objektiv jedoch entscheidet über die Qualität/Schärfe des gesamten Bildes GENAU SO wie über die Qualität und Schärfe der einzelnen Bilder. Denn die bilden ja das gesamte Bild.

Daher versteh ich Dein Verständnisproblem nicht. Die Software hat mit der Auflösung (!) nichts zu tun. Nur mit der Größe! Die optische Auflösung - die Schärfe - bestimmt ALLEIN das Objektiv mit seiner Abbildungsqualität.
 
@ Eure Hoheit klausesser der Zweite:

Wenn man die Argumentation und Meinungen mancher User hier liest,so wächst bei mir die Erkenntnis,dass wir in der Fotografie als Gestaltungsmittel für die Schärfentiefe keine Objektive mit 8-10 Blenden mehr brauchen.
Es reicht ein Objektiv mit Einheitsblende.
Anschließend vergrößern oder verkleinern wir das Bild,machen Auschnitte,nehmen eine Lupe oder ändern den Betrachtungsabstand.
Et voilà,so können wir uns die Schärfentiefe so passend machen,wie wir sie brauchen.


so sei es, edler Ritter . . :p
 
Es reicht ein Objektiv mit Einheitsblende.
Anschließend vergrößern oder verkleinern wir das Bild,machen Auschnitte,nehmen eine Lupe oder ändern den Betrachtungsabstand.
Et voilà,so können wir uns die Schärfentiefe so passend machen,wie wir sie brauchen.
Nicht zu vergessen dem Bild einen Begleitzettel mitzugeben:
„Um in den Genuss des vom Artisten angedachten Tiefenschärfeverlaufes zu kommen, betrachten Sie dieses Bild bitte in einem Abstand von 27cm.“

Schön formuliert, caprinz :top:

- Cocker :wq
 
AW: Re: Zerstreuungskreis für VF neuerdings 0,025 mm?

bis das Auge nicht mehr das schwächste Glied in der Auflösungskette ist. Der jetzt scharfe bereich ist nun ausschließlich abhängig von Blende, Abbildungsmaßstab, und Ausgabemedium.

Wenn ich das jetzt richtig verstanden habe, würde das bedeuten, dass alles im tiefenscharfen Bereich liegt, solange der "fertige Zerstreuungskreisdurchmesser" (d.h. der Durchmesser der vergrößerten und gedruckten Zerstreuungskreise) höchstens der Größe der maximalen Auflösung des Bildes entspricht?

Das ist aber eigentlich genau der Standpunkt von Matthis, wenn die Ausgabe auf dem Monitor in 100% erfolgt.

Oder habe ich das jetzt falsch verstanden?
 
AW: Re: Zerstreuungskreis für VF neuerdings 0,025 mm?

Das ist aber eigentlich genau der Standpunkt von Matthis, wenn die Ausgabe auf dem Monitor in 100% erfolgt.

Oder habe ich das jetzt falsch verstanden?

Wenn wir von der Betrachtung am Monitor ausgehen und das Objektiv die Sensorauflösung packt, dann hast du nichts falsch verstanden
 
Wenn ich das jetzt richtig verstanden habe, würde das bedeuten, dass alles im tiefenscharfen Bereich liegt, solange der "fertige Zerstreuungskreisdurchmesser" (d.h. der Durchmesser der vergrößerten und gedruckten Zerstreuungskreise) höchstens der Größe der maximalen Auflösung des Bildes entspricht?

... höchstens der Pixelgröße entspricht.

Jo - dann hast Du die kleinstmöglichen ZKs. Schärfer wird's nicht. Nur der Bereich, in dem die ZKs wirklich so klein sind - also die Schärfentiefe -, ist schon verdammt schmal. Und, um die zu sehen, musst Du schon verdammt nah ran, oder noch verdammter stark vergrößern. 100% eben.

- Cocker :wq
 
AW: Re: Zerstreuungskreis für VF neuerdings 0,025 mm?

... höchstens der Pixelgröße entspricht.

Jo - dann hast Du die kleinstmöglichen ZKs. Schärfer wird's nicht. Nur der Bereich, in dem die ZKs wirklich so klein sind - also die Schärfentiefe -, ist schon verdammt schmal. Und, um die zu sehen, musst Du schon verdammt nah ran, oder noch verdammter stark vergrößern. 100% eben.

- Cocker :wq

...und schon sind wir wieder alle beisammen :p
 
AW: Re: Zerstreuungskreis für VF neuerdings 0,025 mm?

Wieso Völlig einverstanden????
schockiert_26.gif

Deine Position ist doch meiner genau entgegengesetzt!

Die Schärfentiefe ist abstands- und vergrößerungsabhängig! Sie ist abhängig davon was beim Betrachten als tiefenscharf akzeptiert wird.

Ein Mensch wird demselben Bild eine größere Schärfentiefe zuordnen, als ein Adler.

Beispiel:
  • Fotografiere ein Maßband.
  • Betrachte das Foto und entscheide: Scharf ist es von 2,5m bis 2,8m
  • Wahlweise verkleinerst Du das Foto nun, oder entfernst Dich etwas, was denselben Effekt hat.
  • Betrachte das Foto und entscheide: Scharf ist es von 2,0m bis 3,2m

Schärfentieferechner gehen davon aus, dass der Betrachtungsabstand gleich der Bilddiagonalen ist!

Wie kann man da der Ansicht sein, die Schärfentiefe sei eine ureigenste Eigenschaft des physischen Bildes und werde zum Aufnahmezeitpunkt festgeschrieben?

Anderes Beispiel:
  • Fertiger Ausdruck
  • Bestimme wie oben die Schärfentiefe.
  • Mache einen Ausschnitt und bestimme sie erneut, mit dem Ergebnis, dass ein kleinerer Wert herauskommt.
  • Oder stelle Dir vor, jemand offenbarte Dir, Dein ursprünglich bewertetes Bild sei nur ein Ausschnitt eines viel größeren...

- Cocker :wq

Cocker - fotografierst Du hin und wieder? Was passiert denn bei DIR, wenn Du die Blende weiter zumachst? Nimmt dabei NICHT die Tiefenschärfe zu?
Findest Du diese Schärfe/Unschärfe NICHT in einem Ausdruck wieder, den Du machst oder machen lässt?

Ein Modell:
Nimm an, Du stellst zwei Dosen hintereinander - Abstand vielleicht ein Meter. Fokusierst auzf die erste Dose, markierst den Punkt auf dem Objektiv, fokusierst auf die zweite Dose und markierst den Punkt ebenfalls auf dem Objektiv. Dann stellst Du den Fokuspunkt ungefähr auf die Mitte (nur modellhaft - realistisch wäre eher das Ende des ersten Drittels).
Dann schließt Du die Blende so weit, daß beide Dosen möglichst (!) scharf sind.

Was ist das? Korrekt: Tiefenschärfe. Von mir aus auch Schärfentiefe. Egal. Wichtig ist, daß diese Ausdehnung des Schärfebereichs sich dann in dr Aufnahme manifestiert.
Oder ist das bei Dir nicht der Fall? Das sollte mich dann doch wundern . . :)

Schaust Du Dir dann einen z. B. 20x30cm Ausdruck Deiner Aufnahme an: erkennst Du den Bereich der Schärfenausdehnung zwischen den Dosen?
Ich hoffe schon - denn sonst hättest Du schlimm was an den Augen.

Und jetzt wird´s anscheinend kompliziert . . :

Die Ausdehnung der Schärfe auf dem Bild - ÄNDERT die sich, wenn Du das Bild weiter weg hälst?
Oder kannst Du die Ausehnunbg der Schärfe auf dem Bild nur weniger deutlich ERKENNEN?


Übrigens:
"Schärfentieferechner gehen davon aus, dass der Betrachtungsabstand gleich der Bilddiagonalen ist!"

Schärfentiefenrechner machen keine Fotos.
 
Zuletzt bearbeitet:
Vielleicht sollte man dann einfach zwei unterschiedliche Definitionen der Schärfentiefe verwenden: die "ursprüngliche, konventionelle", die vom Betrachtungsabstand ausgeht, und eine minimale Schärfentiefe, die vom Auflösungsvermögen der Objektiv-Kamera-Kombination abhängt.
 
WERBUNG
Zurück
Oben Unten