• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Mai 2025.
    Thema: "Grün"

    Nur noch bis zum 31.05.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Schärfentiefe und Zerstreuungskreise

Karl-Alfred_Roemer

Themenersteller
Hallo zusammen,

im Moment setze ich mich theoretisch mit Schärfentiefe und
Zerstreuungskreisen auseinander.

Als zulässige Zerstreuungskreisdurchmesser, unterhalb derer das Bild
als scharf definiert ist, werden feste Werte angenommen. Früher
waren es 0,03mm, seit einiger Zeit sollen es 0,025mm sein.

Wenn ich mir ausrechne, wie klein die Pixel auf meinem D90 Sensor
sind, (Diagonal 0,013mm), dann überdeckt ein gerade noch zulässiger
Zerstreuungskreis ziemlich genau zwei Pixel diagonal.

Ist der Wert 0,025mm schon veraltet für meine D90 oder ist es tatsächlich
so, dass der Zerstreuungskreis zwei Pixeldiagonalen groß sein darf?
Ich hätte angenommen, dass es GENAU EIN Pixel sein dürfte. Wobei
ich mich dann noch frage, ob man wirklich die PixelDIAGONALE nehmen
soll anstatt einer Pixel-KANNTENLÄNGE.

Ist es wirklich so, dass selbst bei 100% Ansicht mit einem utopischen
unendlich fein auflösenden Objektiv ein Bild mit einem Zerstreuungskreis
durchmesser von zwei Pixeldiagonalen exakt gleich scharf ist, wie mit
einer Pixelkantenlänge? Oder noch krasser: Wäre das genauso scharf,
wie ein unendlich fein focusierter Punkt auf meinem Sensor? (Theoretisch
in der Mitte der beiden Schärfentiefeendpunkte)

Ich hoffe, ihr versteht, was ich meine. :ugly:

Danke für Eure Antworten und viele Grüße
Karl
 
Wenn ich mir ausrechne, wie klein die Pixel auf meinem D90 Sensor sind, (Diagonal 0,013mm), dann überdeckt ein gerade noch zulässiger Zerstreuungskreis ziemlich genau zwei Pixel diagonal.
Ich weiss nicht, wie Du auf die 13 µm kommst, aber ich komme da auf 7,4 µm.

Ist der Wert 0,025mm schon veraltet für meine D90 oder ist es tatsächlich so, dass der Zerstreuungskreis zwei Pixeldiagonalen groß sein darf?
Ich hätte angenommen, dass es GENAU EIN Pixel sein dürfte. Wobei
ich mich dann noch frage, ob man wirklich die PixelDIAGONALE nehmen
soll anstatt einer Pixel-KANNTENLÄNGE.
Das eine (Z-Kreis = 0,025 mm / Formatfaktor 1,5) ist die akzeptable Bildschärfe in Gesamtbildansicht. Das andere (Z-Kreis = 0,0074 mm) ist eine hohe Bildschärfe in 100%-Pixelansicht.
 
Hast Recht, habe die Sensorgröße und Pixelzahl nur überschlägig gerundet
und irgendwo nen Faktor 2 eingebaut. Bei letzterem weiß auch nicht was
mich da geritten hat. :ugly:

Aber 7,4 im Vergleich zu 13 µm macht die Sache ja noch mal schlimmer!

Außerdem habe ich gedacht, die 0,025mm wären universell, also ohne
Berücksichtigung des Crop-Faktors. Mit Berücksichtigung des Crop
wäre der maximale Z-Kreis für meine Kamera dann 16,6µm.
Womit wir insgesamt wieder bei etwas mehr als zwei überstrichenen
Pixeldiagonalen sind.

Das eine (Z-Kreis = 0,025 mm / Formatfaktor 1,5) ist die akzeptable
Bildschärfe in Gesamtbildansicht. Das andere (Z-Kreis = 0,0074 mm)
ist eine hohe Bildschärfe in 100%-Pixelansicht.

Es gibt also zwei unterschiedliche Z-Kreise. Das war mir nicht klar.
Wo ist eigentlich der Unterschied zwischen Gesamtansicht und 100%
Pixelansicht? Oder ist die Gesamtansicht auf eine bestimmte Papier-
Größe bezogen? Was ist, wenn einer auf die Idee kommt, ein Poster
oder eine Wandtapete zu drucken?

Was für eine Papiergröße nimmt man für die D90 an?

Eigentlich müsste für Tiefenschärfe immer die gewünschte Papiergröße
individuell mit berücksichtigt werden ODER immer die 100%-Pixelansicht.
Ich würde letzteres favorisieren.

Wenn ich meine Kamera auf dem Stativ stehen habe, benutze ich oft
Live-View und picke mir mit der Vergrößerung den Ausschnitt des Bildes
heraus den ich scharf haben will und zoome diese Detail elektronisch im
Liveview, so stark es geht. Das müsste dann auch mindestens auf
Pixelniveau sein. In dieser Einstellung und manueller Fokusierung fällt
auch auf, wie fein man fokusieren muss.
 
Es gibt also zwei unterschiedliche Z-Kreise. Das war mir nicht klar.
Wo ist eigentlich der Unterschied zwischen Gesamtansicht und 100%
Pixelansicht? Oder ist die Gesamtansicht auf eine bestimmte Papier-
Größe bezogen? Was ist, wenn einer auf die Idee kommt, ein Poster
oder eine Wandtapete zu drucken?

Es gibt unendlich viele maximale zKreise. Du kannst wählen was immer Du möchtest, bzw. was zu den gegebenen Anforderungen passt: einen Standard z.B. 0.03mm (das ist zwar meistens nicht passend für die Situation, aber vergleichbar und darum nützlich), oder Du bestimmst den Durchmesser über die Pixelgröße, oder über den gewünschten Betrachtungsabstand.

Das Programm aus meiner Signatur (cBlur) kannst Du dazu missbrauchen, zKreise nach all diesen Methoden zu berechnen. Die Umrechnung Pixelgröße in zKreisdurchmesser ist aber etwas anders:

zKreisdurchmesser=2*Pixelseitenlänge

Falls es Dich interessiert, kann ich Dir gerne erklären, warum ich das so mache.
 
Außerdem habe ich gedacht, die 0,025mm wären universell, also ohne
Berücksichtigung des Crop-Faktors.

Die übliche Regel für die maximale Größe des Zerstreuungskreisdurchmessers ist 1/1500 der Bilddiagonalen, sprich der Sensordiagonalen. Das ist unabhängig vom Crop so, denn der steckt ja schon in der Sensordiagonalen. Die 25-30µm, die Du annimmst, beziehen sich auf KB Format.
 
Die übliche Regel für die maximale Größe des Zerstreuungskreisdurchmessers ist 1/1500 der Bilddiagonalen, sprich der Sensordiagonalen.

und die ist deshalb so gewählt, da davon ausgegangen wird, dass ein bild bestimmter größe aus einem gewissen abstand betrachtet wird (um es noch im ganzen wahrnehmen zu können).
sobald man sich dem bild aber nähert und sich details anschaut ist diese prämisse jedoch hinfällig.
das ist eigentlich das ganze geheimnis der schärfentiefe.
mit eigentlicher pixelgröße/filmkorngröße hat das ganze relativ wenig zu tun.
 
In der Theorie nicht, aber in der Praxis möchten viele halt doch alles auf Pixelebene scharf und dann ist es sehr relevant.

das ist mir schon klar. ich wollte nur ausdrücken was es mit der eigentlichen schärfentiefen-theorie auf sich hat.
wer andere qualitäts-ansprüche hat oder ein motiv mit sehr feinen details, der muss eben andere zerstreuungskreise zugrundelegen.
 
und die ist deshalb so gewählt, da davon ausgegangen wird, dass ein bild
bestimmter größe aus einem gewissen abstand betrachtet wird (um es noch
im ganzen wahrnehmen zu können).

Jetzt verstehe ich den Sinn dahinter. :top: Natürlich haben wir Menschen
einen bestimmten Bilderfassungs winkel. Also brauche ich eine bestimmte
Entfernung, damit ich das ganze Bild erfassen kann, ohne mit dem Kopf
oder den Augäpfeln zu schwenken. Je größer das Bild, umso weiter muss
ich weg stehen, um es ganz zu erfassen. Habe ich die optimale Entfernung
eingestellt, so dass ich das Bild geradeso komplett erfassen kann, hängt es
letztenendes dann nur von der Auflösung unseres Auges ab, ob wir etwas
scharf sehen oder nicht. Man könnte so gesehen auch die Winkelauflösung
unseres Auges zur Berechnung heran ziehen. (Bogensekunden)

In der Theorie nicht, aber in der Praxis möchten viele halt doch alles auf
Pixelebene scharf und dann ist es sehr relevant.

Ja, das gilt leider auch für mich. Irgendwie muss ich zwanghaft immer
auf 100% Ansicht schalten und dann bin ich enttäuscht, wenn es nicht
scharf ist. Aber ich arbeite daran, dass ich mir das aus dem Kopf schlage. :lol:

Aber mein Pixelwahn hat ja auch Vorteile:
Wenn es auf Pixelebene scharf ist, kann ich aus einem großen Bild
Details herausschneiden, die dann auch auf Pixelebene scharf sind.
(Schice ausgedrückt, aber ihr wisst, was ich meine)

Ich habe mir deinen Schärferechner eben heruntergeladen, installiert und
(öhem) herumgespielt. Da sieht man schön, dass es mehrere 'Philosophien'
zum Zerstreuungskreisdurchmesser gibt. (Pixelgröße, Betrachtungsabstand,
Crop, Manuell)

Mir fehlt natürlich noch der Überblick, aber ich habe schon mal den
Zerstreuungskreis durch Pixelgröße eingestellt, dann APS C 1,6 und 12 MP
eingestellt. Dabei kamen als max Zerstreuungskreis dann 10,5µm heraus,
was ungefähr 2 Pixelkanntenlängen entspricht, wie du oben ja schon
beschrieben hast.

zKreisdurchmesser=2*Pixelseitenlänge

Falls es Dich interessiert, kann ich Dir gerne erklären, warum ich das so
mache.

Ja, das würde mich sehr interessieren. :top:
 
und die ist deshalb so gewählt, da davon ausgegangen wird, dass ein bild bestimmter größe aus einem gewissen abstand betrachtet wird (um es noch im ganzen wahrnehmen zu können).

Ja, wenn Du ein Bild aus der halben Entfernung betrachten willst, mußt Du auch den Z-Kreisdurchmesser halbieren. Der Punkt ist, ob Du nun durch 1500 oder eine andere Zahl teilst: Hast Du den Betrachtungsabstand als Vielfaches der Bilddiagonalen festgelegt, gilt die Regel für alle Sensorformate, von Großformat bis Minox Spionagekamera.
 
Ja, das gilt leider auch für mich. Irgendwie muss ich zwanghaft immer
auf 100% Ansicht schalten und dann bin ich enttäuscht, wenn es nicht
scharf ist. Aber ich arbeite daran, dass ich mir das aus dem Kopf schlage. :lol:

Ich kann nichts schlechtes daran erkennen, wenn man die Qualität seiner Bilder maximieren möchte (bei Portraitaufnahmen handelt man sich bei zu viel Schärfe vielleicht Ärger ein :lol:, aber bei Repros, Landschafts- oder Architekturfotografie ist das ein völlig korrekter Ansatz).


was aber mal vollkommen "blödsinnig" ist, da dein monitor ja eine viel schlechtere auflösung hat als ein druck bzw. eine ausbelichtung.
also wenn dann solltest du bei der 50% ansicht bleiben.

Da ist es wieder :). Die Auflösung des Monitors ist gleichzeitig gut oder schlecht. Das kann man sich aussuchen: über den Betrachtungsabstand.


Ich habe mir deinen Schärferechner eben heruntergeladen, installiert und
(öhem) herumgespielt. Da sieht man schön, dass es mehrere 'Philosophien'
zum Zerstreuungskreisdurchmesser gibt. (Pixelgröße, Betrachtungsabstand,
Crop, Manuell)

Zum rumspielen ist er gemacht (auch wenn die Ergebnisse recht genau zu sein scheinen). Du kannst damit auch direkt den Zusammenhang zwischen zKreis und Schärfentiefe sichtbar machen. Einfach max. zKreis auf Manuell stellen und dann mit dem Mauszeiger über den zKreiswert gehen und am Mausrad drehen (oder auf einen der kleinen Pfeile hinter den Wert klicken und die Maustaste gedrückt halten). Man kann schön sehen wie sich die Schärfentiefe langsam ändert.


Ja, das würde mich sehr interessieren. :top:

Meine Methode Pixelgröße (px) in Zerstreuungskreis (z) umzurechen: Ich habe die Beziehung:

z=2*px

genommen. Also nicht die Diagonale sondern die Kantenlänge eines einzelnen Pixel*2. Meine Argumente sind:

Einfach den größten Kreis, der in ein 2x2 Bayerfeld (rot,2*grün,blau) reinpasst (eben z=2*px) nehmen. Die Fläche (Az) dieses Kreises ist:

Az=px^2*3.1415

Das ist jetzt noch sehr schwach begründet. Aber: ein Pixel besteht minimal aus 3 Pixeln (einem roten, einem grünen und einem blauen), der AA-Filter muss dafür sorgen, dass die Auflösung auf dem Sensor dem ungefähr entspricht - sonst drohen Aliasingartefakte. Das Interessante ist, das bei diesem Ansatz die Fläche des Zerstruungskreises

Az=px^2*3

ist. Also fast genauso groß wie beim ersten Ansatz.

Nicht zuletzt ist damit das Abtasttheorem erfüllt (zumindest fast - es wird ja nicht in Graustufen abgetastet). Wenn der AA-Filter die Auflösung auf 2x2 Bayerpattern limitiert.

Ich habe das ganze dann noch praktisch ein wenig überprüft und eine recht gute Übereinstimmung gefunden.
 
Da ist es wieder :). Die Auflösung des Monitors ist gleichzeitig gut oder schlecht. Das kann man sich aussuchen: über den Betrachtungsabstand.

das stimmt schon, bloß wird man sich in den seltensten fällen ein so groß ausbelichtetes bild aus so einer geringen entfernung anschauen wie man es an einem monitor in der 100% betrachtung tut.
 
Jetzt verstehe ich den Sinn dahinter. :top

Tja, das ist doch schon mal was. ;)

Fotoapparate sind ja nicht dazu da, irgendwelche Messgeräte zufrieden zu stellen, sondern unsere Augen und deren Auflösungsvermögen ist halt auch nur endlich.

Folglich haben sich kluge Leute mal Gedanken darüber gemacht, wie weit man mit dem technischen Aufwand eigentlich gehen muß, damit unsere Augen zufrieden sind.

Das Ergebnis war, das der Zerstreuungskreisdurchmesser eine gewisse Größe nicht überschreiten sollte, damit wir einen Punkt unter "normalen" Betrachtungsbedingungen (Abstand ca. Bilddiagonale) noch immer als Punkt wahrnehmen und nicht als Scheibe. Wenn das erreicht ist, hat der Mohr eigentlich seine Schuldigkeit getan.

Der Zerstreungskreisdurchmesser ist übrigens abhängig vom Aufnahmeformat, denn ein großes Format muß man natürlich nicht so stark vergrößern, um auf eine bestimmte Bildgröße zu kommen. Also "darf" bei größeren Formaten der Zerstreuungskreisdurchmesser auch größer sein.

Sinn der Angelegenheit war einfach der, das man mit möglichst geringem Technik- und Kostenaufwand ein maximal sinnvollen Nutzen erreichen wollte.
Alles was darüber hinausgeht, ist im Grunde engineering overkill, denn es wäre für unsere Augen unter normalen Betrachtungsbedingungen keine weitere Verbesserung mehr erkennbar.

Wenn allerdings manche Leute auch noch unter weniger "normalen" Betrachtungsbedingungen (Nahbetrachtung bei Großformaten, Lupe, 100 % bei Monitoransicht etc.) maximale Schärfe wünschen, müssen sie halt einen entsprechend höheren technischen und pekuniären Aufwand treiben. Nach oben gibts da eigentlich kaum eine Grenze und wenn's Geld reicht, kann man notfalls auch auf Objektive von Spionagesatelliten zurückgreifen oder sich ein Elektronenmikroskop zulegen. Soll ja auch Leute geben, die sich einen elektrischen HighTech Nasebohrer kaufen. ;)

Erlaubt ist alles, die Frage ist immer nur, wie sinnvoll es ist.
Diese Frage darf aber jeder gerne für sich selbst beantworten.

Übrigens:
Es ist keine schlechte Idee, sich mehr auf interessante Bildinhalte und Bildgestaltung zu stürzen, als ewig auf dem ausgelutschten Thema "Schärfe" rumzukauen. Ein langweiliges Bild bleibt langweilig, selbst wenn es super scharf ist.
 
das stimmt schon, bloß wird man sich in den seltensten fällen ein so groß ausbelichtetes bild aus so einer geringen entfernung anschauen wie man es an einem monitor in der 100% betrachtung tut.

Mit einer 5D Mk II wohl nur selten. Aber Landschaftsaufnahmen mit einer Breite von 1 Meter (das ist eines meiner üblichen Formate - sind ja nicht mehr so teuer) sind auch beim Ausbelichten nicht unkritisch.


@Chris.B.: Nach zwei Seiten friedlicher und anregender Diskussion war es ja Zeit, dass jemand darauf hinweist, dass sich hier Geeks tummeln die lieber Fotografieren lernen sollten...

Wenn es aber nicht um Verständnis, so sondern um leichte AF-Ungenauigkeiten oder Superzooms geht, dann ists plötzlich aus mit dem: "schöne Bilder brauchen keine maximale Schärfe" :rolleyes:, da zählt dann nur der Einsatz von teuren Objektive, weil die Billigen sind ja nicht zu 100% scharf.

Tja, das passiert, wenn man am falschen Ende spart.

Ein 500 PS Ferrari kann sein Leistung auch nicht auf die Strasse bringen, wenn man ihn mit mit schmalbrüstigen Goggo-Reifen bestückt. ;)

Lieber eine einfache Kamera und möglichst gute Objektive, als umgekehrt.
Denn was vorne bereits verloren geht, kann auch die beste Kamera nicht mehr wett machen...
 
Anathbush, danke für deinen Versuch mir das mit den 2*Pixelkanntenlänge
zu erklären. So ganz habe ich es noch nicht geschnallt. So viele neue
Begriffe (Abtastheorem, Bayerpattern...)

Aber ich sehe zumindestens, dass du GANZ GENAU weißt, was und warum
du tust und daher glaube ich es erst mal. Kann sein, dass ich in paar
Wochen noch mal auf den Punkt zurückkomme, um die allerletzten Unklar-
heiten zu beseitigen.

Übrigens:
Es ist keine schlechte Idee, sich mehr auf interessante Bildinhalte und
Bildgestaltung zu stürzen, als ewig auf dem ausgelutschten Thema
"Schärfe" rumzukauen. Ein langweiliges Bild bleibt langweilig, selbst
wenn es super scharf ist.

Chris, du hast Recht. Ich habe auch Angst, mich letztensendes
zum reinen Techniker zu entwickeln und die Kunst des Fotografierens
zu vernachlässigen.

Dennoch bemühe ich mich, zunächst die Technik zu verstehen,
um dann (oder auch schon vorher halbwegs parallel) mich um den
künstlerischen Aspekt zu kümmern. :angel:
 
So ganz habe ich es noch nicht geschnallt. So viele neue
Begriffe (Abtastheorem, Bayerpattern...)

Bayerpattern solltest Du Dir irgendwann mal ansehen, wenn Dich das Thema interessiert. Abtasttheorem kannste erstmal vergessen.

Aber ich sehe zumindestens, dass du GANZ GENAU weißt, was und warum
du tust und daher glaube ich es erst mal.

Lass Dich nicht so einfach von Fachbegriffen überzeugen :D. Da die Umrechnung Pixelgröße in max. zKreisdurchmesser von vielen Umständen abhängt, wird Dir niemand "die" richtige Lösung anbieten können. Aber zu weit sollte diese Lösung nicht daneben liegen.
 
Gibt es eigentlich irgendwo eine geometrische Herleitung, wie man
die Schärfentiefe für gegebene Brennweite und Blende berechnet?

Ich habe mir schon paar vorüberlegungen gemacht. Bei unendlich
weit entferntem Punkt treffen die Strahlen quasi parallel auf die Optik.

Dann wären sie auf dem Sensor genau dann scharf, wenn dieser exakt
die Brennweite von der Linse entfernt ist. Wenn ein Punkt des Motives
näher an die Linse rückt, laufen die Strahlen nicht mehr parallel in die
Optik, sondern mit einem Winkel von arctan((Blendendurchmesser/2)
/Entfernung) Nun werden die Strahlen zwischen Sensor und Optik
auseinandergebogen so dass der Zerstreungs kreis größer wird.

Aus dem Winkel, mit dem die Strahlen hinten zusammenlaufen und dem
gewünschten maximalen Zerstreuungskreisdurchmesser könnte man
so rückrechnen, zwischen welchen Entfernungen die Sache scharf
wird.

So irgendwie habe ich mir das gedacht, aber noch nicht zeichnerisch
konstruiert. Zumal ich auch nicht genau weiß, um welchen Winkel die
Strahlen hinter der Linse verbogen werden, wenn man die Winkel vorne
verbiegt (durch Entfernungsänderung)

Das Abtastheorem kenne ich nur aus der Audiotechnik.
Wenn man analoge Signale digitalisieren will, muss man
mindestens mit der doppelten Frequenz sampeln.
Und dann noch ein steilflankiges Tiefpassfilter oben
drauf. Dann sollte das Signal bei Rückwandlung nach
Analog theoretisch wieder genauso aussehen, wie das
Original.

Nur kann ich das irgendwie nicht auf Fotos übertragen.

Mir fällt noch eine Frage in dem Zusammenhang ein:

Was bedeutet eigentlich 'Knackscharf' ? Schärfe auf Pixelebene?
(Also Zerstreuungskreise < 2x Pixelkanntenlänge?)
 
Zuletzt bearbeitet von einem Moderator:
@Chris.B.: Nach zwei Seiten friedlicher und anregender Diskussion war es ja Zeit, dass jemand darauf hinweist, dass sich hier Geeks tummeln die lieber Fotografieren lernen sollten...

Wenn es aber nicht um Verständnis, so sondern um leichte AF-Ungenauigkeiten oder Superzooms geht, dann ists plötzlich aus mit dem: "schöne Bilder brauchen keine maximale Schärfe" :rolleyes:, da zählt dann nur der Einsatz von teuren Objektive, weil die Billigen sind ja nicht zu 100% scharf.


Darum gings doch nicht, aber kleine Denkanstöße können durchaus nicht schaden, zumal ich sie in meinen Augen keineswegs polemisch formuliert habe.

Man kommt doch nicht darum herum, den von dir gebrauchten Begriff "maximale Schärfe" mal etwas genauer zu definieren. Speziell, wenn man die Kosten für das Hobby Photographie halbwegs in erträglichen Grenzen halten will.

Definiere doch mal 100 % scharf. Gibts das überhaupt?
Tja und dann darfst Du auch gleich noch hinterfragen, ob deine Definition allgemeingültig ist oder nur für einen kleinen Kreis von Exoten zutrifft, die bei jedem Foto als erstes oder gar nur auf die Schärfe achten und dazu womöglich noch eine Lupe benutzen. Mit welchem Begriff aus der Psychatrie würdest Du dieses Verhalten beschreiben?

Davon abgesehen kenne ich tatsächlich jede Menge Fotos, bei denen der getriebene technische Aufwand in keinem realistischen Verhältnis zum dürftigen inhaltlichen Ergebnis stand. Mich selbst nehme ich da keineswegs immer aus, aber immerhin versuche ich -etwas geläutert ;) - meine Schwerpunkte zu verschieben.

Kann man nicht mal (selbst-) kritisch hinterfragen, was bei einem Foto wirklich wichtig ist?

Schärfe ist ja gut und schön, aber muß es unbedingt "100 prozentige Schärfe" sein, oder reicht vielleicht auch ein schlichtes "scharf genug"?
 
Definiere doch mal 100 % scharf. Gibts das überhaupt?
Klar gibt es das - und dies nicht nur in der nativen 100%-Ansicht, sondern - wenn man es erzwingen will - gar darüber hinaus. Vor einiger Zeit fotografierte ich ein schlichtes Küchensieb vor weissem Hintergrund mit 12,7 MP und machte daraus - nach bikubischer Interpolation ein 50-MP-Graustufen-TIFF. Dann noch eine Solarisation, gefolgt vom üblichen "Nachschärfen bis der Arzt kommt". Ergebnis: ein 100%-ig scharfes 50 MP-Bild bei der 4-fachen Pixelzahl der Kamera.

Wozu der Sermon?

Könnten wir hier mal endlich anfangen, zwischen Kontrast und Auflösung zu unterscheiden? Die "Schärfe" ist das vielleicht meist verwendete und gleichzeittig meist missverstandene Wort dieses Forums überhaupt. Gebe ich einem unbedarften Betrachter zwei Bilder und frage nach einer Bewertung der Schärfe, so wird das kontrastreichere bzw. kantenschärfere Bild gewählt. Eine vermehrte Detailzeichnung wird nur dann als schärfer bewertet, wenn auch hier die Kontraste bzw. die Kantenzeichnung stark betont wurden.

@OP: wenn die Auflösung des Sensors *maximal* ausgeschöpft werden soll, dann wäre prinzipiell der tolerierbare Z-Kreisdurchmesser bei max. 20% des einfachen Pixelabstandes. Dies dürfte in der Realität eine unsinnige Anforderung sein. Daher sollte man sich von der Vrstellung lösen, dass bei xx MP in der 100%-Ansicht noch die allerletzte Pixelschärfe erzwungen werden müsse.
 
WERBUNG
Zurück
Oben Unten