• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Schärfentiefe und Zerstreuungskreise

Das Abtastheorem kenne ich nur aus der Audiotechnik.
Wenn man analoge Signale digitalisieren will, muss man
mindestens mit der doppelten Frequenz sampeln.
Und dann noch ein steilflankiges Tiefpassfilter oben
drauf. Dann sollte das Signal bei Rückwandlung nach
Analog theoretisch wieder genauso aussehen, wie das
Original.

Nur kann ich das irgendwie nicht auf Fotos übertragen.

Funktioniert im Prinzip genauso im 2D wie im 1D, das war der Ursprungsgedanke dahinter, wie ich die Umrechnung mache. Es passt nicht ganz, da der AA-Filter (der ist auch nur ein Tiefpass) natürlich nicht exakt ab einer (Orts-)frequenz abschneidet.


Mir fällt noch eine Frage in dem Zusammenhang ein:

Was bedeutet eigentlich 'Knackscharf' ? Schärfe auf Pixelebene?
(Also Zerstreuungskreise < 2x Pixelkanntenlänge?)

Knackscharf ist es, wenn die Auflösung größer ist als das, was das Auge aus dem gewählten Abstand auflösen kann.
 
Knackscharf ist es, wenn die Auflösung größer ist als das, was das Auge aus dem gewählten Abstand auflösen kann.
Wenn Du zwei solche Bilder anbietest, mag der Durchschnittsbeobachter dennoch die Schärfe eines Bildes über jene des anderen Bildes setzen - nämlich dann, wenn ein Bild die höheren Kontraste anbietet, was gerne mit der "Schärfe" werfexelt wird.
 
Wenn Du zwei solche Bilder anbietest, mag der Durchschnittsbeobachter dennoch die Schärfe eines Bildes über jene des anderen Bildes setzen - nämlich dann, wenn ein Bild die höheren Kontraste anbietet, was gerne mit der "Schärfe" werfexelt wird.

Ich biete mal einen Vergleich an. Ich hatte vor einiger Zeit hier im Forum mal eine Diskussion über das Nachschärfen von Flugzeugbildern, daher stammt dieser Vergleich.

Es handelt sich um zwei Fotos, die in einer Serienaufnahme (Flugzeug-Nachzieher) direkt aufeinanderfolgend gemacht wurden.

Oben ist jeweils ein 100%-Crop des ersten Fotos, unten des zweiten Fotos.

Bild 1 oben: das erste Foto unbehandelt und ungeschärft
Bild 1 unten: das zweite Foto mit Kontrasterhöhung und Kantenschärfung.

Bild 2 oben: wie Bild 1
Bild 2 unten: das zweite Foto unbehandelt und ungeschärft

Das erste Foto ist eindeutig schärfer, das zweite wird aber nach Kontrasterhöhung und Kantenschärfung allgemein als das schärfere beurteilt.

Gruß,

Karl-Heinz
 
Klar gibt es das - und dies nicht nur in der nativen 100%-Ansicht, sondern - wenn man es erzwingen will - gar darüber hinaus. Vor einiger Zeit fotografierte ich ein schlichtes Küchensieb vor weissem Hintergrund mit 12,7 MP und machte daraus - nach bikubischer Interpolation ein 50-MP-Graustufen-TIFF. Dann noch eine Solarisation, gefolgt vom üblichen "Nachschärfen bis der Arzt kommt". Ergebnis: ein 100%-ig scharfes 50 MP-Bild bei der 4-fachen Pixelzahl der Kamera.

Wozu der Sermon?

Könnten wir hier mal endlich anfangen, zwischen Kontrast und Auflösung zu unterscheiden? Die "Schärfe" ist das vielleicht meist verwendete und gleichzeittig meist missverstandene Wort dieses Forums überhaupt. Gebe ich einem unbedarften Betrachter zwei Bilder und frage nach einer Bewertung der Schärfe, so wird das kontrastreichere bzw. kantenschärfere Bild gewählt. Eine vermehrte Detailzeichnung wird nur dann als schärfer bewertet, wenn auch hier die Kontraste bzw. die Kantenzeichnung stark betont wurden.

@OP: wenn die Auflösung des Sensors *maximal* ausgeschöpft werden soll, dann wäre prinzipiell der tolerierbare Z-Kreisdurchmesser bei max. 20% des einfachen Pixelabstandes. Dies dürfte in der Realität eine unsinnige Anforderung sein. Daher sollte man sich von der Vrstellung lösen, dass bei xx MP in der 100%-Ansicht noch die allerletzte Pixelschärfe erzwungen werden müsse.


Wie könnte ich da widersprechen! ;)

Obwohl es sich für mich eigentlich so anhört wie der berühmte Reklamespruch:
Waschmittel XYZ wäscht weißer als Weiß, quasi 150 % Weiß.
Mit einer Kamera die 150 prozentige "Schärfe" liefert, könntest Du in diesem Forum sicher ein reicher Mann werden. Beneideswert!
 
Könnten wir hier mal endlich anfangen, zwischen Kontrast und Auflösung
zu unterscheiden? Die "Schärfe" ist das vielleicht meist verwendete und
gleichzeittig meist missverstandene Wort dieses Forums überhaupt. Gebe
ich einem unbedarften Betrachter zwei Bilder und frage nach einer Bewert-
ung der Schärfe, so wird das kontrastreichere bzw. kantenschärfere Bild
gewählt. Eine vermehrte Detailzeichnung wird nur dann als schärfer bewer-
tet, wenn auch hier die Kontraste bzw. die Kantenzeichnung stark betont
wurden.

Öhem, Räusper :eek: Ich glaube, ich würde das kontrastreichere
kantenschärfere Bild auch für 'schärfer' halten. :ugly:

Dornier-Fotos:
Das erste Foto ist eindeutig schärfer, das zweite wird aber nach
Kontrasterhöhung und Kantenschärfung allgemein als das schärfere
beurteilt.

Hier hätte ich das Bild links unten für das schärfste gehalten.

Knackscharf ist es, wenn die Auflösung größer ist als das, was das
Auge aus dem gewählten Abstand auflösen kann.

Dann brauche ich das Bild nur weit genug weg zu halten, dann ist
alles knackscharf. Somit wäre der Begriff inhaltslos.

Chris, lass mal gut sein. Du hast selbstverständlich Recht mit allem,
was du schreibst. Ich will ja zunächst nur die Technik verstehen, um
mich dann hoffentlich entspannt dem künstlerischen Teil zu widmen.
Nicht, dass ich das Motiv meines Lebens vor mir habe, und es
nicht schaffe, es künstlerisch wertvoll auf den Sensor zu bannen,
weil ich z.B. keinen Plan habe, was ich mit der Blende anstellen soll
oder wild daran herumdrehe und die besten Momente verpasse,
anstatt von vorne herein zu wissen: "Ah ja, Bild gut, Hintergrund
müsste bissi unscharf sein, da zu detailreich, unwichtig und ablenkend
vom Wesentlichen - Perspektive sollte eher dreidiminsional sein aber
trotzdem nach gewissen Regeln bildfüllend, also kürzere Brennweite
und dafür näher heran gehen...

Ich will nicht in den kurzen Momenten des perfekten Bildes mehr oder
weniger nach dem Zufallsprinzip an den diversen Rädchen herum
drehen und hilflos Knöpchen drücken, in der Hoffnung, dass ich zufällig
das richtige tue und nachher feststelle: War doch nichts ohne zu wissen
warum, ohne daraus gelernt zu haben.

Außerdem macht das herausfinden, theoretisieren auch schon Spaß.
Selbst wenn letztenendes gar nichts künstlerisches dabei herum
kommen sollte.
 
Dann brauche ich das Bild nur weit genug weg zu halten, dann ist
alles knackscharf. Somit wäre der Begriff inhaltslos.

Genau ins Schwarze getroffen!
Und zwar zu 100 % (konnt ich mir jetzt einfach nicht verkneifen) ;)


Chris, lass mal gut sein.
Außerdem macht das herausfinden, theoretisieren auch schon Spaß.
Selbst wenn letztenendes gar nichts künstlerisches dabei herum
kommen sollte.


Versteh ich ja nur zu gut. Meinst Du bei mir wäre es anders gewesen.
Wollte nur dezent behilflich sein, den Erkenntnisprozess ev. abzukürzen.
 
wobei das durch eine minimale hinzugabe von blauer farbe sogar einen hintergrund hat.

Ja ich weiss, überall werden unsere Sinne ausgetrickst.

Frauen haben es da übrigens zu besonderer Meisterschaft gebracht.
Der gekonnte Einsatz der richtigen Duftnoten (z.B. Parfüm) setzt die Empfänglichkeit für visuelle Eindrücke herab. Ein archaisches Erbe aus der Urzeit.

Also Vorsicht bei allzu aufdringlicher Parfümierung, könnte ein Ablenkungsmanöver sein. ;)
 
Ist zwar ziemlich OT, aber ich sehe Parfüm auch kritisch in dem Sinne,
dass natürliche Düfte, die zur Partnerwahl wichtig sind, überspielt
werden. Es können so Menschen zueinander finden, die sich eigentlich
gar nicht riechen können. Die Chemie im wahrsten - Sinne des Wortes -
stimmt nicht. Vielleicht ist das mit ein Grund dafür, dass die Scheidungs-
raten heute so hoch sind.

Ich denke, meine Fragen bezüglich Zerstreuungkreisen und Schärfentiefe
sind vorläufig beantwortet. Ich will nur noch rasch herausfinden, wie
man die Schärfentiefe selbst berechnet. Mit geometrischer Herleitung.
Weils so schön ist. :lol:
 
Ist zwar ziemlich OT, aber ich sehe Parfüm auch kritisch in dem Sinne,
dass natürliche Düfte, die zur Partnerwahl wichtig sind, überspielt
werden. Es können so Menschen zueinander finden, die sich eigentlich
gar nicht riechen können. Die Chemie im wahrsten - Sinne des Wortes -
stimmt nicht. Vielleicht ist das mit ein Grund dafür, dass die Scheidungs-
raten heute so hoch sind.

Ich denke, meine Fragen bezüglich Zerstreuungkreisen und Schärfentiefe
sind vorläufig beantwortet. Ich will nur noch rasch herausfinden, wie
man die Schärfentiefe selbst berechnet. Mit geometrischer Herleitung.
Weils so schön ist. :lol:


Kommt drauf an, mit welcher Intention die Frau ans Werk geht.
Wie ich aus sicherer Quelle weiss, achten Frauen gerne auf knackige Hinterbacken. In der Urzeit hatte das mal etwas mit der vermuteten Befruchtungsfähigkeit zu tun, in der Neuzeit dürfte es eher etwas mit dem Inhalt der Gesäßtaschen zu tun haben. Bei mir sitzt da zumeist die Brieftasche. Alles klar?

Um mal wieder aufs eigentliche Thema zu kommen:

Mach doch einfach mal Aufnahmen mit gestaffelten Blendenreihen, dann bekommst Du am besten ein Gefühl für die Ausdehnung der Schärfentiefe bei den jeweiligen Blenden und Brennweiten. Auch die Verwendung der Abblendtaste ist sehr nützlich. Kein Mensch holt vor einer Aufnahme einen Taschenrechner aus der Hose.
 
Wenn Du zwei solche Bilder anbietest, mag der Durchschnittsbeobachter dennoch die Schärfe eines Bildes über jene des anderen Bildes setzen - nämlich dann, wenn ein Bild die höheren Kontraste anbietet, was gerne mit der "Schärfe" werfexelt wird.

Ja das ist klar, ich bin immer vom selben Bild in verschiedenen Auflösungen und/oder Betrachtungsabständen ausgegangen um es nicht noch komplizierter zu machen.


Ich denke, meine Fragen bezüglich Zerstreuungkreisen und Schärfentiefe
sind vorläufig beantwortet. Ich will nur noch rasch herausfinden, wie
man die Schärfentiefe selbst berechnet. Mit geometrischer Herleitung.
Weils so schön ist. :lol:

Genau so habe ich mit meinem Programm auch angefangen und damit in EXCEL rum gespielt. Man kann dabei viel über die Zusammenhänge lernen.
 
Hallo Anathbush,

ich habe mir das mit dem Nyquist-Theorem übertragen auf Bilder noch
mal überlegt. Bei Audio nimmt man ja eine Samplingfrequenz >= höchste
abzutastende Frequenz.

Wenn ich nicht total falsch denke, nimmst du quasi die Hälfte. Müsste
man nicht die Hälfte einer Pixellänge nehmen?
 
ich habe mir das mit dem Nyquist-Theorem übertragen auf Bilder noch
mal überlegt. Bei Audio nimmt man ja eine Samplingfrequenz >= höchste abzutastende Frequenz.

Ja, man muss sogar Samplingfrequenz >= 2*höchste abzutastende Frequenz nehmen.


Wenn ich nicht total falsch denke, nimmst du quasi die Hälfte. Müsste
man nicht die Hälfte einer Pixellänge nehmen?

Der AA-Filter muss dafür sorgen, dass die Zerstreuungskreise auf dem Sensor nicht kleiner werden als 2*der Pixelgröße. Das Signal (die Zerstreuungskreise) muss ja gröber aufgelöst sein als die Abtastung (also der Pixelabstand). Sollte also alles stimmen.
 
Ja, man muss sogar Samplingfrequenz >= 2*höchste abzutastende
Frequenz nehmen.

Öhem, die 2x habe ich vergessen hinzuschreiben. Ohne diese 2x
würde meine Frage ja auch keinen Sinn machen. :ugly:


Was wäre denn, wenn man eine Linse hätte, die unendlich
genau abbildet und das ganze ohne irgendwelche Filter direkt
auf den Sensor schickt?
 
So was gibt es, aber dann entstehen Moiré-Effekte und die sind je nach Stärke kaum zu entfernen. Helfen würde es nur, wenn Du einen Sensor hast der 2x so gut auflöst wie das beste Objektiv, das es für Dein System gibt. Dann könnte man sich den AA-Filter sparen.
 
So was gibt es, aber dann entstehen Moiré-Effekte und die sind
je nach Stärke kaum zu entfernen.

Aber Moire-Effekte entstehen doch eigentlich nur dann, wenn
man bestimmte regelmäßige Muster fotografiert. Stoff oder so.
Wenn das Motiv aber solche Muster nicht hat, könnte man doch
auf so einen Filter verzichten und dadurch doppelte Auflösung
erhalten oder?


Die AA-Filter sind ja in der Kamera (und nicht im Objektiv)
installiert.

Wenn die dann das Signal so stark filtern, dass die Unschärfe-
kreise immer mindestens 2x Pixelgröße haben, dann können
die Objektive theoretisch so gut sein, wie sie wollen, die
Auflösung wird dadurch nicht besser. :eek:

Andererseits: Wenn man solche Filter nicht hätte, könnte man
sich durch schlechtere Objektive (geringere Schärfe) behelfen.
oder so fokusieren, dass die Moire erzeugenden Muster leicht
aus dem Fokus heraus sind, so dass sich hier die doppelte
Zerstreuungsscheibe ergibt. Nur halt dumm, wenn dieses
Muster die gleiche Entfernung hat, wie das, was man eigentlich
scharf haben will, z.B. die Augen des Moiree-Anzugträgers. :rolleyes:

Danke für dein Zurechtbiegen meiner Gedanken. :lol:

Ich habe übrigens die Formel für die Hyperfokaldistanz
eben selbst hergeleitet bekommen. *Stolz*
Vor paar Tagen habe ich mir die Formel für den Öffnungswinkel
eines Objektivs für gegebenen Sensordurchmesser und Brennweite
hegeleitet. Meine errechneten Winkel entsprechen genau denen,
die in einem Objektivtest in irgendeiner Fotozeitschrift vom 12/08
veröffentlicht wurden. Leichte Abweichungen ab der ersten Nach-
kommstelle erkläre ich mir dadurch, dass die Öffnungs winkel-
Angaben im Test gerundet sind. Allerdings bin ich nach meiner
Herleitung der Meinung, dass die angegebenen Öffnungswinkel
eigentlich nur für unendlich weit entfernte Objekte genau stimmen,
weil sich für nähere Objekte die Brennweite ändert. (bzw ändern
müsste)
 
Fotografiert ihr auch was anderes als Testcharts? ;) Mit dem Fred kann man Fotografie-Einsteiger ja ganz schön abschrecken ^^"

Ich mein, inweit ist dass den alles wichtig um einen ordentlichen Print zu machen? :D
 
Fotografiert ihr auch was anderes als Testcharts? ;) Mit dem Fred kann man Fotografie-Einsteiger ja ganz schön abschrecken ^^"

Ich mein, inweit ist dass den alles wichtig um einen ordentlichen Print zu machen? :D

In wie weit ist es denn wichtig einen ordentlichen Print zu machen? Ich meine, wenn Du nicht gerade einer dieser vielen erfolglosen Berufsfotofrafen bist, die unbedingt einen "ordentlichen Print" brauchen um was zu beißen zu haben, ist es doch egal was Du machst, solange Du damit glücklich bist.

Und:

Ich habe übrigens die Formel für die Hyperfokaldistanz
eben selbst hergeleitet bekommen. *Stolz*

Klingt für mich nach echter Freude (die ich persönlich gut nachvollziehen kann, das ist nämlich eine größere Leistung als die Kamera sinnlos in die Gegend zu halten und auf den Knopf zu drücken). Was spricht dagegen sich beim Fotografieren lernen auch mit den Hintergründen zu beschäftigen? Das macht die Bilder vielleicht nicht besser, aber schlechter sicher auch nicht...
 
Ich hab mehr Freude wenn ich Zeit zum Fotografieren hab, anstatt mich mitm Taschenrechner und Block+Bleistift in die Landschaft zu stellen und so nen Kram zu berechnen.

Nix für ungut. Die Hintergründe zu kennen ist ja ned verkehrt. Aber für mich klingt dieses ganze Berechnen mit den Formeln usw. ziemlich praxisfern.

(wegen den Prints verkaufen muss ich mir keine Sorgen machen. Bin ja angestellt :D )
 
Sorry, hatte nicht mitbekommen, dass Du tatsächlich Fotograf bist :o...

Ich verstehe nicht ganz, was Du mit Block und Bleistift in der Landschaft stehend berechnen möchtest. Die Umrechnung von max. Zerstreuungskreisen in Sensorauflösung ist eine sehr grundlegende Frage, bei der es überhaupt keinen Sinn macht, sie während des Fotografierens zu "berechnen".

Oder falls Du mit Taschenrechner und praxisfern auf mein Programm anspielst, so hoffe ich, dass Du es wenigstens ausprobiert hast. Auch wenn die Theorie dahinter nicht jeden interessiert, so denke ich doch, dass es auch Leuten ohne große Fotografiererfahrung sehr schnell zeigen, wovon die Schärfe und ihr Verlauf im Bild abhängt.

Das ist aber auch nichts, was man auf dem Laptop mitschleppen soll. Es ist zum rumspielen für zu Hause, damit man schnell versteht wie man gut frei stellen kann, warum bei Teleaufnahmen der Hintergrund so schön unscharf ist usw.
 
WERBUNG
Zurück
Oben Unten