• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pixelgröße, Beugung, Schärfentiefe?

  • Themenersteller Themenersteller Gast_194966
  • Erstellt am Erstellt am

Gast_194966

Guest
Moin und Gruß aus Alice Springs!


Bitte entschuldigt, ich sitze mit dem Handy und kann kaum sinnvoll googeln oder im Forum suchen. Wenn die Frage schon längst beantwortet ist, freue ich mich über Links.

Auf stundenlangen Flügen nach und Busfahrten durch Australien ist mir folgende Idee gekommen: Bisher habe ich auch selber die Pixelgröße/diche/anzahl einfach als eine starre Grenze für maximale Vergrößerungen oder Ausschnitte gesehen. Jetzt dämmert mir langsam, dass sie genau wie Beugungsunschärfe, Defokusunschärfe (->Schärfentiefe) und auch sonstige Abbildungsfehler einfach eine weitere Form der Unschärfe im fertigen Bild (!) ist, die genauso behandelt werden kann. Und zwar folgendermaßen:

In vielen Schärfentieferechnern werden einfach die Flächen (!) der Unschärfescheibchen aufgrund von Defokus und Beugung addiert. cBlur scheint auch einen Anteil der Abbildungsfehler zu addieren (->Objektivqualität). Und ich tendiere jetzt sogar dazu, auch die Pixelgröße als Fläche zu addieren. Und wenn die Summe all dieser Unschärfeflächen zu einem größeren als dem zulässigen Zerstreuungskreis führt, erscheint das fertige Bild unscharf.

Als Formel, wenn's sein muss, und mit sinnnigen Abkürzungen für Defokus, Beugung, sonstige Abbildungsfehler des Objektivs und Pixelgröße:

zges=Wurzel(zf^2+zb^2+za^2+zp^2)

Wenn dieser zges größer als der zulässige Z-Kreis zzul wird, erscheint das Bild unscharf.

Versteht Ihr, was ich meine? Wortreiche Erklärungen sind am Handy einfach lästig. Ich kann auch nicht regelmäßig teilnehmen und antworten. Lasst aber bitte die Idee mal sacken. Und vor allen Dingen: Gibt es Literatur in der Richtung? Ich mag mich am Handy nicht durch lange pdf-Aufsätze arbeiten. Das tue ich sofort, wenn ich wieder zuhause bin.


Grüße aus down under,
Matthias
 
Ganz korrekt ist es nicht, weil gerade die Pixel-Unschärfe ja nicht durch ein Gaußfunktion beschrieben werden kann (die anderen eher), was aber Voraussetzung ist, das man unabhängige Fehler quadratisch addieren darf.
Man sollte aber nicht päpstlicher als der Papst sein, ich würde es genauso machen wie Du.;)
 
Pixel-Unschärfe? Nö. Kann ich mir gar nicht vorstellen.

Warum soll ein Bild unschärfer werden, nur weil die Pixel kleiner sind? Oder habe ich Euch vollständig fasch verstanden?
 
Warum soll ein Bild unschärfer werden, nur weil die Pixel kleiner sind?
nicht kleiner, größer!
 
Ganz korrekt ist es nicht, weil gerade die Pixel-Unschärfe ja nicht durch ein Gaußfunktion beschrieben werden kann (die anderen eher), was aber Voraussetzung ist, das man unabhängige Fehler quadratisch addieren darf.

Nun ja, Beugung macht 'ne Besselfunktion. Defokus ggf. einen scharf begrenzten Kreis, Abbildungsfehler machen irgendwas, so richtig Gauß'sch sind die alle nicht. Die Pixelgrößengeschichte kommt dem wegen des AA-Filters wohl auch nah.

Man sollte aber nicht päpstlicher als der Papst sein, ich würde es genauso machen wie Du.;)

Dann werde ich das in langen Winterabenden nach meiner Rückkehr mal einbauen. Aber mit welcher Größe? "Pixelpitch" = Zerstreuungskreis?

Ich finde die Idee übrigens bestechend, weil damit die Rumeierei mit der Pixeldichte hübsch in einen Schärfentiefe/Unschärferechner integriert werden kann. Was mich jetzt noch am Phänomen interessieren würde: Wenn "Pixel-" und Beugungsunschärfe beide für sich gerade auf der Grenze zu unscharf liegen, führen sie dann gemeinsam zum Eindruck von Unschärfe?


Gruß aus dem Red Center, wo es zum denken viel zu warm ist. Aber gleich geht's an die Küste.

Matthias
 
Die Pixelgrößengeschichte kommt dem wegen des AA-Filters wohl auch nah.
Den AA-Filter haben wir ja ganz vergessen. Eigentlich müsste der auch noch in Deine Formel. Andererseits sollte ja ein vernünftiger AA-Filter eng mit der Pixelgröße korreliert sein, so dass man die beiden schon verheiraten kann.
Aber mit welcher Größe? "Pixelpitch" = Zerstreuungskreis?
Normalerweise macht man's ja mit Standardabweichungen, aber wenn Du z.B. für Defokus auch den Durchmesser des Scheibchen nimmst ist das sicher nicht schlecht. Es sei denn, es kommt noch einiges durch den AA-Filter hinzu. Das kann ich aber aus dem Bauch heraus nicht beurteilen.
Was mich jetzt noch am Phänomen interessieren würde: Wenn "Pixel-" und Beugungsunschärfe beide für sich gerade auf der Grenze zu unscharf liegen, führen sie dann gemeinsam zum Eindruck von Unschärfe?
Schon. Stell Dir vor, alles ausser der Pixelunschärfe ist 0. Dann treffen die Photonen von einer punktförmigen Lichtquelle immer das Pixel an der selben Stelle. Wenn das jetzt nicht exakt die Mitte ist und Du die Beugung einschaltest, wird auch in manchen Fällen das Nachbarpixel getroffen.
Gruß aus dem Red Center, wo es zum denken viel zu warm ist. Aber gleich geht's an die Küste.
Hier wird's langsam zu kalt zum denken. Gleich geht's ins Bett.
 
Den AA-Filter haben wir ja ganz vergessen. Eigentlich müsste der auch noch in Deine Formel. Andererseits sollte ja ein vernünftiger AA-Filter eng mit der Pixelgröße korreliert sein, so dass man die beiden schon verheiraten kann.

Eben, der AA-Filter sollte knapp unter der Nyquist-Frequenz liegen, und damit bestimmt der, und nicht der Pixelabstand, die "Unschärfe". "Pixelunschärfe" ist aber griffiger.

Normalerweise macht man's ja mit Standardabweichungen, aber wenn Du z.B. für Defokus auch den Durchmesser des Scheibchen nimmst ist das sicher nicht schlecht. Es sei denn, es kommt noch einiges durch den AA-Filter hinzu. Das kann ich aber aus dem Bauch heraus nicht beurteilen.

Ach, um 20% oder so muss man sich dabei wohl keine Sorgen machen. Es geht ja mehr um's Prinzip. Bis auf die Abbildungsfehler, die ja objektivabhängig sind, kann man die anderen 3 Anteile sehr einfach abschätzen, einfach aus Brennweite, Blende, Abstand, Aufnahme- und Ausgabegröße, Betrachtungsabstand und Pixelzahl. Und damit kann man grundlegende Zusammenhänge aufzeigen, ähnlich wie in einigen meiner Anhänge (nur Defokus und Beugung) und bei cBlur (mit geschätzten Abbildungsfehlern).

Schon. Stell Dir vor, alles ausser der Pixelunschärfe ist 0. Dann treffen die Photonen von einer punktförmigen Lichtquelle immer das Pixel an der selben Stelle. Wenn das jetzt nicht exakt die Mitte ist und Du die Beugung einschaltest, wird auch in manchen Fällen das Nachbarpixel getroffen.

Entscheidend ist hier wohl der Gedanke, dass im Mittel immer mehrere Nachbarpixel getroffen werden. Ich will ja nicht pixelgenau, sondern statistisch rechnen.

Hier wird's langsam zu kalt zum denken. Gleich geht's ins Bett.

Und ich brüte im Schatten am Pool und warte auf's Taxi zum Flughafen.


Gruß, Matthias
 
Zuletzt bearbeitet:
Moin mal wieder!

Australien ist leider fast vorüber und ich habe die Idee ein bisschen im Kopf gewendet. Aber vor allen Dingen habe ich mit solchen und ähnlichen Gedanken "mein Heimatforum" mal wieder völlig überfordert. Hier freue ich mich, dass wenigstens einige auf Anhieb verstehen, was ich meine (wenn mir auch vieles andere an diesem Forum ziemlich gegen den Strich geht...). Da ich aber immer noch am Handy sitze und kaum recherchieren kann, will ich das Thema einfach mal wieder hochspülen und bei der Gelegenheit um kluge Gedanken bitten.

Einerseits bleibt der Zweifel, ob der Ansatz überhaupt sinnvoll ist. Ich finde bislang aber keinen Grund dagegen.

Andererseits, oder eher weitergehend, bleibt die Frage, mit welcher Größe ich die "Pixelunschärfe" annehmen soll. Ich tendiere weiterhin zu Pixelabstand=Z-Kreis und will mir um notfalls 20% Abweichung keine Gedanken machen müssen. Habt Ihr andere und weitere Ideen?


Gruß, Matthias
 
Ich halte den Begriff der Pixelunschärfe i.A. für fraglich.

Ich sehe das so: Ist die Größe/Duchmesser eines Pixels größer als die eines Beugungsscheibchens, hat das doch keinen sichtbaren Nachteil auf die Bildqualität.
Die Bildinformationen werden "runterskaliert" aber doch eigentlich nicht mehr. Auf die Schärfe des Bildes, die letztendlich dabei rauskommt dürfte das überhaupt keinen Einfluss haben.
Oder irre ich da?
 
Oder irre ich da?

Ich glaube ja. Es geht ja um den Unschärfeeindruck des fertigen Fotos, und zum vergleichen sinnvollerweise in der gleichen Größe. Und ich glaube auch, dass man da statistisch rangehen muss. Wenn z.B. Beugungsunschärfe und Pixelgröße etwa gleich sind, dann wird mal nur 1 Pixel "erwischt", in anderen Fällen aber 2, 3 oder 4. Im Mittel würde der Beugungsfleck also größer abgebildet, als er tatsächlich ist. Sind die Pixel aber viel kleiner, würde er z.B. Mal 10, mal 11, mal 12 Pixel erwischen, und würde damit kaum größer abgebildet als er ist. So in etwa.


Gruß, Matthias
 
Rein praktisch würde ich versuchen, immer in sog. Raumfrequenzen zu
denken. Grund: Schärfe bezieht sich auf die höchsten Raumfrequenzen,
und die will man hier ja diskutieren.
Da mischen sich die unterschiedlichsten Frequenz-Anteile,
verursacht durch Pixelform (meistens quadratisch), Pixelgröße,
Filterwirkung des AA-Filters, Abbildungsleistung des Objektivs wenn
fokussiert (also dessen Modulationsübertragungsfunktion), Zerstreuung durch Defokussierung, Zerstreuung in Bild-Randbereichen (je nach Objektiv ),
nicht zuletzt auch die Raumfrequenzen des abzubildenden Objekts.
Und dann ist da noch das Bildrauschen, je nach ISO-Zahl. -
Multiplikation der Intensitäten aller dieser Raumfrequenzen gibt wohl zumindest
näherungsweise ein Gesamtresultat, anhand dessen man die Gesamt-
Schärfeleistung abschätzen kann und vermutlich auch einen Hinweis,
wieweit man durch gezieltes Anheben der hohen Resultat-Raumfrequenzen
noch nutzbringende digitale Schärfung bewirken kann. Ist alles was für Mathematiker, die mit dem sog. Faltungssatz jonglieren
können und die mit unüblichen sog. Abtastfunktionen vertraut sind.
 
Ich habe die letzten Tage das Forum nach Unschaerfe durchsucht und bin dabei auf diese Diskussion gestossen.

In vielen Schärfentieferechnern werden einfach die Flächen (!) der Unschärfescheibchen aufgrund von Defokus und Beugung addiert. cBlur scheint auch einen Anteil der Abbildungsfehler zu addieren (->Objektivqualität). Und ich tendiere jetzt sogar dazu, auch die Pixelgröße als Fläche zu addieren. Und wenn die Summe all dieser Unschärfeflächen zu einem größeren als dem zulässigen Zerstreuungskreis führt, erscheint das fertige Bild unscharf.

Als Formel, wenn's sein muss, und mit sinnnigen Abkürzungen für Defokus, Beugung, sonstige Abbildungsfehler des Objektivs und Pixelgröße:

zges=Wurzel(zf^2+zb^2+za^2+zp^2)

Wenn dieser zges größer als der zulässige Z-Kreis zzul wird, erscheint das Bild unscharf.


Ich finde, dass das sehr vernuenftig aussieht. Gibt es inzwischen vielleicht neue Erkenntnisse, wie man die einzelnen Flaechen gewichten sollte?

Bei den "sonstigen Abbildungsfehlern" stelle ich mir das schwierig vor, aber bei der Beugung, der Defokussierung und den Pixeln sollte es doch moeglich sein deren Unschaerfen durch geschickte Gewichtung der Flaechen zusammenzufassen.


Gruesse,
Paul
 
Huch, was hast Du denn uraltes ausgebuddelt?

Neue Erkenntnisse? Nun ja, das wurde ab und an wieder diskutiert und bei einigen Unschärfeeinflüssen ist es wohl eher so, dass sie sich linear addieren (also ihre Durchmesser). Aber all zu viel Gehirnschmalz würde ich da nicht mehr reinstecken. Ich habe mir das halbwegs plausibel "zurechtkalibriert", um damit in einem Diagramm ein paar grundsätzliche Zusammenhänge darzustellen. Das reicht mir. Für genauere Überlegungen muss man sowieso mit der MTF hantieren.


Gruß, Matthias
 
Für genauere Überlegungen muss man sowieso mit der MTF hantieren.

Danke fuer die Infos! MTF sind mir zu kompliziert und auch irgendwie unsympathisch. Das mit den Flaechen kommt mir schoen einfach vor, gerade geeignet fuer den Hausgebrauch.

Gruesse,
Paul
 
Einer der IMO besten Threads zum Thema (zumindest von denen, die ich kenne), war der hier. "Einfach" ist der aber auch nicht.
 
Danke fuer die Infos! MTF sind mir zu kompliziert und auch irgendwie unsympathisch. Das mit den Flaechen kommt mir schoen einfach vor, gerade geeignet fuer den Hausgebrauch.

Ansätze in steigender Genauigkeit:
  • Ansatz über die Flächen (mathematisch ist das Standardabweichung).
  • Ansatz über die MTF.
  • Ansatz über die 2D-MTF bei anisotropen Unschärfen (Koma, Astigmatismus, Bewegungsunschärfe).
  • ... das ganze muß zusätzlich noch als Funktion des Orts auf dem Sensor betrachtet werden.
  • ... und ist noch abhängig von der Wellenlänge
  • ... Objektivfehler sind weiterhin abhängig von der eingestellten Blende, eingestellte Brennweite (bei Zoom), eingestellte Entfernung <=> Motiventfernung.
  • ... Serienstreuungen des Objektivs
  • ... Luftdruck, Temperatur
Wer denkt, daß die MTF etwas allumfassendes ist, den muß ich schwer enttäuschen.

Im Ansatz über die Flächen kann man aber schon gute Näherungen erhalten. Berücksichtigen sollte man
  • Objektivunschärfe
  • Fokusfehler/Unschärfe durch Tiefe des Motivs
  • Verwacklung
  • Bewegungen des Motivs
  • athmosphärische Effekte (insbesondere bei Teleobjektiven)
  • Unschärfe durch Pixelgröße und AA-Filter
Der Ansatz über die Fläche hat folgende Nebenbedingungen oder Schwächen
 
Zuletzt bearbeitet:
Ja, da ist leider einiges verloren gegangen. Ich denke, dass man auch mit den Erläuterungen mitkommen kann, andererseits habe ich die Diagramme natürlich auch zum Teil noch in Erinnerung. :o
 
Danke fuer die Infos! MTF sind mir zu kompliziert und auch irgendwie unsympathisch. Das mit den Flaechen kommt mir schoen einfach vor, gerade geeignet fuer den Hausgebrauch.
Die Frage ist nur, ob das etwas mit der Realität zu tun hat. Wirklich weiterhelfen würde da nur ein wellentheoretisches Modell oder eine genaue empirische Untersuchung. Schon Beugung und Unschärfe zusammen ergeben konzentrische Ringe mit abnehmender Intensität (vgl. http://www.telescope-optics.net/diffraction_pattern_and_aberrations.htm, Fig. 94), was zeigt, dass Beugung und Defokus-Unschärfe keineswegs unabhängig voneinander sind. (Womit ich nicht sagen will, dass das mit der Flächenaddition falsch ist, ich sehe nur keine Rechtfertigung — weder empirisch noch theoretisch — dafür.)

Die Objektivunschärfe hat mit Sicherheit einen wesentlich größeren Einfluss als die Flächenformel voraussagt. Wenn man sich die Bilder weiter unten auf der Seite ansieht, dann bewirkt sphärische Unter- oder Überkorrektur eine deutlich unterschiedliche Intensitätsverteilung der Zerstreuungsringe, was sich auch stark auf den Durchmesser eines "mittleren Zerstreuungskreises" auswirken muss. Beim Flächenmodell wäre bei starker Defokus-Unschärfe die Objektivunschärfe praktisch ohne Einfluss. (Bei der Addition der Unschärferadien wäre das ähnlich.)

L.G.

Burkhard.
 
WERBUNG
Zurück
Oben Unten