• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wie und warum "digital denken"?

[...] oder man überlegt sich anschaulich, was passiert, wenn der Unschärfefleck nicht genau auf einem Pixel liegt und kommt mit wesentlich weniger Prämissen zu einer Erklärung, die vermutlich für viele Leute anschaulicher ist.

Das mag in diesem einfachen Beispiel noch anschaulich sein, wenn auch unnötig kompliziert. Aber jetzt nimm mal Beugung, Abbildungsfehler, Verwacklung usw. mit in das Modell auf. Dann verhedderst Du ich entweder ganz schnell in elend vielen Fallunterscheidungen, oder Du mittelst mal eben schnell Pi mal Daumen.

Aber im Grunde hatte ich oben noch einen Zusatz vergessen: Gegen diesen um √2 größeren Unschärfefleck kam dann auch schon der Einwurf, dass das ja gar nicht möglich sei, es gebe ja keine Bruchteile eines Pixels.


Gruß, Matthias
 
Gegen diesen um √2 größeren Unschärfefleck kam dann auch schon der Einwurf, dass das ja gar nicht möglich sei, es gebe ja keine Bruchteile eines Pixels.
Das ist mir aber lieber als unsere kurze Differenz über Überlagerung von Beugungs- und Brechungsunschärfe. :evil:
 
Das mag in diesem einfachen Beispiel noch anschaulich sein, wenn auch unnötig kompliziert. Aber jetzt nimm mal Beugung, Abbildungsfehler, Verwacklung usw. mit in das Modell auf. Dann verhedderst Du ich entweder ganz schnell in elend vielen Fallunterscheidungen, oder Du mittelst mal eben schnell Pi mal Daumen...

Die Theorie verlangt aber immer nach einer praktischen Bestätigung, deshalb meine Löcher- und Siemensstern-Bilder auf Pixelebene.
 
Die Theorie verlangt aber immer nach einer praktischen Bestätigung, deshalb meine Löcher- und Siemensstern-Bilder auf Pixelebene.

Wieso sind Deine Siemens-Sterne Beispiele auf Pixelebene? Entweder ich verstehe nicht, was sie zeigen sollen, oder ich sehe einfach nur Moire.

Aber davon mal abgesehen: Ich will keine "neue Theorie" aufstellen und ich will auch nicht über den didaktischen Wert diskutieren. Den Erklärungsschritt von x verschiedenen Fallunterscheidungen zu der Betrachtung des Mittelwerts und der Sinnhaftigkeit der Flächenaddition traue ich mir ggf. in 2 Sätzen zu, aber darum geht's nicht.


Gruß, Matthias
 
... Stattdessen denke ich dann eher in Ortsfrequenzen, Abtastraten, Übertragungsfunktionen usw., ...
Gruß, Matthias

Du hast die Z-Transformation vergessen. Damit beschreibt mnan die Wirkung der digitalen Zwischenschritte.

Diese Wirkung ist erheblich, wenn die Pixelauflösung (Abtastfrequenz) nicht wesentlich größer sind als die Eingangssignale (das durch die Optik auf den Sensor projizierte Bild).
 
Wieso sind Deine Siemens-Sterne Beispiele auf Pixelebene? Entweder ich verstehe nicht, was sie zeigen sollen, oder ich sehe einfach nur Moire.

Man könnte z.B. den Bildern entnehmen, wieviel Pixel nötig sind, um ein Linienpaar als getrennt darzustellen und wie dies von der Richtung abhängt ...
Richtungsunabhängig bekommt man fast immer eine Trennung ohne Moire bei mindestens 4 Pixel/Lp, also bei der halben Nyquist Frequenz.

Man kann natürlich auch diese 6MP-Kamera-Objektiv-Kombination auf andere Weise untersuchen, wie ich es mal schnell gemacht habe (siehe Anhang).
 
So, jetzt nochmal ein Beispiel. Gerade habe ich diese mehr oder weniger willkürlich herausgegriffene Aussage gefunden:

Beide Objektive lösen (egal in welcher Entfernung) deutlich besser auf, als der Sensor einer D700. An der D800 schauts da erheblich anders aus. Da ist das 70/200 bereits massiv überfordert, während das 105er noch immer über der Auflösung des Sensors liegt.

Für mich klingt das nach der Idee, sowohl ein Objektiv als auch ein Kamerasensor hätten eine scharf definierte Auflösungsgrenze, darunter alles gut, darüber gar nichts mehr. Und als würde das Element mit der niedrigeren Grenze die Gesamtauflösung des Systems bestimmen, ganz im Sinne des beliebten "schwächsten Kettenglieds". Ich weiß allerdings nicht, ob "marfil" das wirklich so gemeint hat, vielleicht tue ich ihm Unrecht. Ich hoffe es.

Wenn man sich dieser Sache mit dem Konzept der Übertragungsfunktionen annimmt, weiß man natürlich, dass beide gemeinsam die Auflösung bestimmen, und dass im mittleren Bereich ein höher auflösender Sensor ein "Gurkenglas" sogar zumindest teilweise wieder aus dem Dreck ziehen kann. Andersrum selbstverständlich genauso.

Aber darauf wollte ich gar nicht raus, sondern: Wie erklärt man diesen Effekt rein "auf Pixelebene"? (nein Burkhard, nicht per PSF im Ortsraum, sondern "pünktchenzählend")



Gruß, Matthias
 
Wie groß ist ein Bildpunkt auf dem Sensor? Welche Entfernung müssen sie voneinander haben, damit man sie trennen kann?

Solche Fragen hatten mich veranlasst, helle Punkte unter reproduzierbaren Bedingungen zu fotografieren. Löcher von ca. 0,5mm Durchmesser vor einer Lichtquelle (Blitz) wirken aus 8m Entfernung wie Lichtpunkte. Mit einer Linse mit 5cm Brennweite sollten laut Abbildungsformel Bildpunkte von ca. 3µm Durchmesser entstehen.
Das erste Bild (entstanden bei Blende 5,6) zeigt einen Ausschnitt des entstandenen Bildes auf der Bayermatrix einer Dynax 7D mit Pixelpitch 8 µm in 10 facher Vergrößerung (keine Simulation!). Jedes Pixel wird durch ein rotes, grünes oder blaues Quadrat dargestellt.
Man sieht deutlich die "Vergrößerung" der Lichtpunkte durch den AA-Filter. Die Beugung spielt unter diesen Bedingungen keine Rolle. Fehlfokussierung ist möglich, wurde aber minimiert durch viele Wiederholungen der Aufnahme und Auswahl des besten Ergebnisses. Linsenfehler spielen auch kaum eine Rolle, wie eine Untersuchung der Luftbilder der Löcher mit einem Mikroskop zeigten.
Wandelt man das RAW-Bild mit einem Konverter in TIFF ... um, so entsteht das 2. Bild (wieder in 10-facher Vergrößerung), auf dem nun Lichtflecke in 1 bis 2 Pixelgrößen zu sehen sind, wie eine Überlagerung beider Bilder (3.Bild)zeigt.
 

Ok, verstanden. Apropos, kann es sein, dass Du die Beugungsunschärfe Deiner 0,5mm-Löcher aus 8m Entfernung außer Acht gelassen hast? Nicht nachgerechnet, nur so 'ne Idee.

Aber davon abgesehen bewegst Du Dich mit diesen Beispielen in der Nähe oder sogar jenseits der Nyquist-Frequenz und damit in einem Bereich, der unter "normalen" Betrachtungsbedingungen nicht bildrelevant sein sollte. Oder stehe ich schon wieder auf dem Schlauch?



Gruß, Matthias
 
Du musst halt mal von Deinem hohen Ross als Experte mal ein wenig in die Welt der Dilettanten riechen. Dann würdest Du dies nicht einfordern:
Wenn man sich dieser Sache mit dem Konzept der Übertragungsfunktionen annimmt, weiß man natürlich, dass beide gemeinsam die Auflösung bestimmen, und dass im mittleren Bereich ein höher auflösender Sensor ein "Gurkenglas" sogar zumindest teilweise wieder aus dem Dreck ziehen kann. Andersrum selbstverständlich genauso.
Allein das Wort "Übertragungsfunktion" ist so allgemein verständlich wie das Kürzel PSF. Dies lesend wird fast jeder Dilttant zum Pixelpeeper - und zwar zu Recht.

Wolfgang
 
Ok, verstanden. Apropos, kann es sein, dass Du die Beugungsunschärfe Deiner 0,5mm-Löcher aus 8m Entfernung außer Acht gelassen hast? Nicht nachgerechnet, nur so 'ne Idee.

Aber davon abgesehen bewegst Du Dich mit diesen Beispielen in der Nähe oder sogar jenseits der Nyquist-Frequenz und damit in einem Bereich, der unter "normalen" Betrachtungsbedingungen nicht bildrelevant sein sollte. Oder stehe ich schon wieder auf dem Schlauch?
Gruß, Matthias

Der Durchmesser der Beugungsscheibchen ist etwa 8 µm groß, also so groß wie ein Pixel. Durch das AA-Filter wird das Licht aber auf mehrere Pixel verteilt und durch den Konverter wieder "zusammengerechnet". Ich bewege mich tatsächlich in der Nähe der Nyquist-Frequenz. Interessant ist aber, wie groß der vom Konverter erzeugte Bildpunkt ist, denn dies bestimmt letztlich -auf Pixelebene betrachtet- die Kantenschärfe und das Auflösungsvermögen.
Mit dem Programm QuickMTF, angewendet auf das Bild eines um 5° geneigten schwarz-weiß Übergangs geht das natürlich einfacher (vgl. oben), aber für einen Dilettanten undurchschaubar.
 
Aber darauf wollte ich gar nicht raus, sondern: Wie erklärt man diesen Effekt rein "auf Pixelebene"? (nein Burkhard, nicht per PSF im Ortsraum, sondern "pünktchenzählend")
Die Unschärfescheibchen eines 70-200 sind kleiner als die Pixel einer D700, aber größer als die einer D800. Beim 105er sind sie kleiner als die Pixel einer D800. Deshalb sieht man den Unterschied zwischen den Objektiven bei der D700 kaum, bei der D800 aber deutlich.

(Nichts gegen die Erklärung mit der MTF – im Gegenteil, natürlich bekommt man über die MTF die Sache auch quantitativ besser in den Griff, aber eben nur, wenn man mathematisch sattelfest ist. Die obige Erklärung, auch wenn sie vielleicht nicht wissenschaftlichen Standards genügt, ist auch für Leute ohne Abitur nachvollziehbar, denke ich.)

L.G.

Burkhard.
 
Zuletzt bearbeitet:
Deshalb sieht man den Unterschied bei der D700 kaum, bei der D800 aber deutlich.

...in 100%-Ansicht. Und jetzt mal bei gleicher Ausgabegröße und Betrachtungsentfernung, aber bitte ohne den "analogen Kunstgriff" der Bild-Vergrößerung. :p


Gruß, Matthias
 
Hallo Matthias,

die Erklärungen zum Siemensstern kann ich kurz fassen. Nach langem Suchen und Probieren mit definierten Bildern war es mir gelungen, die RAW-Dateien der Dynax 7D mit einem Basic-Programm zu entschlüsseln, zu lesen und dann natürlich auch zu manipulieren. So habe ich dann auch in Basic bzw. in der etwas eleganteren Sprache COMAL auf DOS-Ebene (W98) Zeichnungen im RAW-file-Modus erstellt und so auch einen Siemensstern, der genau soviele Linienpaare hatte, wie mein als Testbild verwendeter, nämlich 180 Lp/ Umfang. So konnte ich das echte Bild eines Siemenssterns mit dem künstlich erzeugten vergleichen und den Einfluss eines AA-Filters und der Beugung ... untersuchen ... und auch solche Spielereien machen.

Gruß,
Stuessi
 
[...] und dann natürlich auch zu manipulieren.

Mit anderen Worten: Das sind hübsche Beispiele für das Verhalten der Auslese/Auswerte-Software, aber es sind keine Fotos, nicht mal die eines hypothetischen Sensors ohne AA-Filter, und wir sehen keine Effekte, die uns evtl. in einem "ganz normalen Foto" blühen würden?


Gruß, Matthias
 
Das Bild links unten ist ein auf 200% vergrößerter Ausschnitt eines Fotos von einem Siemensstern, gemacht mit der Dynax 7D.
Das Bild links oben ist ein mit Computer in eine RAW-Datei gezeichneter Siemensstern, rechts oben das daraus entwickelte Bild.
Rechts unten sind Foto und Bild zum Vergleich übereinander gelegt.

Edit:
Ich habe noch eine Übersicht des 24x36 cm² großen Testbildes, von dem immer nur vergrößerte Ausschnitte der Mitte gezeigt wurden, hinzugefügt.
 
Zuletzt bearbeitet:
...in 100%-Ansicht. Und jetzt mal bei gleicher Ausgabegröße und Betrachtungsentfernung, aber bitte ohne den "analogen Kunstgriff" der Bild-Vergrößerung. :p
Einfach nur "pixelzählend", wie von dir gewünscht. Unabhängig von Ausgabegröße und Betrachtungsabstand. Es geht um das Erklärungsmodell, nicht darum, ob es jetzt einen praxisrelevanten Unterschied zw. D700 und D800 gibt, und unter welchen Umständen der sichtbar ist.

L.G.

Burkhard.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten