• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wie und warum "digital denken"?

Aber mal im Ernst: ob ich nun lieber in PSF oder in MTF denke, ist doch letztlich Geschmackssache.

Wenn denn wirklich in PSF gedacht würde (die ja auch ein analoges Konzept ist), wäre es ja ok, wenn auch vielleicht nicht wirklich einfacher. Aber leider passiert das ja meistens nicht, sondern es wird versucht "digital" in Pixeln zu denken, gewissermaßen von Bildpunkt zu Bildpunkt. Und das versperrt vielen den Denkschritt hin zu den viel hilfreicheren "analogen" Konzepten, egal ob nun PSF im Orts- oder MTF im Frequenzraum. Mir ist der Frequenzraum näher, kein Wunder für 'nen Akustiker, aber das war nicht mein eigentlicher Kritikpunkt, sondern das "Pünktchen-Denken".


Gruß, Matthias
 
Stell keine Fragen, wenn du die Antworten nicht verträgst.

Oscar2 hat Recht.

Die Frage, die er beantwortet, habe ich nicht gestellt. Und wenn Du keine Antwort zu meiner Frage hast, musst Du gar nicht antworten. ganz einfach, oder?


Gruß, Matthias
 
Seid's fertig, Burschens? ;)
Ich denke, die Antwort von burkhard2 ist schon ein Weg in die richtige Richtung.
Aber wenn man was erklären will, muss man eben auch bei den nicht-Pixel-typischen Themen einen Weg finden, den der Belehrte mitgehen will. Und in einer Welt, wo nicht wenige Durchschnittsmenschen schon beim Kopfrechnen regelmäßig versagen, kommt man dann mit Formeln (leider) nicht weiter.
 
Ich denke, die Antwort von burkhard2 ist schon ein Weg in die richtige Richtung.

Nein, denn er denkt doch genau wie ich analog.

Aber wenn man was erklären will, muss man eben auch bei den nicht-Pixel-typischen Themen einen Weg finden, den der Belehrte mitgehen will. Und in einer Welt, wo nicht wenige Durchschnittsmenschen schon beim Kopfrechnen regelmäßig versagen, kommt man dann mit Formeln (leider) nicht weiter.

Ich "will" gar nichts erklären, und schon gar nicht dem Durchschnittsmenschen. Und Formeln kommen meistens auch nicht vor. Ich erkläre Dinge nun mal auf meine Art, und wenn das nicht jeder versteht, ist das auch nicht schlimm. Meine Frage war aber, welche bildwichtigen Effekte der digitalen Fotografie zur Erklärung zwangsläufig ein "pünktchenweises" Denken "auf Pixelebene" erfordern. Es ging nicht um die Unterscheidung zwischen Orts- und Frequenzraum, die sind beide analog, und schon erst recht nicht um didaktische Fragen.


Gruß, Matthias
 
Nein, denn er denkt doch genau wie ich analog.
Auch wenn du nicht glauben wirst, diesen Satz von mir zu lesen :evil: : Nur weil etwas von dir kommt ist es deswegen nicht schlecht. :)
Was ich meinte war: Demosaicing etc. kommt natürlich ohne Betrachtung auf Pixelebene kaum aus. Für den Rest ist die analoge Betrachtungsweise durchaus ein sehr guter Ansatz.

Und Formeln kommen meistens auch nicht vor.
Du verweist gelegentlich mal auf deinen Thread zum Thema Abbildungsmaßstab & Co.

Es ging [...] schon erst recht nicht um didaktische Fragen.
Da liegt dann wohl mein Verständnisfehler. :)
 
Das analoge Konzept einer Vergrößerung vom Aufnahme- auf's Ausgabeformat erfordert keine besondere mathematische Vorbildung und ist auch zu digitalen Zeiten 100% gültig. Es gibt also keinen Anlass, sich da jetzt zu "digitalem Denken" zwingen zu wollen, und es führt dann ja auch noch zu Fehlschlüssen.

Das Eingangssignal (das Motiv) und seine Abbildung sind analog, das Ausgangssignal (das vom Menschen gesehene Bild) ist auch (quasi-) analog. Ob die Signalkette dazwischen analog oder digital ist, spielt zunächst gar keine Rolle. Es gibt wegen der digitalen Erfassung Phänomene wie z.B. Moire, aber für deren Erklärung muss ich auch nicht "in Pixeln" denken. In der Audiotechnik denkt doch auch niemand plötzlich zwanghaft in Samplen statt in Frequenzgängen, bloß weil irgendwo eine digitale Zwischenstufe in der Signalkette steckt.
Bei mir tritts Du damit offene Türen ein.

Wenn ich schon sehe, das DOF-rechner andere Werte ausspucken, wenn man bei gleichen Aufnahmebedingungen die Auflösung des Sensors zu unterschiedlicher "Schärfentiefe" führt, rollen sich mir die Fußnägel hoch.

Ein Motiv ist ja, es geht durch eine Optik auf den Sensor, wird ausbelcihtet und mit dem Auge wieder angeschaut. Ob nun Crop, Kleinbild, MF ... analog oder digital ... das war mir schon immer egal ... bei manchen gibt es Bildqualität nur im Kopf in virtuellen Pixeln, bei wenigen anderen auch im Motiv. ;)
 
Wenn ich schon sehe, das DOF-rechner andere Werte ausspucken, wenn man bei gleichen Aufnahmebedingungen die Auflösung des Sensors zu unterschiedlicher "Schärfentiefe" führt, rollen sich mir die Fußnägel hoch.
Dass die einen für Schärfentiefe auf die Bilddiagonale setzen und andere den Pixelpeepern genügen wollen, kann man den Rechnern selbst doch nun nicht anlasten. Unterschiedliche Zielgruppen eben.
 
Dass die einen für Schärfentiefe auf die Bilddiagonale setzen und andere den Pixelpeepern genügen wollen, kann man den Rechnern selbst doch nun nicht anlasten. Unterschiedliche Zielgruppen eben.
Man muß ja so nen Pixelpeeper nicht noch unterstützen, wo es rein sachlich eh falsch ist. Treibt man es auf die Spitze, gibt es eh nur eine Ebene, in der etwas scharf ist, egal bei welcher Blende.

Um Zum Thema zurückzukommen ... ich würde mich freuen, wenn mehr Leute fotografisch, anstatt in Pixeln denken würden.
 
Es ging nicht um die Unterscheidung zwischen Orts- und Frequenzraum, die sind beide analog,
Nicht wissend, was Du nun mit "analog" meinst, spekulier ich mal so:
- Ist analog ein Synonym für äquivalent, stimme ich zu
- Ist analog ein Synonym für stetig/differenzierbar, stimme ich auch zu. Jedoch erfordert dieses analog für das Bild einen unendlich großen Daten-, CPU Aufwand. Daher wird der Ortsraum zu Pixeln und das Spektrum des Frequenzraums wird abgeschnitten. Beides bleibt äquivalent zueinander.

Daher ist es wieder ziemlich egal, ob...
... bildwichtigen Effekte der digitalen Fotografie zur Erklärung zwangsläufig ein "pünktchenweises" Denken "auf Pixelebene" erfordern
Es darf auch im Frequnenzraum gedacht werden. Für Dilettanten ist der Ortsraum meist anschaulicher.

Gruß, Wolfgang
 
Man muß ja so nen Pixelpeeper nicht noch unterstützen, wo es rein sachlich eh falsch ist.
Wirklich "sachlich falsch" ist es ja nicht. Es gibt ja durchaus Leute, die auch an Leinwände in einer Galerie dicht herantreten - da kommt man mit 1/1500 nicht mehr weit. Das sind eben nur unterschiedliche Geschmäcker und darüber ist schwerlich zu streiten.

Treibt man es auf die Spitze, gibt es eh nur eine Ebene, in der etwas scharf ist, egal bei welcher Blende.
Richtig. Unterhalb der Pixelgröße wird die doch aber nicht sichtbar. Und bumm, sind wir bei der "digitalen Denke". :o

Um Zum Thema zurückzukommen ... ich würde mich freuen, wenn mehr Leute fotografisch, anstatt in Pixeln denken würden.
Das wird in einem technisch angehauchten Umfeld schwer. :o
Bei dem Wunsch gehe ich aber mit.
 
Was ich meinte war: Demosaicing etc. kommt natürlich ohne Betrachtung auf Pixelebene kaum aus.

Dass das Demosaicing auf Pixelebene gemacht wird, ist klar. Aber sieht man denn einen Effekt davon im fertigen Bild, den man ausschließlich mit "Pixeldenken" erklären kann? Für mich als "Frequenzraum-Denker" führt das zu einer effektiv etwas schlechteren Abtastfrequenz als der nominellen (1/Pixelabstand) und entsprechend zu einem Verlust an MTF im ganz hochfrequenten Bereich. Und für "Ortsraum-Denker" eben zu einer leicht größeren (30% oder so?) PSF.

Ein ganz anderes Beispiel für "Pixeldenken", das ich so oder ähnlich hier auch schon gefunden habe: Ein irgendwie hervorgerufener Unschärfefleck sei genauso groß wie ein Pixel. Da wurde dann lange überlegt, was passiert, wenn dieser Fleck mittig auf ein Pixel fällt, oder genau auf die Kante oder auf das Kreuz zwischen vieren oder sonstwie. Da kann man jetzt lange Rechenkunststücke durchexerzieren. Ich würde einfach den Mittelwert annehmen und in diesem Fall vereinfachend (und im Ortsraum!) die Flächen von Unschärfefleck und "Pixelunschärfe" addieren und käme im Mittel auf eine um √2 größere Unschärfe. Und je kleiner die Pixel im Vergleich werden, desto geringer wird der statistische Fehler meines Ansatzes. "Pizelzählen" ist aber in keinem Fall nötig.


Gruß, Matthias
 
Man muß ja so nen Pixelpeeper nicht noch unterstützen, wo es rein sachlich eh falsch ist. Treibt man es auf die Spitze, gibt es eh nur eine Ebene, in der etwas scharf ist, egal bei welcher Blende.
Sachlich falsch ist es eigentlich nur, wenn der DOF-Rechner nicht explizit nach der erlaubten Unschärfe fragt. Woher soll der arme DOF-Rechner wissen, ob ich ein kontrastreiches Motiv fotografiere und bei guter Beleuchtung ansehe, wo ein normalsichtiger Mensch auch bei normalem Betrachtungsabstand 3000 Punkte auf der Diagonalen auflösen kann? Oder aus bestimmten Gründen sogar einen Bildausschnitt machen will?

Aber ich glaube, der Schärfeanspruch bei der Schärfentiefe war hier gar nicht Thema??? Jedenfalls ist es m. E. kein optisches Phänomen, das man viel besser aus Pixelsicht oder viel besser mit Hilfe von MTF-Kurven erklären kann.

L.G.

Burkhard.
 
Aber ich glaube, der Schärfeanspruch bei der Schärfentiefe war hier gar nicht Thema??? Jedenfalls ist es m. E. kein optisches Phänomen, das man viel besser aus Pixelsicht oder viel besser mit Hilfe von MTF-Kurven erklären kann.

Ursprünglich nicht, aber das Beispiel finde ich gar nicht so falsch (und es geht ja auch nicht um MTF-Kurven oder nicht). Mir geht die Annahme der nominellen Pixelgröße als zulässiger Zerstreuungskreis jedenfalls auch eher quer. Ich würde den immer aus (Ausschnitt-) Vergrößerung, Betrachtungsabstand und Schärfeansprüchen ableiten. Wenn der so bestimmte zul. Z-Kreis in die Nähe der Pixelgröße gerät, wird es schon haarig, darunter natürlich völlig unmöglich. Aber auch wenn man genau die Pixelgröße annimmt, wäre das Bild eigentlich nirgendwo ausreichend scharf, schon in der Fokusebene wäre wegen Beugung, Abbildungsfehlern und effektiver Pixelgröße (nach Demosaicing) die Grenze überschritten. Und eine solche Rechnung deckt sich auch nicht mit der beliebten 100%-Ansicht, denn deren "gesehene" Schärfe hängt ja auch wieder von Bildschirmgröße und Augenabstand usw. ab.


Gruß, Matthias
 
Dass das Demosaicing auf Pixelebene gemacht wird, ist klar. Aber sieht man denn einen Effekt davon im fertigen Bild, den man ausschließlich mit "Pixeldenken" erklären kann?
Sicherlich nicht - aber das Problem liegt ja nicht da, sondern eher darin, dass der Pixelpeeper eben gerade nicht das fertige Bild betrachtet, sondern nur einen Ausschnitt dessen.
Blödsinn zwar, aber leider Realität.
 
Jetzt macht doch die Pixelpeeper nicht so schlecht....
Es ist doch auch interessant, was auf Pixelebene passiert!?
(Beim dritten Bild wurden 3 verschiedene RAW-Konverter verwendet. Das RAW-Bild wurde wieder mit Computer generiert. Der eingezeichneten Kreis hat einen Umfang von 360 Pixeln.Der Siemensstern hat 180 Lp/Kreisumfang.)
 
Zuletzt bearbeitet:
Ein ganz anderes Beispiel für "Pixeldenken", das ich so oder ähnlich hier auch schon gefunden habe: Ein irgendwie hervorgerufener Unschärfefleck sei genauso groß wie ein Pixel. Da wurde dann lange überlegt, was passiert, wenn dieser Fleck mittig auf ein Pixel fällt, oder genau auf die Kante oder auf das Kreuz zwischen vieren oder sonstwie. Da kann man jetzt lange Rechenkunststücke durchexerzieren. Ich würde einfach den Mittelwert annehmen und in diesem Fall vereinfachend (und im Ortsraum!) die Flächen von Unschärfefleck und "Pixelunschärfe" addieren und käme im Mittel auf eine um √2 größere Unschärfe.
Ja, das ist ein gutes Beispiel, an dem man die unterschiedlichen Herangehensweisen gut sehen kann. Die zugehörige Frage wäre ja: warum kann ich zwei Punkte, die einen Abstand von 1 px haben, nicht unbedingt getrennt wahrnehmen, und vielleicht ergänzend: wie weit müssen sie auseinander liegen, damit sie getrennt erscheinen. Man kann hier mit RMS, Flächen oder Varianzen argumentieren und auf deine Abschätzung kommen (wobei man allerdings auch ein paar Annahmen machen muss, z. B. ignoriert man, dass das Pixel nicht rund sondern quadratisch ist, und entsprechende Vorkenntnisse haben muss oder einfach glauben muss), oder man überlegt sich anschaulich, was passiert, wenn der Unschärfefleck nicht genau auf einem Pixel liegt und kommt mit wesentlich weniger Prämissen zu einer Erklärung, die vermutlich für viele Leute anschaulicher ist.

L.G.

Burkhard.
 
Die Herangehensweise über MFT hat natürlich den Vorteil, dass man sich nicht mit der Unterscheidung von Schärfe und Schärfeeindruck herumschlagen muss. Schon da scheitert es ja oftmals. Was die Erklärung auf analoger Basis für eben diese Zielgruppe vermutlich trotzdem nicht unbedingt leichter macht.
 
WERBUNG
Zurück
Oben Unten