• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wie und warum "digital denken"?

Einfach nur "pixelzählend", wie von dir gewünscht. Unabhängig von Ausgabegröße und Betrachtungsabstand. Es geht um das Erklärungsmodell, nicht darum, ob es jetzt einen praxisrelevanten Unterschied zw. D700 und D800 gibt, und unter welchen Umständen der sichtbar ist.
.

Die Unschärfescheibchen eines 70-200 sind kleiner als die Pixel einer D700, aber größer als die einer D800. Beim 105er sind sie kleiner als die Pixel einer D800. Deshalb sieht man den Unterschied zwischen den Objektiven bei der D700 kaum, bei der D800 aber deutlich..
Sieht man oder sieht man nicht? Und wenn man sieht, unter welchen Bedingungen?
 
Moin!
Stattdessen denke ich dann eher in Ortsfrequenzen, Abtastraten, Übertragungsfunktionen usw., was nun wieder vielen hier im Forum völlig fremd zu sein scheint. Deshalb frage ich mal: Welchen bildwichtigen/-wirksamen Effekt kann ich nur, oder vielleicht auch nur besser, "auf Pixelebene" erklären?

Du setzt "auf Pixelebene" in Anführungszeichen, was ich mit "digital denken" gleich setze.
Wenn du in Abtastraten denkst, denkst du aber sehr wohl digital, weil ohne Abtastung gibt es auch kein digitales Bild.
Bildwirksamer Effekt, der sich nur digital erklären läßt, ist die Gefahr des Zustandekommens von Moire, was schon sehr anschaulich hier demonstriert wurde.
..und damit außerhalb des Bereichs, von dem ich hier eigentlich reden wollte und am Rand, wenn nicht sogar außerhalb, der "bildmäßigen" Fotografie.
Wenn du das aber damit abtust, dass das dich nicht interessiere, weil zu es nahe an der Nyquistfrequenz liege, ist das nur eine persönliche Wertung, weil du vielleicht nur 10 * 7 Abzüge machst und für dich nicht relevant ist. Aber es gibt auch genug Leute die halt sehrwohl nachträglich zoomen und auf großen Flächen ausdrucken wollen.
Bitte erkläre auch was du unter: ""bildmäßige" Fotografie " verstehst?
Ich kann mir trotz von dir gesetzten Anführungszeichen nichts darunter vorstellen.
 
Wie kann ich folgendes Problem anders als durch Probieren und auf Pixelebene lösen?

Ein Foto auf Postkarte im Format 15x10 cm² mit 300 ppi hat 2,1 Millionen Druckpunkte. Die Postkarte soll auch mit Lupe betrachtet werden können um Details besser erkennen zu können.
Wieviel Mp muss die Kamera mit Bayer-Sensor und AA-Filter haben, um ein optimales Bild zu erhalten?
 
Ich "fordere" nichts ein und es geht hier nicht um Didaktik. Hättest Du noch was konstruktives zur Erklärung des Phänomens "auf Pixelebene"?
Der Pixelabstand ist eine prima Längeneinheit, um ein Standardthema wie Auflösungsgewinn durch Erhöhung der Pixelzahl und sonst gleichen Bedingungen zu debattieren. Man darf nur den Bildbetrachter nie vergessen.

Gruß, Wolfgang
 
Ein Foto auf Postkarte im Format 15x10 cm² mit 300 ppi hat 2,1 Millionen Druckpunkte. Die Postkarte soll auch mit Lupe betrachtet werden können um Details besser erkennen zu können.
Wieviel Mp muss die Kamera mit Bayer-Sensor und AA-Filter haben, um ein optimales Bild zu erhalten?

Obwohl es eigentlich OT ist, würde mich die Antwort auf diese Frage sehr interessieren. Nach meiner praktischen Erfahrung würde ich auf 4-5 MP tippen, kann es aber nicht theoretisch begründen. Vielleicht kann mir freundlicher Weise jemand kurz die richtige Antwort mitteilen, gerne mit Begründung auf Pixelebene oder auch anders.
 
Du setzt "auf Pixelebene" in Anführungszeichen, was ich mit "digital denken" gleich setze.
Wenn du in Abtastraten denkst, denkst du aber sehr wohl digital, weil ohne Abtastung gibt es auch kein digitales Bild.
Bildwirksamer Effekt, der sich nur digital erklären läßt, ist die Gefahr des Zustandekommens von Moire, was schon sehr anschaulich hier demonstriert wurde.

Das habe ich nie bestritten. Trotzdem muss ich für dessen Erklärung und Beschreibung nicht pixelweise denken.

Wenn du das aber damit abtust, dass das dich nicht interessiere, weil zu es nahe an der Nyquistfrequenz liege, ist das nur eine persönliche Wertung, weil du vielleicht nur 10 * 7 Abzüge machst und für dich nicht relevant ist. Aber es gibt auch genug Leute die halt sehrwohl nachträglich zoomen und auf großen Flächen ausdrucken wollen.

Es geht nicht im geringsten darum, ob es mich interessiert oder nicht. Aber eine Untersuchung von Effekten bei der Nyquist-Frequenz ist nichts, was man unter normalen Betrachtungsumständen im Bild sehen wird. Und normal kann da viel größer als 7x10 sein.

Bitte erkläre auch was du unter: ""bildmäßige" Fotografie " verstehst?
Ich kann mir trotz von dir gesetzten Anführungszeichen nichts darunter vorstellen.

Z.B. ein Bild, das als Foto und als ganzes betrachtet werden soll, nicht mit der Lupe in 100%-Ansicht.

Ja, sieht man. Wenn man ein Poster druckt und nah genug rangeht. Wenn alles, was über 1500 px/Bilddiagonale bzw. 1 Mpx hinausgeht, für dich nicht "sichtbar" ist, dann nicht.

Wer sagt denn Bilddiagonale/1500? Ich würde Betrachtungsabstand/1500, oder meinetwegen /2000 oder /3000, ansetzen.

Wie kann ich folgendes Problem anders als durch Probieren und auf Pixelebene lösen?

Ein Foto auf Postkarte im Format 15x10 cm² mit 300 ppi hat 2,1 Millionen Druckpunkte. Die Postkarte soll auch mit Lupe betrachtet werden können um Details besser erkennen zu können.
Wieviel Mp muss die Kamera mit Bayer-Sensor und AA-Filter haben, um ein optimales Bild zu erhalten?

Dieses Problem gab es auch schon zu analogen Zeiten und auch da musste man bestimmen, welche Auflösung ein Foto bieten musste, um diesen Anforderungen zu genügen. Welcher hochauflösende Film? Welches Format? Welches Objektiv? Welche Blende? Welche Belichtungszeit? Usw. All das bestimmt die Auflösung und die musste damals, und muss heute, groß genug sein. Bloß damals gab es nicht den verführerisch einfachen Pixelabstand, auf den es heute alle reduzieren. Und es gab keinen "100%-Knopf".

Der Pixelabstand ist eine prima Längeneinheit, um ein Standardthema wie Auflösungsgewinn durch Erhöhung der Pixelzahl und sonst gleichen Bedingungen zu debattieren.

Wenn der Pixelabstand der dominierende Bremser bei der Auflösung ist, dann ja. Wenn nicht, wird's komplizierter.

Man darf nur den Bildbetrachter nie vergessen.

Eben. Und der will ein (quasi-) analoges Bild sehen, keine Pixel.



Gruß, Matthias
 
Wenn der Pixelabstand der dominierende Bremser bei der Auflösung ist, dann ja. Wenn nicht, wird's komplizierter.

Eben. Und der will ein (quasi-) analoges Bild sehen, keine Pixel.
Wenn beim Thema Auflösung ein Unschärfe"produzent" dominierender Bremser ist, ist die Debatte langweilig, weil der Mörder gefasst ist. Der Pixelabstand eignet sich immer, wenn dieser beim Spiel mitmacht. Ist er klein gegenüber der Konkurrenz, ist er langweilig. Und wenn man bei heutigen Kameras ganze(!) Bilder betrachtet(!), ist er immer langweilig. Für diesen Fall eignet sich der Pixelabstand als Längeneinheit nicht. Man sollte einen anderen Mitspieler nehmen.

Natürlich(!) betrachtet der Betrachter ein analoges Bild. Meine Beiträge zu diesen Themen sind auch i.d.R. analog. Ich nehme stetige Unschärfen.

Gruß, Wolfgang
 
Und wenn man bei heutigen Kameras ganze(!) Bilder betrachtet(!), ist er immer langweilig.

Das "ganze Bild" darf auch ruhig mal ein Ausschnitt sein, und man darf auch gern mal etwas näher rangehen. Aber eben betrachten, nicht pixelweise untersuchen.


Gruß, Matthias
 
Ich zeige mal, wie ich -hoffentlich für jeden nachvollziehbar- die Auflösung mit Hilfe von Siemenssternen bestimme.
Fotografiert wurde unter gleichen Lichtverhältnissen mit dem gleichen 5cm/2,8 Objektiv bei Blende 5,6-8
A-Bild 1- mit der Alpha 900 (24 MPixel, Kleinbildformat)
B-Bild 4- analog mit Dynax 7 auf Fuji Diafilm
C-Bild 5- analog mit Dynax 7 auf s/w-Film

Zur Auswertung ist eine 10µm-Skala eingefügt.

Ohne Artefakte sind die Linien
bei Bild 1 etwas oberhalb der Mitte zwischen Kreis 1 und 2 getrennt dargestellt.
Mit der Rechnung
Auflösung = 180 Lp/Kreisumfang

erhalte ich

Auflösung = 180 Lp / (1,3mm * pi) = 44 Lp/mm

Der MTF50 Wert liegt bei

1882 LPH = 1882/2 Lp/23,5mm = 40 Lp/mm,

wie eine Vergleichsmessung ergibt (Bilder 2 und 3)

Jeder kann nun sicher die Bilder 4 und 5 auswerten.
 
...
...
Auflösung = 180 Lp / (1,3mm * pi) = 44 Lp/mm

Der MTF50 Wert liegt bei

1882 LPH = 1882/2 Lp/23,5mm = 40 Lp/mm,

wie eine Vergleichsmessung ergibt (Bilder 2 und 3)

Jeder kann nun sicher die Bilder 4 und 5 auswerten.

----------
aber stüssi, wieso schaust du ein bild bloß mit mtf50-augen an und nicht mit mtf80 plus mtf 20brille?
 
Jeder kann nun sicher die Bilder 4 und 5 auswerten.

Ja, könnte ich im Prinzip. Aber ich verstehe immer noch nicht so ganz, was das mit meiner Frage zu tun hat.

Ok, die Bildfehler eines digitalen Sensors jenseits der Nyquist-Frequenz sehen anders aus als die eines analogen Films jenseits der Auflösungsgrenze. Der Effekt ist aber der gleiche: Irgendwo bricht die Auflösung zusammen. Und in einem betrachteten Foto sollte man tunlichst vermeiden, dass dieser Bereich sichtbar wird oder gar auffällt. Mit anderen Worten, etwas flapsig ausgedrückt: Egal ob analog oder digital, die Auflösung des Fotos sollte größer sein als die des menschlichen Sehsinns, denn sonst erscheint es unscharf, matschig, pixelig, was weiß ich, jedenfalls "schlecht". Und ich erkenne auch hier nicht, warum ich an dieses Problem bei Digitalfotos grundsätzlich anders rangehen sollte, als bei analogen.



Gruß, Matthias
 
Ok, die Bildfehler eines digitalen Sensors jenseits der Nyquist-Frequenz sehen anders aus als die eines analogen Films jenseits der Auflösungsgrenze. Der Effekt ist aber der gleiche: Irgendwo bricht die Auflösung zusammen.
Gruß, Matthias

Der Effekt ist eben nicht der gleiche:
Die Auflösung eines analogen Filmes ist im wesentlichen von der Korngröße bestimmt. Die Anordnung der Körner ist über die Fläche undefiniert statistisch verteilt. (Bitte korrigiere mich wenn ich da falsch liege).
Die Anordnung der Pixel dagegen ist über dir Fläche geometrisch sehr genau festgelegt.
Dieser Unterschied bewirkt aber, dass man bei gewissen Motivestrukturen in digitalen Bildern Moire erhält, in analogen aber nicht.

Und ich erkenne auch hier nicht, warum ich an dieses Problem bei Digitalfotos grundsätzlich anders rangehen sollte, als bei analogen.
Verlangt ja auch keiner von dir!
Du hattest die Meinung anderer erfragt.
Ein Digitalfoto sind halt ein Haufen Daten, die erst durch Verrechnung ein betrachtbares Bild ergeben. Wenn du die ganze digitale Kette Sensor - RAW - RaAWKonverter - JPGKonvertierung nicht beachten möchtest ist das auch deine Sache.
Stuessi hat wohl sehr deutliche Unterschiede gezeigt.
Das das Wissen über die physikalisch mathematischen Zusammenhang für viele (Pixelpeeper :)) von uns interessant ist und auch in der Beurteilung der Fotos eingehen kann sollte man aber niemanden absprechen.

In gewissen Sinn glaube ich schon zu verstehen was du meinst: Sich bei der Beurteilung von Fotos nicht nur an Pixeln festzulegen.

Dem stimme ich zwar zu, aber diese einfach zu ignorieren halte ich auch für falsch.
Es ist einmal als ganzes gesehen ein technischer physikalischer mathematischer Ablauf der durch die Einführung der Digitaltechnik noch komplizierter zu verstehen ist. Das kann doch nicht falsch sein, mehr zu verstehen.
 
Dieser Unterschied bewirkt aber, dass man bei gewissen Motivestrukturen in digitalen Bildern Moire erhält, in analogen aber nicht.

Und um die zu vermeiden, gibt es AA-Filter.

Dem stimme ich zwar zu, aber diese einfach zu ignorieren halte ich auch für falsch.

Woraus liest Du denn das? Ich sage nur, dass sich viele, sogar fast alle, Effekte erklären lassen, ohne dafür "von Pixel zu Pixel" denken zu müssen.

Der Anlass war im übrigen viel profaner: Da behauptete jemand, Digitalfotos würden nicht vergrößert (vom Aufnahme- auf's Ausgabeformat), sondern verkleinert (von der Sensor- zur Bildschirm-Pixelzahl). Und anderswo wurde auch schon behauptet, ein Digitalbild habe überhaupt keine "Größe". Wenn man unbedingt will, kann man sich natürlich jede beliebige Längeneinheit einfallen lassen, eben auch den Pixelabstand. Aber man muss es nicht, und viele Zusammenhänge werden dadurch unnötig kompliziert und unübersichtlich. Nein, man kann für ganz viele Effekte (da ging's ursprünglich um Beugung, Schärfentiefe und solche Sachen) weiterhin mit genau den gleichen Modellen denken und rechnen, die auch schon zu analogen Zeiten galten. Und die "neuen" Effekte (insb. Moiré) verlangen nicht, dass man "pünktchenweise" denken muss. Kennst Du die schematische Darstellung von Übertragungsfunktionen, Trägerfrequenzen, Aliassignalen aus der digitalen Nachrichtentechnik? Da wird auch nicht "von Sample zu Sample gedacht".


Gruß, Matthias
 
Aber man muss es nicht, und viele Zusammenhänge werden dadurch unnötig kompliziert und unübersichtlich. Nein, man kann für ganz viele Effekte (da ging's ursprünglich um Beugung, Schärfentiefe und solche Sachen) weiterhin mit genau den gleichen Modellen denken und rechnen, die auch schon zu analogen Zeiten galten. Und die "neuen" Effekte (insb. Moiré) verlangen nicht, dass man "pünktchenweise" denken muss. Kennst Du die schematische Darstellung von Übertragungsfunktionen, Trägerfrequenzen, Aliassignalen aus der digitalen Nachrichtentechnik? Da wird auch nicht "von Sample zu Sample gedacht".

Gruß, Matthias
Ich bin Nachrichtentechniker und Elektronikentwickler .
Daher kenne ich diese Begriffe und Diagramme wie auch Fouriertransformation (FT) und Diskrete Fouriertransformation (DFT). Mit letzterer lassen sich ja auch diese digitalen Effekte erklären.

Daher kann ich dich sehrwohl gut verstehen wenn dir bei so mancher Diskussion die Haare zu Berge stehen.

Meiner Meinung nach wird auch der AA-Filter bei diesen Diskussionen viel zu wenig mit eingeschlossen, da der ja eine wesentliche Wirkung aufs Ergebnis hat. Aber für den AA_Filter ist halt keine Übertragungsfunktion (oder Pixelabstand :)) allgemein verfügbar.
 
Aber für den AA_Filter ist halt keine Übertragungsfunktion (oder Pixelabstand :)) allgemein verfügbar.

Doch, und die ist sogar relativ einfach. Aber vor allen Dingen kann man die MTF des gesamten Systems Sensor+AA-Filter+Demosaicing vergleichsweise einfach (angeblich nach Aussage von H. Nasse/Zeiss, den Link müsste ich suchen) durch eine Gerade approximieren: Von 1 bei der Ortsfrequenz 0 linear abwärts zu 0 bei der Nyquist-Frequenz. Der "Rechenweg" vom Pixel bis dahin ist etwas langwierig (hab ich mal gemacht, müsste ich auch suchen). Aber wenn man da erstmal ist, kann man vieles sehr hübsch damit erklären, ohne wieder zum Pixel zu müssen.


Gruß, Matthias
 
Gruß, Matthias[/QUOTE]

Doch, und die ist sogar relativ einfach. Aber vor allen Dingen kann man die MTF des gesamten Systems Sensor+AA-Filter+Demosaicing vergleichsweise einfach (angeblich nach Aussage von H. Nasse/Zeiss, den Link müsste ich suchen) durch eine Gerade approximieren: Von 1 bei der Ortsfrequenz 0 linear abwärts zu 0 bei der Nyquist-Frequenz.
Gruß, Matthias

Das würde mich sehr interessieren.

Ich kann mir aber Gerade ab 0 nicht recht vorstellen, das würde ja auch eine Dämpfung bei sehr geringen Ortsfrequenzen bedeuten.
Ich hätte eher vermutet Ortsfrequenz 0 bis n eben nahe 1, dann Gerade bis 0 bei Nyquist.
 
Meinst Du diesen Artikel?
Doch, und die ist sogar relativ einfach. Aber vor allen Dingen kann man die MTF des gesamten Systems Sensor+AA-Filter+Demosaicing vergleichsweise einfach (angeblich nach Aussage von H. Nasse/Zeiss, den Link müsste ich suchen) durch eine Gerade approximieren: Von 1 bei der Ortsfrequenz 0 linear abwärts zu 0 bei der Nyquist-Frequenz.

Demnach hat ein gutes Objektiv eine praktisch lineare MTF mit der Ortsfrequenz (s.S. 10,11). Die MTF des s/w Films hat ein Max bei etwa 20/mm und danach einen linearen Abfall.

Einen solchen Verlauf mit quasi konstantem Wert (sagen wir 98%) bis zu einer Grenzfrequenz und anschließendem linearen Abfall kann ich mir für einen Sensor+Gedöns auch vorstellen. Ansonsten wäre die MTF bei sagen wir 10/mm ja von der Sensorgröße abhängig, was ich ziemlich wenig plausibel finde.

Gruß, Wolfgang
 
Ich kann mir aber Gerade ab 0 nicht recht vorstellen, das würde ja auch eine Dämpfung bei sehr geringen Ortsfrequenzen bedeuten.
Ich hätte eher vermutet Ortsfrequenz 0 bis n eben nahe 1, dann Gerade bis 0 bei Nyquist.
Da war ja einer unbemerkt schneller als ich.:top: Um die These zu festigen, sag ich mal so: Nehme ich einen 20mm hohen Sensor und berechne die MTF nach Matthias kommt bei der Ortsfrequnz von 1/mm nur eine MTF von müden 5% an. Das ist praktisch nix mehr.

Gruß, Wolfgang
 
WERBUNG
Zurück
Oben Unten