• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Unschärfen < Pixelabstand im Bild unsichtbar?

Waartfarken

Gesperrt
Dauerhaft gesperrt
Themenersteller
Gestern gab es diese Diskussion:

Die förderliche Blende bei den neuen Sensoren und dem geringeren Pxelpitch liegt immer im Bereich zwischen f5.6 und f11 ...

Die "förderliche Blende" hat nichts mit Pixelabständen zu tun, sondern mit dem Optimum aus Beugung und Schärfentiefe. Ein Optimum zwischen Beugung und Pixelabstand gibt es nicht, das schärfste Ergebnis hat man immer bei der "kritischen Blende" des Objektivs, ganz unabhängig von der Kamera.

Der Pixelpitch hat wohl auch was damit zu tun, je kleiner die Pixel, je eher wird due Beugung durch die höhere Auflösung wahrnehmbar. Wenn der Zerstreuungskreis 8micrometer groß ist, siehst du den Pixel scharf wenn der gleichgroß ist. Sind die Pixel kleiner als das zerstreute Detail, dann fällt das früher auf.

Was aber nur in 100%-Ansichten gilt, zu denen man ja nicht bei jedem Bild gzwungen wird. In "normaler" Ansichtsgröße ist ein Bild von einem 36MP-Sensor selbst jenseits dieser "Beugungsgrenze" minimal schärfer (und nicht unschärfer!) als von einem 16MP-Sensor.

Es ist übrigens ein völliger Irrglaube, dass Beugungsflecken, Verwacklungen, Abbildungsfehler, Defokussierung usw. unsichtbar bleiben, solange sie kleiner als der Pixelabstand sind.

Es ist kein Irrglaube, das ist ganz logisch.
Stört aber normalerweise nicht, denn wenn der Betrachtungsabstand bei D40 und D800 gleich ist, hast du recht, dann ist alles gleich verwackelt/scharf ...

Dann erklär mir bitte die "Logik"!

Deine andere Aufforderung können wir gerne getrennt im Technikbereich nachgehen.
Genug OT ...

Der Schlüsselsatz, der mich zu der Frage hier gebracht hat, war:

Wenn der Zerstreuungskreis 8micrometer groß ist, siehst du den Pixel scharf wenn der gleichgroß ist.

Also: Ist eine Unschärfe aufgrund von Beugung, Verwacklung, Defokussierung, Abbildungsfehlern usw. "unsichtbar", wenn sie kleiner als der Pixelabstand ist? Wäre das Pixel dann "scharf"? Würde eine Unschärfe, die kleiner als der Pixelabstand ist, im Bild komplett verschwinden?

Und weiter: Würde ich also auf 2 "gleichen" und gleich groß betrachteten Bildern von bspw. einem 36MP- und einem 12MP-KB-Sensor diese Unschärfen im 1. Fall diese Unschärfen sehen, im 2. Fall aber nicht? Wäre also das 36MP-Bild bei gleich großer Betrachtung unschärfer?

Dass das bei 100%-Betrachtung so wäre, bestreite ich nicht. Aber das liegt dann einfach an der stärkeren Bildvergrößerung. Und insofern passt das obige Beispiel mit D40<>D800 nicht ganz, denn das D40-Bild wäre 1,5x stärker vergrößert.
 
Gestern gab es diese Diskussion:
Also: Ist eine Unschärfe aufgrund von Beugung, Verwacklung, Defokussierung, Abbildungsfehlern usw. "unsichtbar", wenn sie kleiner als der Pixelabstand ist? Wäre das Pixel dann "scharf"? Würde eine Unschärfe, die kleiner als der Pixelabstand ist, im Bild komplett verschwinden?

Nein, wer genau hinsieht, sieht das sie nicht komplett verschwindet. Aber da Auflösung immer von der Vergrößerung/Betrachtungsabstand abhängig ist, ist diese Annahme eine der wenigen "festen" Bezugsgrößen, die bei sehr unterschiedlichen Pixelgrößen halbwegs konsistente und in der Praxis mehr als brauchbare Ergebnisse liefert.

Ein einfaches "die Pixelgröße wird als Unschärfe wie Beugung, Verwacklung, Defokussierung, Abbildungsfehlern usw. aufaddiert", funktioniert übrigens auch nicht. Nicht jedes bisschen größer bei den Zerstreuungskreisen führt zu mehr Unschärfe (das ist gut zu sehen wenn man in 100% Ansicht die Bereiche um die Fokusebene sehr genau ansieht, es gibt da keine sofortige Abnahme der Schärfe, wenn man sich von der Ebene entfernt).

Ohne die Vorstellung, das Unschärfen völlig verschwinden wenn sie nur unter einem gewissen Verhältnis gegenüber dem Auflösungsvermögen von Sensor oder Auge liegen, würde es keine Schärfentiefe o.Ä. geben.
 
Also: Ist eine Unschärfe aufgrund von Beugung, Verwacklung, Defokussierung, Abbildungsfehlern usw. "unsichtbar", wenn sie kleiner als der Pixelabstand ist? Wäre das Pixel dann "scharf"? Würde eine Unschärfe, die kleiner als der Pixelabstand ist, im Bild komplett verschwinden?
Nein. Einfach mal überlegen: wenn eine Kante (z. B. ein Schwarz-Weiß-Übergang) zufällig genau auf der Pixelmitte landet, dann hättest du ohne Unschärfe tatsächlich dasselbe Bild wie bei Unschärfekreis = Pixeldurchmesser (die Pixelreihe, auf der die Kante liegt, bekommt 50 % Grau ab) – aber natürlich keine "scharfe" Kante. Wenn die Kante auf der Pixelgrenze liegt, sind ohne Unschärfe die Pixel auf der einen Seite schwarz und auf der anderen Seite weiß – mit Unschärfe sind sie dunkel- bzw. hellgrau. Bei einem höher auflösenden Sensor hätte der Übergang mehr Abstufungen und in der Mitte einen steileren Verlauf, wäre aber absolut gesehen nicht "breiter". Dadurch wirkt er im Zweifel "schärfer".

Und weiter: Würde ich also auf 2 "gleichen" und gleich groß betrachteten Bildern von bspw. einem 36MP- und einem 12MP-KB-Sensor diese Unschärfen im 1. Fall diese Unschärfen sehen, im 2. Fall aber nicht? Wäre also das 36MP-Bild bei gleich großer Betrachtung unschärfer?
Wenn du die 36 MPx auf 12 MPx herunterskalierst, gibt es sicher Einzelfälle, bei denen das 12 MPx-Ergebnis insgesamt "besser" ist, aber im Durchschnitt wird bei einem guten Algorithmus (Sinc, Lanczos) das skalierte 36 MPx-Bild schärfer sein.

Die Betrachtung oben bezieht sich natürlich auf einen S/W-Sensor, wenn noch Demosaicing ins Spiel kommt, wird die Betrachtung auf Pixelebene nicht einfacher, aber das Prinzip bleibt das gleiche.

L.G.

Burkhard.
 
Ein einfaches "die Pixelgröße wird als Unschärfe wie Beugung, Verwacklung, Defokussierung, Abbildungsfehlern usw. aufaddiert", funktioniert übrigens auch nicht. Nicht jedes bisschen größer bei den Zerstreuungskreisen führt zu mehr Unschärfe (das ist gut zu sehen wenn man in 100% Ansicht die Bereiche um die Fokusebene sehr genau ansieht, es gibt da keine sofortige Abnahme der Schärfe, wenn man sich von der Ebene entfernt).

Knapp vor und hinter der Fokusebene überwiegen wohl die anderen Unschärfeeinflüsse (Abbildungsfehler, Beugung, Verwacklung und ja, Pixelgröße), da hat ein kleiner Zuwachs der "Gesamtunschärfe" aufgrund von Defokussierung zunächst nur kaum merklichen Einfluss. Aber dass er gar nicht existiert, würde ich daraus nicht ableiten.

Ohne die Vorstellung, das Unschärfen völlig verschwinden wenn sie nur unter einem gewissen Verhältnis gegenüber dem Auflösungsvermögen von Sensor oder Auge liegen, würde es keine Schärfentiefe o.Ä. geben.

Wie oben: Der Zuwachs der "Gesamtunschärfe" ist klein und deshalb zunächst unmerklich und bis zu einer gewissen Grenze "akzeptabel". Die Vorstellung, er würde gar nicht existieren, brauche ich dafür nicht.
 
Generell sollte eine hohe Auflösung erstmal keine Nachteile haben, wenn anschließend auf die gleiche Ausgabegröße verkleinert wird.

Allerdings hatte "filter99" sehr glaubhaft versichert, dass er mit einer D7100 schlechtere Resultate in der Verkleinerung bekommt, als mit Kameras, die nicht so hoch auflösen. In der Diskussion wurde dies dann u.a. mit dem Verkleinerungsalgorithmus in Zusammenhang gebracht. Da diese immer weiter optimiert werden und dabei Wert darauf gelegt wird so viele Details wie möglich zu erhalten, kann es durchaus sein, dass dabei auch Beugung/Bewegungsunschärfe etc. besser ins finale Bild transportiert wird, was sich dann negativ auswirken würde.
 
Nein, wer genau hinsieht, sieht das sie nicht komplett verschwindet. Aber da Auflösung immer von der Vergrößerung/Betrachtungsabstand abhängig ist, ist diese Annahme eine der wenigen "festen" Bezugsgrößen, die bei sehr unterschiedlichen Pixelgrößen halbwegs konsistente und in der Praxis mehr als brauchbare Ergebnisse liefert.
Ja, eine Faustregel "Unschärfescheibchen unterhalb der Pixelgröße sieht man in der Praxis nicht" ist sicher sinnvoll (man muss nur aufpassen, dass zu viele "unsichtbare" Unschärfen zusammengenommen dann doch irgendwann sichtbar werden) – sie gilt aber genauso für die Pixelgröße des Sensors (in 100%-Ansicht) wie für die Pixelgröße des fertigen Bildes oder entsprechend für die Auflösungsgrenze des Auges bei der Bildbetrachtung.

Auch nach dieser Faustregel wird das Bild des 36 MPx-Sensors bei Skalierung auf 12 MPx oder gleichem Betrachtungsabstand nicht unschärfer aussehen als das des 12 MPx-Sensors, weil die zusätzlich aufgelösten Details unterhalb der Sichtbarkeitsgrenze liegen.

L.G.

Burkhard.
 
Generell sollte eine hohe Auflösung erstmal keine Nachteile haben, wenn anschließend auf die gleiche Ausgabegröße verkleinert wird...

Diese Bildausschnitte wurden alle auf die Bildgröße von 6 MPixel verkleinert.

6 MPixel
12 ---> 6 MPixel
24 ---> 6 MPixel
45 ---> 6 MPixel

Zum besseren Vergleichen dann noch die Ausschnitte in 2-facher Vergrößerung.
 

Anhänge

Und das sagt mir nun was? Das der Verkleinerungsalgorithmus mit 12->6 MP nicht zurecht kam? Das mehr Auflösung immer mehr Informationen liefert, auch in der Verkleinerung?
 
1. Was ist der Durchmesser des Beugungsscheibschens? Das müsste man erstmal definieren. Eigentlich ist es unendlich groß, die Intensität nimmt nur recht schnell nach außen ab. Also bei welchem Intensitätsabfall ist der "Durchmesser"?

2. Natürlich haben auch kleinere Beugungscheibchen einen Einfluss.
Schärfeverlust gibt es immer, wenn Licht nicht in dem Pixel landet, wo es hin soll. Das dieser Effekt nicht stark ist, ist ein anderes Thema. Es gibt aber die magische Grenze "Pixelabstand" nicht. Einfaches Beispiel:
 

Anhänge

Der Begriff "Schärfe" ist bei dieser Fragestellung eigentlich nicht angemessen. Man sollte besser vom "Detailkontrast" sprechen. Die Minderung des Detailkontrasts ist um so höher, je mehr die Unschärfeverteilung in die Nachbarpixel hineinragt. Dies beginnt nicht erst ab einer Grenzbedingung "Unschärfekreis > Pixeldurchmesser", sondern bereits bei Verteilungen mit geringerem Durchmesser. Der Grund liegt in der Wahscheinlichkeit einer Übertragung in Nachbarpixel und wurde ja bereits illustriert.

Bei Verkleinerung des Bildes wird der Detailkontrast wieder ansteigen (siehe Stuessis Beispiele), da die Zusammenfassung der Pixel wiederum mit einer relativ hohen Wahrscheinlichkeit verknüpft ist, dass die Übertragung in Nachbarpixel im neuen, "größeren" Einzelpixel wieder zusammengeführt wird. Da allerdings die Wahrscheilichkeit, dass diese Übertragung nun in den ebenso größeren Nachbarpixel landet, auch nicht bei 0 liegt, wird klar, warum nach einer Bildverkleinerung immer noch eine (adäquat dimensionierte) Nachschärfung folgen sollte, die den Detailkontrast zusätzlich anhebt.
 
1. Was ist der Durchmesser des Beugungsscheibschens? :::2. Natürlich haben auch kleinere Beugungscheibchen einen Einfluss...

Als Durchmesser kann man den des Zentralscheibchens bei ca. 0,6 µm Wellenlänge nehmen. Bei Blendenzahl 4 erhält man etwa 6 µm, das ist auch etwa die Pixelgröße meiner Alpha 900.
Ein Beugungsscheibchen, das nicht größer als ein Pixel ist, beeinflusst höchstens 4 Pixel.
Also kann ich mit der Alpha 900 (24 MPixel Sensor) von Beugungseinflüssen kaum beeinflusste 6-MPixel-Bilder mit optimaler Auflösung bei Blendenzahlen bis 4 machen.
In der Praxis kann man etwas weiter abblenden.

Die oben gezeigten Bilder von Siemenssternen (bei Blendenzahl 5,6) bestätigen das.
 
Zuletzt bearbeitet:
In der Praxis kann man etwas weiter abblenden.
Logisch ... und zwar deshalb, weil es für Sony-Alpha-Bajonett praktisch keine Objektive gibt, die ihr Optimum bereits bei f/4 erreichen würden.

Wenn deine Aufnahmen bei f/5,6 am schärfsten werden, dann deshalb, weil f/5,6 die optimale Blende deines Objektives ist. Mit dem Pixelabstand hat das rein gar nichts zu tun. Mit jeder anderen Kamera würden die Aufnahmen mit demselben Objektiv ebenfalls bei f/5,6 am schärfsten werden – einerlei, ob die Kamera 3 oder 6 oder 12 oder 24 oder 36 oder 80 Megapixel hat.
 
Was nennt Ihr denn so nett Pixelabstand?In der physischen Realität (bitte jetzt nicht mit den Ausnahmen kommen) ist ein "Pixel" vier "Sensel" verschiedener Farben, um den noch tote Fläche mit Leiterbahnen liegt, welche aber durch Mikrolinsengatter abgedeckt wird.


Ich wüsste nicht, von wo bis wo ich da messen sollte.


Die Schätzchen sind ja nun auch nicht immer quadratisch, sondern gerne mal rechteckig mit unterschiedlichen Kantenlängen.
 
Re: Unschärfen kleiner als Pixelabstand im Bild unsichtbar?

Was nennt Ihr denn so nett Pixelabstand?
Deutsch ist wohl nicht deine Muttersprache!? Pixelabstand ist der Abstand, die räumliche Entfernung, die Distanz von einem Pixel zum nächsten. Es ist der Kehrwert der Pixeldichte, also der Zahl der Pixel pro Längeneinheit.


... ist ein "Pixel" vier "Sensel" verschiedener Farben ...
Richtig ist zwar, daß die umgangssprachlich übliche Gleichsetzung von Pixel und Sensel streng technisch gesehen nicht ganz korrekt ist – Sensel sind die Bestandteile von Sensoren und bestehen aus Dioden, Transistoren, Farbfiltern, Mikrolinsen und Leiterbahnen, Pixel sind die Bestandteile von Bildern und bestehen aus Helligkeit und Farbe. Doch die Gleichung "ein Pixel = vier Sensel" ist ein Mißverständnis. Vielleicht solltest dich einmal über die Grundlagen der Bayer-Interpolation informieren. Jedenfalls erzeugt jedes Sensel ein Rohpixel, und anschließend wird jedes Rohpixel durch ein RGB-Pixel ersetzt (außer bei Schwarzweiß-Sensoren wie in Leica M Monochrom oder Phase One Achromatic).


... um den noch tote Fläche mit Leiterbahnen liegt, welche aber durch Mikrolinsengatter abgedeckt wird.
Deswegen spricht man ja auch vom Pixelabstand und nicht vom Pixeldurchmesser.


Ich wüßte nicht, von wo bis wo ich da messen sollte.
Vom Mittelpunkt des einen Pixels, äh, Sensels zum Mittelpunkt des danebenliegenden.


Die Schätzchen sind ja nun auch nicht immer quadratisch, sondern gerne mal rechteckig mit unterschiedlichen Kantenlängen.
Was soll jetzt diese Wichtigtuerei? Von wegen "gerne mal". Hast du dir nicht selber gerade eben noch das Herumreiten auf Ausnahmefällen verbeten? Die Zeiten, wo es Sensoren mit nichtquadratischen Pixeln gab, sind lange vorbei ... und sie waren ohnehin nie besonders weit verbreitet, sondern immer seltene Ausnahme. In so einem Falle betrachtet man die horizontalen und vertikalen Pixelabstände eben getrennt, oder man nimmt einen Mittelwert an.
 
oder man laesst das mit den "Pixelabstaenden" halt einfach.
Hilft doch eh keinem, dieses Konstrukt.

Sofern die Pixelanzahl gross genug[tm] ist, ist sie fuer das fertige Bild irrelevant.

Und sofern die Beugungserscheinungen klein genug[tm] - im fertigen Bild - sind, sind sie fuer das fertige Bild irrelevant. Egal, ob da jetzt im Einzelfall 1, 20, 100, oder 1000 Pixel davon betroffen sind.

An dieser Stelle mal ein ganz kurzer Rant:
Es k**zt mich an, wie "Bildqualitaet" hier teilweise goetzenhaft verehrt wird.
"Bildqualitaet" hat noch kein Foto zu einem guten solchen gemacht.

Und richtig absurd wirds dann halt, wenn man "noch mehr Bildqualitaet" will - die man gar nicht mehr sieht. Aber hey, Bildqualitaet! m(

Oder, anders gesagt: auch Unschaerfen >> Pixelabstand sind im fertigen Bild oft unsichtbar - andersherum sind Unschaerfen < Pixelabstand natuerlich nachweisbar.

Ich bin dann mal kurz wieder Fotos machen - mit Blende 32 an APS-C und ohne schlechtes Gewissen dabei.
 
Zuletzt bearbeitet:
An dieser Stelle mal ein ganz kurzer Rant:
Es k**zt mich an, wie "Bildqualitaet" hier teilweise goetzenhaft verehrt wird.
"Bildqualitaet" hat noch kein Foto zu einem guten solchen gemacht.

Und richtig absurd wirds dann halt, wenn man "noch mehr Bildqualitaet" will - die man gar nicht mehr sieht. Aber hey, Bildqualitaet! m(
Klar, man braucht unbedingt die höchstmögliche Auflösung, sonst sieht man nicht wie gut alles mit 85mm f/1.2 freigestellt wurde...
 
Nein. Einfach mal überlegen: wenn eine Kante (z. B. ein Schwarz-Weiß-Übergang) zufällig genau auf der Pixelmitte landet, dann hättest du ohne Unschärfe tatsächlich dasselbe Bild wie bei Unschärfekreis = Pixeldurchmesser (die Pixelreihe, auf der die Kante liegt, bekommt 50 % Grau ab) – aber natürlich keine "scharfe" Kante. Wenn die Kante auf der Pixelgrenze liegt, sind ohne Unschärfe die Pixel auf der einen Seite schwarz und auf der anderen Seite weiß – mit Unschärfe sind sie dunkel- bzw. hellgrau. Bei einem höher auflösenden Sensor hätte der Übergang mehr Abstufungen und in der Mitte einen steileren Verlauf, wäre aber absolut gesehen nicht "breiter". Dadurch wirkt er im Zweifel "schärfer".
Und auf diese Methode entstehen Moirés. Hier kommt das Nyquist/Shannon Samplingtheorem zum tragen, was besagt, dass nur Details > 2 Pixel zuverlässig reproduziert werden können und alles was kleiner ist in Aliasing mündet. Das ist auch der ganze Grund, wenn vor die Sensoren ein Tiefpassfilter montiert wird.
 
Und auf diese Methode entstehen Moirés.
Das ist so schon richtig - für hochauflösende Strukturen wie in Stuessis Bildern, bei denen die Betrachtung über Ortsfrequenzen Sinn macht.

Für die von Burkhard vorgetragene "Kante", also ein einmaliger Helligkeitssprung zur Trennung homogener Flächen, halte ich seine Beschreibung ebenso richtig. Eine Beschreibung über Ortsfrequenzen ist da wenig sinnvoll.

Gruß, Wolfgang
 
Ohne einen vorgeschalteten Tiefpassfilter fängt aber auch eine einzelne Kante im Bewegtbild an zu "schwimmen", und im Foto bekommt sie Treppenstufen wenn sie nicht 100% vertikal oder horizontal ist.
 
WERBUNG
Zurück
Oben Unten