• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Pixeldichte vs Unschärfe

Matze871

Themenersteller
Hallo zusammen,

da im Zuge der 90d mit Ihren 32MP immer wieder Skepsis aufkommt bzgl schnellerer Unschärfe, würde mich das mal als Laien interessieren:

Soweit ich gelesen habe, kommt die Aussage daher, dass bei einer höheren Pixeldichte sich die Pixel gegenseitig beeinflußen und durch die Beugung schneller eine Unschärfe erreicht wird - ist das soweit korrekt?

Zum einen schreibt Canon auf der Seite etwas von Beugungskorrektur - dies dürfte wohl genau das Thema betreffen und zum anderen, wenn ich die Auflösung minimiere, so wird ja dennoch der gesamte Sensor ausgelesen. Wird in diesem Fall nicht mehr jeder Pixel mitgerechnet? Dann dürfte ja das Thema Unschärfe kein Problem mehr darstellen?

Ich hoffe, ich bringe nichts durcheinander und werde nicht gesteinigt :D

VG Matze
 
Also Beugung rausrechnen findet da wohl nach wie vor nicht statt.

Eine einfache Möglichkeit, Beugung etwas zu kompensieren, ist mehr schärfen. Das holt dann Details, die durch beugung sehr weich aber noch nicht ganz verschwunden sind, wieder zurück.

Bei der D810 und dem 70-200/2.8 Sports (oder einem anderen sehr scharfen Objektiv) sieht man das Nachlassen der Schärfe bereits von 5.6 vs f/8. Es ist dann aber noch so moderat, dass man mit mehr Schärfen das fast gaz wieder kompensieren kann. ein f/11 Bild kriegt man hingegen nicht mehr auf den Detailreichtum von 5.6

Was das für fast gleich viel MP auf einem 1.6mal kleineren Sensor heisst, kann man sich denken. Bis f/4 wäre optimal für die Beugung, bei 5.6 wird man mit Schärfen oder anderen Mehtoden die Beugung gut kaschieren können. Danach geht es abwärts. Zumindest in 100%. Schaut man hingegen den gleichen A3 Ausdruck wie mit 12 oder 18 oder 24 MP im Vergleich an, sieht man das natürlich erst viel später.

Ein Thema wird es also nur, wenn man das Mehr an Auflösung auch wirklich nutzt, sonst wird hat 100% was weicher aber der Druck nie schlechter.
Und es wird ein Thema für Objektive, die Mühe haben, bei f/4, aller, aller spätestens bei f/5.6 richtig scharf zu sein bei den relativ kleinen Pixeln. Das ist schon eine gewisse Herausforderung, obwohl ich da z.B. bei einem Sigma ART 18-35 keine Sorgen haben würde. Wenn man Objektive nimmt, die man hingegen schon an 18 MP lieber auf f/8 abgeblendet hat wegen der Randschärfe, dann wird von den 32 MP wegen der Beugung nicht so viel an Mehr übrigbleiben, nur schlechter wird es auch nicht.

Bei Landschaft, die nicht wegrennt, würde ich trotz Beugungskorrektur in der Kamera immer ein Stacking vorziehen it f/4 bis 5.6. Das ist und bleibt im Moment noch detailreicher als ein Foto mit f/11 oder f/16, WENN das Objektiv bei f/4 auch schon seine maximale Auflösung erreicht.
 
Zuletzt bearbeitet:
Hallo Matze,

Du hast recht, wenn du die Auflösung verringerst, verringerst du auch die Beugungsunschärfe.

Weiter ausgeholt: Von Beugung spricht man, wenn durch die geschlossene Blende die Lichtstrahlen stärker gebeugt und dadurch gestreut werden. Sie treffen also unpräziser auf den Sensor. Wenn diese Streuung die Größe eines einzelnen Pixels übersteigt, tritt Beugungsunschärfe auf. Da durch die High-Megapixel-Sensoren die einzelnen Pixel immer kleiner werden, tritt die Beugungsunschärfe früher auf, da der Streukreis der Beugung je nach Blende ja gleich bleibt. Somit musst du die Blende weiter öffnen, um den Streukreis wieder unter einen Pixel zu bekommen (vorausgesetzt das Objektiv kann ohnehin die Auflösung ausreizen; korrekt gesagt kann die Beugung nur bis zum maximalen Auflösungsvermögen des Objektivs verringert werden; Beugung tritt zudem immer auf, auch die maximale Blende verursacht Beugung, sie liegt aber unterhalb der relevanten Schwelle)

Beugungskorrektur in der Kamera ändert daran nichts, sie erhöht nur den Schärfe-Eindruck, indem sie den Kontrast zwischen den Tonwerten anhebt, und zwar je nach Objektiv genau in den Bildbereichen, die von der Beugung betroffen sind. Es kann also den Auflösungsverlust keinesfalls ausgleichen, sondern nur kaschieren.

Was du ansprichst mit der Beeinflussung der einzelnen Pixel, ist das Rauschverhalten. Jeder Pixel strahlt durch das elektrische Signal auch ein unerwünschtes Störsignal aus, das sich mit dem gewollten Signal des Nachbarpixels vermischt. Je enger diese Pixel liegen, desto stärker der Effekt. Ebenso wenn das Signal verstärkt wird (hohe ISO-Werte).

Beides ist aber nur relevant, wenn du die Auflösung tatsächlich zur Gänze nutzen willst. Rechnest du bspw. die Auflösung von 32 MP auf 24 MP runter, hast du dieselben Beugungseffekte wie ein 24MP-Sensor und meist sogar ein besseres Rauschverhalten.
 
Zuletzt bearbeitet:
An Donesteban: Ich muss deiner Erklärung widersprechen, durch Schärfen holst du keine Details zurück. Sie sind entweder vollständig da oder vollständig weg. Du erhöhst nur den Schärfe-Eindruck, indem du sehr geringe, tonale Unterschiede durch Anheben des Kontrastes für unsere Wahrnehmung besser wahrnehmbar machst. Das wirkt auf uns schärfer, obwohl dieselbe Menge an Details vorhanden ist. Oder sogar krasser formuliert: Schärfen kann sogar Details vernichten, da es nebeneinander liegende Helligkeitswerte zu einem Wert verschmelzen kann, um den Kontrast zu einem weiter danebenliegenden Wert zu erhöhen. Die Algorithmen verursachen auch Artefakte durch diese Berechnung, womit die Auflösung weiter sinkt. Im Endeffekt mach die Beugungskorrektur ja genau das. (edit: Genau gesagt sind es nicht nur Anpassungen der Helligkeit, sondern auch der Farb- und Sättigkeitswerte; das tut der Erklärung aber keinen Abbruch)
 
Zuletzt bearbeitet:
Wow, vielen Dank für die gute und verständliche Erklärung (y)(y)

Somit besteht dann vermutlich auch ein Algorithmus der bei Herabsetzen der Auflösung einzelne Pixel auslässt, daher dann auch nicht mehr die starken Beugungseffekte.

Wenn ich dann statt 32 MP nur noch 16 nutze, wird nur noch jeder zweites Pixel angesprochen usw, oder?
 
Also die Pixel werden nicht einfach ausgelassen, aber sie werden mit andren Pixeln zu einem Pixel verrechnet, sodass die bestmögliche Detaildichte in der geringeren Auflösung realisiert wird. Deshalb sieht 4k aus 6k berechnet besser aus, als 4k direkt, oder 1080p aus 4k berechnet besser als 1080p direkt. Zumindest so ähnlich, aber da setzt mein Wissen im Detail aus.
 
An Donesteban: Ich muss deiner Erklärung widersprechen, durch Schärfen holst du keine Details zurück. Sie sind entweder vollständig da oder vollständig weg. Du erhöhst nur den Schärfe-Eindruck, indem du sehr geringe, tonale Unterschiede durch Anheben des Kontrastes für unsere Wahrnehmung besser wahrnehmbar machst. Das wirkt auf uns schärfer, obwohl dieselbe Menge an Details vorhanden ist. Oder sogar krasser formuliert: Schärfen kann sogar Details vernichten, da es nebeneinander liegende Helligkeitswerte zu einem Wert verschmelzen kann, um den Kontrast zu einem weiter danebenliegenden Wert zu erhöhen. Die Algorithmen verursachen auch Artefakte durch diese Berechnung, womit die Auflösung weiter sinkt. Im Endeffekt mach die Beugungskorrektur ja genau das. (edit: Genau gesagt sind es nicht nur Anpassungen der Helligkeit, sondern auch der Farb- und Sättigkeitswerte; das tut der Erklärung aber keinen Abbruch)

Das war was unglücklich formuliert von mir.

Ich meine Folgendes: Beugung macht aus einem scharfen Detail ein unscharfes. Sprich ein Detail das etwas dunkler ist als eine Umgebung, wird nicht sauber als 1 Pixel dunkler und daneben heller dargestellt. Sondern das dunkler verschmiert etwas in die Pixel neben dran, die werden etwas dunkler. Und umgekehr verschmiert das hellere neben dem Detail auch etwas in das Pixel, das dunkler sein sollte.

Das Detail ist nicht vernichtet, solange die Beugung nicht deutlich grösser als 1 Pixel ist. Sondern es st in seinem Kontrast drastisch gemindert.

bei schwarz/weiss Mustern wie Seimenssternen wird man es evlt sogar trotzdem erkennen, wenn auch eben weich, sprich unklar.

Wenn das Detail das Laub eines weit entfernten Baumes ist, wo schon im Motiv nicht so doll Kontrast in den Details ist, wird man es evtl ohne Schärfen gar nicht mehr sehen. Zumal die aller meisten RAW Konverter auch noch etwas entrauschen, JPEG occ sowieso.

Das meine ich mit man kann den Effekt kaschieren.

Zu den konkreten Zahlen:Wenn ich mich recht erinnere, hat die Beugung in etwa Radius Pixelgrösse, wenn die Blendenzahl 1.6mal die Pixelgrösse ist. Das heisst bei meiner D810 mit ca. 5 Mikrometer grossen Pixeln ist das bei f/8 der Fall.

Der Effekt in der Praxis:
f/5.6 kann ich mir sehr scharfen Objektiven mit Radius 0.4 bis 0.5 schärfen, 300%, Threshold 0 (allles Capture One). Mehr wirkt überschärft.
f/8 kann man hingegen auf Radius 0.8 bis 0.9 anheben, sofern das Rauschen es erlaubt (ISO 64 hilft).

Der Radius ist noch nicht sograss, das Halo Effekte Details vernichten. Aber gross genug, um durch die stärkere Schärfung vorher plattgebüglete Details wieder klar sichtbar zu machen.

und genau deshalb geht das bei f/11 nicht mehr, da geht wirklich Info velroren und weiteres Erhöhen vom Radius bringt dann auch Nachteile bezüglich Details.

Und an APSc findet das ganze eben eine Blende vorher statt.

Deswegen sollte ein Objektiv für diesen 32 MP Sensor möglichst schon bei f/4 gut sein, wenn man die Auflösung nutzen will. Damit man eben nicht ständig in den bereich von bis f/5.6 gehen muss, wo man es ja nach ISO evlt noch mit schärfen etwas kaschieren kann.

Ich nutze an meinen APSc mit 24 MP die lichtstarken Zooms wie das 18-35 am liebsten nur bis 5.6, nur die etwas lichtschwächeren wie das 12-28/4 dann eher bei 6.3 oder 6.7, weil das Abbelnden bis da noch was bringt, die gewinnen dadurch noch.
Von 24 auf 32 MP ist ein Faktor von gut 1.2 in jede Richtung, d.h. f/6.7 an 24 MP enstpricht von der Beugung in 100% betrachtet dann etwa f/5.6 bei 32 MP.

Wenn ich sehe, was meine APSc kameras bei f/4 bis maximal 5.6 mit dem 14-20/2.0, dem 18-35/1.8, 24-35/2.0 oder dem 70-200/2.8 Sport birngen, dann zeigt das ganz schön, was möglich ist, wenn man eben darauf achtet, dass das Objektiv schon richtig Klasse ist bevor die Beugung einsetzt. landschaftsbilder bei tiefen ISO werden mit einer D750 dann nciht besser als mit der D3400, wenn ich solche Objektive an die Kleine schnalle.
 
Soweit ich gelesen habe, kommt die Aussage daher, dass bei einer höheren Pixeldichte sich die Pixel gegenseitig beeinflußen und durch die Beugung schneller eine Unschärfe erreicht wird - ist das soweit korrekt?
Das ist falsch. Die Beugung kommt nur vom Objektiv. Durch die etwas höhere Auflösung des Sensors sieht man sie (wie andere Unschärfen auch) nur schon in Fällen, wo man sie bei einem weniger hoch auflösenden Sensor noch nicht sieht. Der (lineare) Auflösungsunterschied von 24 zu 32 MP beträgt aber auch nur knapp 16%, da würde ich mir keine Gedanken machen.

Ein höher auflösender Sensor liefert (abgesehen vom Dunkelrauschen) immer mehr (oder mindestens gleich viel) Bildinformation. Wie viel mehr, das hängt einzig von der verwendeten Optik ab.

L.G.

Burkhard
 
Genau, Burkhard erklärt das schön und prägnant.

@TO
Du wirst durch eine besser aufgelöste Kamera nie ein schlechteres Bild bekommen, egal mit welchem Objektiv und du brauchst auch nicht kürzer belichten, wie man oft liest.
Das Bild wird vom Objektiv auf den Sensor geworfen und in wie viele Einzelpunkte es dort zerlegt wird, ist für das Gesamtbild egal.
 
Vergleich zweier Kameras mit unterschiedlicher Pixeldichte:
Dynax 7D: 127 Pixel/mm
SonyA7RII: 221 Pixel/mm

am Balgen mit COMPONON-S 80/5,6 bei Blende f/16 und ganz geschlossen.

100% Ausschnitte
 

Anhänge

Vielen Dank euch allen für die informativen und guten Erklärungen.
Nun ist mir das Thema auch klar. Man lernt nie aus :)(y)
 
Soweit ich gelesen habe, kommt die Aussage daher, dass bei einer höheren Pixeldichte sich die Pixel gegenseitig beeinflußen und durch die Beugung schneller eine Unschärfe erreicht wird - ist das soweit korrekt?
Die Sache ist relativ einfach:

Die Unschärfe, z.B. durch Beugungseffekte, welche ein Objektiv auf die Sensorebene projiziert ist von der Megapixelanzahl vollkommen unabhängig - sie tritt ja auch bei Analogfotografie auf.
Der Unterschied besteht darin dass die Größe einer solchen Unschärfe beispielsweise bei 18 MP 1 Pixel breit ist, bei 24 MP geht sie über 1,15 Pixel, und bei 32 dann über 1,33 Pixel. That's it.
(Ich habe zum Vergleich die 3 letzten Canon APS-C-Generationen genommen.)

Dadurch ergibt sich zwar in der 100%-Ansicht eine um rechnerisch 1/3 vergrößerte Unschärfe, bei Vollbildansicht oder großen Ausdrucken bedeutet das jedoch keineswegs eine Verschlechterung. Im Gegenteil, entsprechend gute Objektive und sorgfältiges Arbeiten vorausgesetzt erlaubt es ein (zwar geringes) Mehr an Details darzustellen.
 
Allerdings (ist mir immer wieder bei Bildern der D3 vs D7000 aufgefallen), ist es oft einfacher aus einem Bild mit niedriger Pixeldichte eine "scharfe" Verkleinerung anzufertigen, als aus Bildern mit großer Pixeldichte.
 
Hallo
"ist es oft einfacher aus einem Bild mit niedriger Pixeldichte eine "scharfe" Verkleinerung anzufertigen, als aus Bildern mit großer Pixeldichte."

Nach der Verkleinerung muss das Bild bearbeitet werden, z.B. geschärft werden.
Nach einer optimalen Bearbeitung, die je nach Pixeldichte individuell unterschiedlich ist,
wirkt das Bild mit der besser (höher) auflösenden Kamera schärfer.
Kurt
 
Grundsätzlich stimmt das, mit entsprechend Ahnung und Aufwand kann man das Mehr an Auflösung auch in die verkleinerte Version überführen - wenn aber eine Aufnahme aus D3 und D7000 z.B. minimal verwackelt war, dann sah man das bei der verkleinerten Version aus der D3 deutlich weniger , obwohl beide Bilder ähnlich viele Details hatten, nur wurde halt bei der höher auflösenden Kamera die Unschärfe besser "dokumentiert"
 
WERBUNG
Zurück
Oben Unten