• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die Böse, böse Pixelunschärfe: Fundamentaldebatte

...was auch immer da jetzt geschrieben stehen mag, ich kann es nicht sehen und will es nicht sehen, es ist mir wurscht. Ich habe keine Lust mich mit Leuten auseinanderzusetzen, die nur zu destruktiver Kritik fähig sind und dafür jedes noch so fadenscheinige "Argument" nutzen. Wer meint, mein Modell sei falsch, der möge bitte sagen, wie und warum es richtiger ist. Ein abwegiges Argument nach dem anderen vorzutragen, warum es falsch sein müsse ohne dazu sagen zu können (ich vermute aus purer Unkenntnis), welche Abweichungen und Konsequenzen dieser angebliche Fehler denn bedeutet, mag den einen oder anderen zufriedenstellen, führt aber zu gar nichts. Wie mein Modell entstanden ist (legitime statistische Betrachtungen gestützt durch Ergebnisse und Überlegungen von Falk Lumo und anderen) habe ich dargelegt. Mehr sage ich dazu jetzt nicht mehr.


Gruß, Matthias
 
Das hier ist nicht dein Thread (gibt es sowas überhaupt außerhalb der Galerie?) sondern der des TO und die Frage war nicht Selbstdarstellung, sondern Pixelschärfe. Wenn du gern mit Flächenaddition arbeitest, ist das für dich okay, gibt dir aber nicht das Recht, andere Sichtweisen beleidigend abzuwürgen - siehe mein erster Satz. Wenn Andere ein Modell mit Quadrierung der eindimensionalen Unschärfe vorschlagen, hat das genauso seine Berechtigung. Mein Post #136 hatte mit deinem Modell nichts zu tun, trotzdem bist du darauf gleich beleidigend geworden: Post #137 und Wörter wie "lächerlich" und "Unkenntnis" in weiteren. Gibt man dir Quellen wie beispielsweise das PDF von Michael Unser, würgst du das mit "nur ein Modell ab" - so weit okay - und stellst den anderen hinterher als dumm dar.
Das hilft dem Thread in keinster Weise und ist, wie gesagt, beleidigend.

Fassen wir mal zusammen:
- wir haben ein Modell basierend auf Flächenaddition
- ein Modell basierend auf der Quadrierung von eindimensionaler Unschärfe
- und kein Modell (da nicht ausgebaut) basierend auf Samplingunschärfe und unterschiedlicher Auflösung je nach Betrachtungswinkel, aber zumindest mit der Grobschätzung, dass sich das zwischen deinem Modell und der reinen pixelbegrenzten Auflösung befindet.

Da kann sich jetzt jeder seins raussuchen - das absolut richtige Modell werden wir hier nicht finden. Schon gar nicht in dem Diskussionsstil.
 
So, ich habe die böse Pixelunschärfe mal praktisch mir angesehen. Verglichen habe ich die Canon D30 (~10,1 µm) und die Oly E-M5 (~3,75 µm). Die verwendeten Objektive sind Standard, keine Superobjektive. Motiabstand war der gleiche, die Brennweite habe ich so angepasst, dass die 100%-Ansicht gleich groß ist. Je Kamera 5 Bilder, f/5.6, f/8, f/11, f/16 und f/22.

Und hier sind die 100%-Ausschnitte aus der Mitte des Bildes der D30, die Bilder der Oly folgen im nächsten Post

Gruß,

Karl-Heinz
 
und hier die Bilder der Oly.

Alle Bilder wurden in RAW aufgenommen, mit LR 4.1 konvertiert, Rauschunterdrückung und Schärfe auf 0.

Gruß,

Karl-Heinz
 
So, ich habe die böse Pixelunschärfe mal praktisch mir angesehen.
Als allererstes: ganz dickes Danke! Endlich mal jemand mit Butter bei die Fische. Deutlich zu sehen ist natürlich, wie kleinere Pixel schneller unter Beugung leiden. Vor allem aber fällt mir eins auf: dass mir eine "Unschärfe" bei den Bildern erst bei einer Blende auffällt, die mehr als doppelt so groß ist wie die Pixelgröße in µm. Das zeigt doch prima, wie sehr die Beeinflussungen in der ganzen Verarbeitungskette inkl. Schärfung des RAW-Converters das Auge gut täuschen können. :top:
Und was für mich noch schöner ist: das deckt sich mit meinen persönlichen Eindrücken von der LiveView-Lupe, wenn ich mal viel Schärfentiefe brauchte. Brauche ich also nicht umdenken. :D
(Auch wenn ich's nie so detailliert getestet habe.)
 
Ich bin technisch nicht besonders versiert, lese hier aber mit Interesse mit und habe mal einen Signaltheoretiker gefragt, was er dazu meint.
Spontan gab er an, das einfachste Modell, das ihm dazu einfalle, sei folgendes (ich hoffe, ich habe es einigermaßen richtig verstanden und kann es korrekt wiedergeben):

Man könne sich sowohl den Antialiasing-Filter auf dem Sensor als auch die Beugung als ideale Sinc-Filter mit (idR) unterschiedlicher Frequenz vorstellen. Bei dieser idealisierten Betrachtung sei bei der resultierenden Auflösung letztlich nur die geringere Frequenz maßgebend. Folge: Wende man dieses Modell an, so ändere sich die Auflösung nicht, solange die Beugung geringer ist als die Pixelgröße, danach sei nur noch die Beugung maßgeblich.

Es ist klar, dass (auch) dieses Modell wegen der idealisierenden Annahmen der Praxis nicht entspricht, interessant finde ich es trotzdem.
 
Lese hier schon seit Anfang mit und es gibt doch recht interessante Aspekte trotz der manchmal recht ruppig (kindlich?, unnötig emotional) geführten Diskussion.

Hier zeige ich mal keine MTF-Messungen, sondern das Bild, das auf dem Sensor der NEX-5N (16 MPixel) ankommt, wenn ich mein Testbild mit Siemenssternen mit dem 50mm/1,7 Objektiv aus 6m fotografiere. Dazu habe ich das Luftbild durch ein Mikroskop fotografiert.
Auf 23% verkleinertes Mikroskopbild (Blende 5,6) mit Auflösungswerten

Stuessi, dein Bild ist sehr interessant, nur leider habe ich deine Beschreibung nicht verstanden. Hast du den Sensor der NEX-5N entfernt und danach mit Mikroskop fotografiert? Kannst du eine Prinzipskizze machen und diese hier einstellen?
 
Man könne sich sowohl den Antialiasing-Filter auf dem Sensor als auch die Beugung als ideale Sinc-Filter mit (idR) unterschiedlicher Frequenz vorstellen.

Richtig, alle Bestandteile keineswegs linear, sondern "glockenförmig". Den AA-Filter als sinc-Funktion zu sehen, finde ich aber ziemlich gewagt.

Bei dieser idealisierten Betrachtung sei bei der resultierenden Auflösung letztlich nur die geringere Frequenz maßgebend.

Nein, die Form der MTF-Kurve bleibt gleich, aber sie wird immer "schmaler". Und in solch einem Fall passt die Kodak-Formel mit Exponent 2 ganz gut, siehe Falk Lumo. Aber das darf ja nicht stimmen.



Gruß, Matthias
 
Zuletzt bearbeitet:

Weil der bloß ein Doppelbild (nein, Vierfach-) erzeugt, und da ist die MTF immer 1 bei 'nem Versatz um ein Vielfaches der Wellenlänge und 0 bei den (n+1/2)-fachen, zumindest idealisiert.

Edit: da hier aber nur das erste Stück dieser Kurve bis zur ersten Nullstelle interessiert, kann man sie zumindest für "glockenförmig" annehmen.


Gruß, Matthias
 
Zuletzt bearbeitet:
Als allererstes: ganz dickes Danke! Endlich mal jemand mit Butter bei die Fische. Deutlich zu sehen ist natürlich, wie kleinere Pixel schneller unter Beugung leiden.
Ist da nicht einfach eher zu sehen, daß man das bei 3-facher Vergrößerung deutlicher erkennen kann?
Vielen Dank auch von mir, außer
die Brennweite habe ich so angepasst, dass die 100%-Ansicht gleich groß ist.
fände ich gleiches Ausgabeformat aber auch noch spannend...
 
Ist da nicht einfach eher zu sehen, daß man das bei 3-facher Vergrößerung deutlicher erkennen kann?
Er hat nach eigenem Bekunden die Brennweite nur so angepasst, dass die Bilder in 100%-Ansicht gleich groß auf dem Monitor erscheinen. Er hat also nicht wirklich vergrößert, sondern nur mit der Brennweite den Bildmaßstab an die unterschiedliche lp/mm angepasst. An der Beugung ändert das bei gleicher numerischer Apertur nichts.
 
Was ist daran "ziemlich gewagt", wenn man statt "glockenförmig" doch die ganze Kurve auch nach der 1. Nullstelle nimmt?
Ich hätte eher gesagt, das ist exakter.

Die sinc-Funktion ist die, die das typische Beugungsscheibchen darstellt, also ein großes zentrales Maximum, daneben viele sehr schnell abfallende weitere lokale Maxima. Wenn Du mit der das Verhalten des AA-Filter beschreibst, machst Du einen Fehler, denn dessen Maxima fallen nicht ab, die sind alle gleich hoch (zumindest im idealisierten Fall). Da aber alle weiteren Maxima de facto nicht interessieren (man nimmt ja mit der "echten sinc-Funktion" des Sensors mal), kann man das Verhalten des AA-Filters im interessierenden Frequenzbereich zumnidest für näherungsweise "glockenförmig" nehmen.



Gruß, Matthias
 
Er hat nach eigenem Bekunden die Brennweite nur so angepasst, dass die Bilder in 100%-Ansicht gleich groß auf dem Monitor erscheinen. Er hat also nicht wirklich vergrößert, sondern nur mit der Brennweite den Bildmaßstab an die unterschiedliche lp/mm angepasst. An der Beugung ändert das bei gleicher numerischer Apertur nichts.

Vielleicht steh ich gerade auf dem Schlauch, aber auf einem 3MP APS-C Sensor entspricht der Bildausschnitt einer Fläche auf dem Sensor von 75mm², beim 16 MP FT Sensor gerade mal 10mm².
Und auch die Sensorgröße mal außen vor wäre das Ausgabebild der Olympus noch 2,2 mal größer als das der Canon.
Natürlich ist das vergrößert?
 
So, ich habe die böse Pixelunschärfe mal praktisch mir angesehen. Verglichen habe ich die Canon D30 (~10,1 µm) und die Oly E-M5 (~3,75 µm).

Und das zeigt den stärkeren Effekt der Beugung bei den kleinen Pixeln natürlich prima, denn die Bilder wurden ja "pixelproportional" vergrößert, die der Olympus in Höhe und Breite um 10,1/3,75=2,7x stärker. Da ist dann also das Beugungsscheibchen auf dem einen Bild 2,7x größer zu sehen als auf dem anderen. Bloß wenn Du daraus entscheiden solltest, ob die beiden Unschärfenateile sich nun linear oder quadratisch addieren, hilft es auch nicht weiter (zumindest sehe ich es an meinem Netbook nicht). Stehen die "effektiven Pixelgrößen" jetzt im Verhältnis (x+1)/(x+2,7), oder im Verhältnis √(x²+1)/√(x²+2,7²)? (wobei das x dann noch zu bestimmen wäre)



Gruß, Matthias
 
WERBUNG
Zurück
Oben Unten