• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die Böse, böse Pixelunschärfe: Fundamentaldebatte

Ich finde den Ansatz ja auch sehr interessant, aber ich denke er ist nur in der Theorie anwendbar. Wogegen ich natürlich nichts habe, oder gibt es einen Weg diese Betrachtungsweise mit einer Kamera tatsächlich um zu setzen?

Auch wenn die Größenordnungen noch nicht so ganz stimmen sollten, können wir ja einfach mal die Zahlen aus dem Diagramm nehmen (das ich aber gerade gar nicht sehen kann). Da würdest Du nun also ein Bild mit einer D800 mit Blende f/8 machen. Und würdest, um optimale Schärfe bis unendlich zu bekommen, die hyperfokale Distanz aus der Pixelgröße berechnen, weil Du ja das beste aus den 36MP rausholen willst. Das tätest Du ja auch, aber Du hast doch noch eine Menge Spielraum, denn Du hast es de facto bei f/8 mit einer 16MP-Kamera zu tun. Und die erlaubt Dir deutlich größere zzul, bevor der Horizont (auf dem Sensor!) nennenswert unschärfer würde. Ob er das dann auch auf dem betrachteten Foto wird, ist dann wieder die übliche Sache mit Betrachtungsentfernung und Ausgabeformat.



Gruß, Matthias
 
Wie müsste man denn einen Vergleich anstellen? Man fotografiert mit beiden Kameras aus gleichem Abstand mit gleichem Obejktiv, gleicher Brennweite und gleicher Blende.

Dann müsste man das Ergebnis ja eigentlich in der 100%-Ansicht vergleichen, oder?

Gruß,

Karl-Heinz
 
Wie müsste man denn einen Vergleich anstellen? ...
Gruß,

Karl-Heinz

Experiment: Wenn eine vermeintliche 12Mpix-Datei real nur 6Mpix hätte, müßte man sie ja in PS auf 1/1,4 fache Kantenlänge runterskalieren und anschließend wieder aufblasen können, ohne daß Bildinformation verlorengeht.

Hab das mal gemacht mit APS-C 12Mpix bei f/16: ungeschärft

- Bild kopiert
- runterskaliert linear um 1/1,2 (also auf 8,3Mpix)
- hochskaliert um linear 1,2
- beide Bilder nachgeschärft und in 300% verglichen ->

Die Bildinformationen sehen in der Tat sehr ähnlich aus (lediglich das rauschmuster ändert sich), was darauf hindeutet, das das Bild nur max. 8,3Mpix reale Auflösung liefert.

Zum Vergleich bei f/4 das Ganze sind deutliche Zeichnungsverluste erkennbar, hier sind also viel mehr als 8,3Mpix reale Auflösung.

Gruß messi
 
Wie zu sehen ist, kann eine Linie (hier als ein Band dargestellt) ohne weiteres
aus den vorhandenen Daten errechnet werden, wenn z.B. eine Zeile fehlen
würde, weil der Sensor so etwas nicht hergeben kann.


[ATTACH_ERROR="dslrToolsAttachRewrite"]2297053[/ATTACH_ERROR]


Anm.:
Zur Vereinfachung der Darstellung mit den Grauwerten gilt das nur vertikal,
nicht jedoch in der gezeigten Darstellung horizontal... um die Darstellung auf
die Grauwerte 75%, 50% und 25% sowie weiß und schwarz beschränken zu
können.


Es kann also ohne allzu große Probleme eine höhere Genauigkeit als die der
physischen Pixel aus den Sensordaten errechnet werden.


abacus
 
Zuletzt bearbeitet:
Es kann also ohne allzu große Probleme eine höhere Genauigkeit als die der physischen Pixel aus den Sensordaten errechnet werden.

Und das würde ich jetzt gern für alle Pixel eines Sensors sehen. Meinetwegen auch nur im Mittelwert. Denn ich hoffe doch mal, dass Du verstanden hast, dass wir hier eine sehr statistische Betrachtung pflegen.


Gruß, Matthias
 
Wie zu sehen ist, kann eine Linie (hier als ein Band dargestellt) ohne weiteres
aus den vorhandenen Daten errechnet werden, wenn z.B. eine Zeile fehlen
würde, weil der Sensor so etwas nicht hergeben kann.
Du meinst, aus dem Pixelbild rechts könnte man die Linie links wiederherstellen?

Das sehe ich anders: dasselbe Pixelbild würde auch aus dem folgenden Original entstehen.
Anhang anzeigen 2297128

Man kann per Software mehr oder weniger sinnvoll Details hinzuerfinden lassen, aber sie sind dann Artefakte, die den Schärfeeindruck erhöhen und keine Originaldetails.

L.G.

Burkhard.
 

Ich finde das ja geradezu rührend, dass Ihr jetzt alle versucht, mit kleinen Versuchen mein kleines Denkmodell zu verifizieren oder zu widerlegen. Dafür ist es nicht gemacht, es war nichts als eine Denkhilfe, um Beugung und Pixel unter einen Hut zu kriegen. Wenn Ihr jetzt feststellt, dass Eure Bilder bei kleinen Blenden beugungsbegrenzt sind, bei großen aber nicht, ist das prima. Aber das wusstet Ihr doch vorher schon. Und um zwischen meinem und dem einfachen Modell zu unterscheiden, reicht ein Faktor 1,2 nicht aus, da müssten die sich deutlicher unterscheiden.

Aber ich habe mittlerweile ein bisschen weitergegrübelt und bin auf folgendes gekommen:

Bei Photozone und vielen anderen wird die "Auflösung" eines Objektivs mit dem einen Wert MTF50 angegeben. Wenn man da jetzt darauf guckt, welche MTF50-Werte anerkannt gute Objektive in der Bildmitte jenseits der kritischen Blende (also im beugungsdominierten Bereich) an welchen Sensoren erreichen, und die dann mit den theoretischen Nyquistfrequenzen der Sensoren vergleicht, könnte man daraus auf eine effektive Pixelgröße schließen. Z.T. sind die MTF50 größer als die Nyquistfrequenz, was theoretisch unmöglich ist, aber in der Art begründet ist, wie die MTF50 bestimmt werden (nämlich aus dem Kantenabfall des Kontrasts von 90% auf 10%). Da Photozone offenbar geschärfte Bilder verwendet, wo dieser Kantenabfall künstlich erhöht wurde, kann dann schon mal so ein Wert rauskommen. Aber zumindest würden dabei realistische MTF50 von "echten Bildern" rauskommen, die ich einfach mal als Mittelwert benutzen würde. Ich schätze mal grob, dass da etwa 1,2x Pixelgröße rauskommen. Ein ungeschärftes Bild hat, wenn ich's richtig verstanden habe, eine MTF50 von etwa der halben Nyquistfrequenz, also eine effektive Pixelgröße von 2x der wahren Größe.

Außerdem lässt sich die MTF50 (aber nur die) wohl ganz gut über eine quadratische Addition der Kantenbreiten abschätzen. Ob das auch für ein geschärftes Bild noch gilt? Ich würde es einfach mal so annehmen. Und die Kantenbreite durch Beugung entspricht ziemlich gut meiner Annahme von oben (1/2 Durchmesser des Airy-Scheibchens).

Und wenn ich jetzt die "effektive Pixelzahl" so bestimme, dass ein realer Sensor mit Beugung die gleiche MTF50 erfasst wie der "effektive" Sensor ohne Beugung, hätte ich eine etwas sauberere Definition der effektiven Pixelzahl, nämlich über MTF50. Aber eben auch nur MTF50, wie sich das für MTF10 usw. verhält, weiß ich nicht. Aber ach, es soll doch ein grobes Daumenregel-Modell werden.

Hat irgendwer die MTF50 diverser guter Objektive an verschiedenen Sensoren in Bildmitte zur Hand? :rolleyes:



Gruß, Matthias
 
mich würde jetzt interessieren, wie groß so ein theoriepixel am bayer-sensor ist. immerhin werden ja zur errechung des inhaltes eines pixels die werte der nachbarpixel (z.b. rggb-vierergruppe) mit herangezogen.

Ich hatte schon mal anderswo erwähnt, dass Hr. Nasse von Zeiss die MTF-Kurve eines Sensors mit AA-Filter und Bayer-Entmosaikierung, aber ohne Schärfung (soweit ich mich erinnere) einfach als linear annimmt: Von MTF=1 bei Frequenz=0 zu MTF=0 bei der Nyquistfrequenz. Und dann wäre die "effektive" Größe eben gerade 2x die wahre. Und bei geschärften Bildern? Eine Idee habe ich gerade geschrieben. Aber das wäre alles MTF50-basiert und sähe bei MTF10 evtl. wieder anders aus.


Gruß, Matthias
 
Wie müsste man denn einen Vergleich anstellen? Man fotografiert mit beiden Kameras aus gleichem Abstand mit gleichem Obejktiv, gleicher Brennweite und gleicher Blende.

Dann müsste man das Ergebnis ja eigentlich in der 100%-Ansicht vergleichen, oder?
Mit der 100 %-Ansicht kommst du nicht weiter, weil der Bildinhalt ja unterschiedlich groß zu sehen ist.

Eine Möglichkeit: Auflösungs-Testchart und Auflösungswerte vergleichen (hängt aber auch von Kontrast und Schärfung ab, man müsste also Raws ohne Demosaicing vergleichen). Außerdem misst man da den Wert, bei dem die Kontrastübertragung (fast) gleich Null ist und wird vermutlich feststellen, dass im Wesentlichen die schlechtere Komponente die Grenzschärfe bestimmt.

Zweite Möglichkeit: MTF-Kurven ausmessen – das liefert dann auch gleich eine genauere Analyse der Verluste als nur eine effektive Pixelanzahl. Einen Vergleich zwischen einem 12 MPx-Sensor und einem 24 MPx-Sensor auf dieser Grundlage findet man bei Zeiss.

L.G.

Burkhard.
 
...Und um zwischen meinem und dem einfachen Modell zu unterscheiden, reicht ein Faktor 1,2 nicht aus, da müssten die sich deutlicher unterscheiden....

Falls jemand eine Idee hat, wie man das veranschaulichen könnte, hätte ich anzubieten:

- Olympus E-M5 mit 3,75 µm
- Canon D30 mit 10,1 µm

Man könnte die E-M5 mit der D30 vergleichen, aus dem Bild der D30 schneiden wir dann ein 17,3x13mm großes Stück raus, das hätte dann 2,25 MPixel im Gegensatz zu den 16,1 MPixeln der E-M5 auf der gleichen Fläche.

Oder läßt sich da so gar kein Anschauungsmaterial produzieren?

Gruß,

Karl-Heinz
 
Du meinst, aus dem Pixelbild rechts könnte man die Linie links wiederherstellen?

Das sehe ich anders: dasselbe Pixelbild würde auch aus dem folgenden Original entstehen.
Anhang anzeigen 2297128

Man kann per Software mehr oder weniger sinnvoll Details hinzuerfinden lassen, aber sie sind dann Artefakte, die den Schärfeeindruck erhöhen und keine Originaldetails.

L.G.

Burkhard.


Die "Linie" ist als Begrenzung von Flächen zu sehen und daher ist es möglich
den Verlauf dieser Linien, wenn diese z.B. gerade sind einfach zu errechnen
und somit kommt man für bestimmte Bereiche der Fototechnik zu einer höhe-
ren Genauigkeit als ein Pixel alleine es hergibt. Auch bei einem Pixel liegt
selten 0 bzw 100% vor. Wenn man das Schema ändert, so dass eine schwarze
und weiße Fläche vorliegen wird das noch deutlicher, dass eine erhöhte Genau-
igkeit erzielbar ist. Details der Oberfläche, Textur etc. sind bei der Betrachtung
von "Kanten" einmal außen vor.

Worum es bei der Betrachtung geht, ist das für bestimmte Zwecke sich "Ge-
nauigkeit" bzw. "Ungenauigkeit" anders darstellen, als man zuerst vermuten
möchte.


abacus
 
Worum es bei der Betrachtung geht, ist das für bestimmte Zwecke sich "Genauigkeit" bzw. "Ungenauigkeit" anders darstellen, als man zuerst vermuten möchte.

Mal abgesehen davon, dass es darum hier nun wirklich gar nicht geht, ist das auch noch ziemlich fragwürdig. Was wäre denn, wenn Du nicht a priori annehmen würdest, dass Dein Pixelmuster eine gerade Kante darstellt, sondern vielleicht etwas abbildet, was wirklich so aussieht wie Burkhards Beispiel oder noch ganz anders? Ohne diese Annahme könntest Du es nicht entscheiden. Und das ist der Punkt: Du ziehst nur deshalb mehr Informationen raus, weil Du heimlich auch mehr reinsteckst. Und jetzt hör bitte auf mit diesem Randthema, darum geht es hier nicht. Und schon gar nicht, wenn Du verschiedene Kameras vergleichst, denn dann würdest Du bei beiden diese Extraportion Information spendieren.

So, zum eigentlichen Thema: Ich habe gerade mal bei Photozone geguckt, welches Objektiv denn an allen 3 dort benutzten Nikon-Kameras (D200, D7000 und D3x) getestet wurde und fand das 35/2, was wohl nicht das allerbeste Beispiel ist. Vielleicht findet jemand ein geeigneteres Objektiv, das mit möglichst unterschiedlichen Pixeldichten getestet wurde?

Wie auch immer, ich habe die MTF50-Werte aus der Bildmitte genommen, die gemessenen Werte in Lp/Ph (Linienpaare pro Bildhöhe) ganz stumpf als "effektive Pixelpaare" pro Bildhöhe angenommen und damit dann die "effektiven Pixel" pro Sensor ausgerechnet. Die Werte der DX-Kameras D200 und D7000 habe ich zur besseren Vergleichbarkeit auf FX hochgerechnet (dann hätten sie 22,5MP und 36MP) und mit denen der D3x (24MP) verglichen. Und siehe da, es passt so halbwegs. Die D3x erreicht bei f/5,6 und f/8 je ca. 22MP, bei f/11 noch gut 19MP. Die hochgerechnete D7000 (36MP) kommt auf 28MP bei f/5,6, 26MP bei f/8 und 21MP bei f/11. Bloß die Daten der D200 fallen aus dem Rahmen, die sind von f/2,8 bis f/8 konstant bei 15MP.

Leider enden die Photozone-Daten bei f/11. Aber ich finde auch diese Werte schon ganz interessant: Der 24MP-Sensor erreicht noch fast seine Nominal-Auflösung, der 36MP-Sensor längst nicht. Bei allen getesteten Blenden löst der 36MP-Sensor besser auf, aber bei f/11 ist der Unterschied schon ziemlich klein. Vielleicht findet jemand bessere Beispiele zum vergleichen? Ich muss jetzt los.






Gruß, Matthias
 
Zuletzt bearbeitet:
...und noch eine Idee, die ich aber vor heute Nacht nicht umsetzen kann:

Viele verschiedene Objektive an jeweils der selben Kamera vergleichen und gucken auf: Welche Werte werden maximal erreicht? Wie unterscheiden sich die Abfälle zu kleinen Blenden? Wie sieht solch eine Kurvenschar an einer ganz anderen Pixeldichte aus. Und schließlich: Kann man Ausgleichskurven finden, die verschiedene Unschärfeanteile (Abbildungsfehler, Pixel, Beugung) flächenmäßig addieren und wie konsistent sind dann die Parameter? Aber zu all dem komme ich jetzt nicht. Oder hat das längst jemand getan? Ich vermute es ja fast.



Gruß, Matthias
 
Zuletzt bearbeitet:
...und noch eine Idee, die ich aber vor heute Nacht nicht umsetzen kann:

Viele verschiedene Objektive an jeweils der selben Kamera vergleichen und gucken auf: Welche Werte werden maximal erreicht? Wie unterscheiden sich die Abfälle zu kleinen Blenden?
Tut mir leid, aber ich kann einfach nicht verstehen, warum du jetzt unbedingt 'ne neue "Theorie" machen und aufwändig empirisch überprüfen willst, wo es doch eine gut funktionierende (über MTF/PSF) und auch theoretisch begründete Theorie gibt.

L.G.

Burkhard.
 
Tut mir leid, aber ich kann einfach nicht verstehen, warum du jetzt unbedingt 'ne neue "Theorie" machen und aufwändig empirisch überprüfen willst, wo es doch eine gut funktionierende (über MTF/PSF) und auch theoretisch begründete Theorie gibt.

Das ist keine "neue Theorie", sondern eine bessere Daumenformel für all die, die nicht anders als "in Pixeln" denken können.

Ich könnte die Bewegung einer Kamera während der Belichtung auch in ein paar Differentialgleichungen darstellen und lösen, alles bekannt. Trotzdem hat die Daumenformel "1/Brennweite" ihre Berechtigung, stellt aber keine "neue Theorie" dar.

Ich fände es jedenfalls ganz charmant, wenn eine kleine übersichtliche Formel dabei rauskäme, anhand derer man dem "36MP-Pixeldenker" sagen könnte: "Denk dran, bei f/11 kann Deine D800 effektiv sowieso nicht mehr als 20MP!" (wobei die Zahl geraten ist). Kannst Du aufgrund der MTF-Daten so eine Daumenzahl nennen? Dann erzähl mal.


Gruß, Matthias
 
Kann man Ausgleichskurven finden, die verschiedene Unschärfeanteile (Abbildungsfehler, Pixel, Beugung) flächenmäßig addieren und wie konsistent sind dann die Parameter?

...und da würde ich so anfangen:

Wenn man die effektive Fläche pro Pixel betrachtet (zu der effektiven Pixelzahl ist es dann ja nur noch eine Division der Flächen weiter), würde ich ansetzen:

Aeff = k1*Apx + k2*B² + k3

Dabei ist Apx die "wahre" Pixelfläche (Sensorfläche/Pixelzahl), B die Blendenzahl und die 3 Konstanten k1-k3 würde ich per Ausgleichskurve bestimmen. Und zwar mit den Annahmen:

k1: von Sensor zu Sensor (vermutlich) verschieden, aber unabhängig vom Objektiv
k2: bei allen Sensoren und Objektiven gleich
k3: nur vom Objektiv abhängig

Und benutzen würde ich dafür die MTF50-Daten von Photozone nur aus der Bildmitte. Und den abfallenden Ast der Kurven bei offenen Blenden würde ich abschneiden, der kann mit diesem Modell nicht modelliert werden. Und wenn das alles fertig wäre, würde ich mir mal angucken, wie weit dieses Vorhersage von den Messwerten abweicht und wie stark sich die von Sensor zu Sensor verschiedenen k1 unterscheiden, denn wenn da große Unterschiede existieren, wäre eine daumenformel nur über die Pixelzahl sinnlos. Und ich würde gucken, ob die k3 die Qualität der Objektive wiederspiegelt, gute mit kleinen Werten, schlechte mit großen. Aber es ist nicht fertig, und ich werde das in näherer Zukunft auch nicht tun können. Aber vielleicht gibt's das schon?

Oder weiß jemand einen triftigen Grund, warum das aus technischen oder physikalischen Gründen gar nicht funktionieren kann? Verhalten sich bspw. die MTF10-Werte vollkommen anders als die MTF50?



Gruß, Matthias
 
Ich fände es jedenfalls ganz charmant, wenn eine kleine übersichtliche Formel dabei rauskäme, anhand derer man dem "36MP-Pixeldenker" sagen könnte: "Denk dran, bei f/11 kann Deine D800 effektiv sowieso nicht mehr als 20MP!" (wobei die Zahl geraten ist). Kannst Du aufgrund der MTF-Daten so eine Daumenzahl nennen? Dann erzähl mal.
Wenn man die MTF-Kurve des Sensors als Gerade ansieht, nimmt MTF-50-Auflösung in erster Näherung um einen Faktor von ca.

1 - B·0,167 µm/p

wobei B die Blendenzahl und p der Pixelabstand ist. (Man würde natürlich 1 - Blendenzahl durch 6 x Pixelabstand in µm rechnen).

Bei MTF10 hat man einen Faktor von

1 - B·0,033 µm/p.


Für die Megapixel nimmt man das Quadrat dieses Faktors, oder wieder in erster Näherung:

1 - B·0,33 µm/p

bzw.

1 - B·0,066 µm/p

Wenn man's etwas genauer will: Wenn die Modulation des Sensors bei der Frequenz f auf einem Wert q ist, hat man bei idealem Objektiv und Blende B bei der Frequenz

f /(1-q ·B·1mm/(1500·2·p)) ≈ 1 - q · B·1mm/(1500·2·p)

ebenfalls den Wert q. (Einfach die MTF-Kurven des Sensors und die Gerade für die Beugung mit Grenzfrequenz 1500lp/mm nehmen.)

Also als Faustformel für die Megapixel-Freunde:

Für MTF50:

Verlust an Megapixeln ≈ Megapixel x Blende / Pixleabstand in µm / 3

Für MTF10 entsprechend 20 % davon.

L.G.

Burkhard.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten