• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb November 2025.
    Thema: "Landschaft s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum November-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die Böse, böse Pixelunschärfe: Fundamentaldebatte

Nein, sie geht noch von einem falschen Verhältnis zwischen "Pixelunschärfe" und Beugungsunschärfe aus.
Welchem?

Im übrigen ist mir die Unstetigkeit des Quantisierungsrauschens in diesem Kontext (und fast allen anderen auch) so vollkommen schnurzpiepegal, ich kann gar nicht sagen wie.
Welches Rauschen? Ich rede nicht von der Quantisierung der Pixelsignale, sondern von der Unterteilung des Bildes in diskrete Blöcke.
 

Was soll die Frage? Wenn ich wüsste, wie es genau sein müsste, hätte ich es schon reingemalt. So werde ich es wohl an Messdaten abgleichen müssen. Burkhards theoretische Kurven von weiter oben kriege ich jedenfalls problemlos angenähert, wenn ich Beugung kleiner oder Pixel größer annehme (was auf's selbe rauskommt). Trotz Hilfsschule.

Welches Rauschen? Ich rede nicht von der Quantisierung der Pixelsignale, sondern von der Unterteilung des Bildes in diskrete Blöcke.

Ich weiß wovon Du redest und ich halte es in diesem (und fast jedem anderen) Kontext für vollkommen belanglos. Machst Du Dir bei Deinem CD-Spieler zuhause auch über kleine Abweichungen im Frequenzgang wegen des unstetigen Digitalisierungsfehlers Gedanken? Nein? Was dort nämlich der Tiefpassfilter, der Lautsprecher und Deine Ohren machen, machen hier Abbildungsfehler, AA-Filter, Bayer-Mosaik und zu guter Letzt Dein Auge. Und wenn nicht, dann zeig mir bitte eine einzige MTF-Kurve, die an dem Ende der Kurve, wo der Quantisierungsfehler eine Rolle spielen kann (und das sind hohe Ortsfrequenzen) in irgendeiner Form einen stufenförmigen Verlauf hätte. Ich bin gespannt.


Gruß, Matthias
 
Was soll die Frage?
Missverständnis - ich dachte, das bezog sich auf meine Äußerungen.

Burkhards theoretische Kurven von weiter oben kriege ich jedenfalls problemlos angenähert, wenn ich Beugung kleiner oder Pixel größer annehme (was auf's selbe rauskommt).
Ich halte von Parameteranpassung in einer falschen Formel, um näherungsweise an richtige Ergebnisse zu erreichen, nichts. Aber gut, es ist dein Modell und wenn du keine grundsätzlichen Hinweise dazu willst und lieber Parameter verbiegst, ist das eben so.

Ich weiß wovon Du redest
Das bezweifle ich, denn bei der Zerlegung des optisch stetigen Bildes in diskrete Blöcke gibt es kein Rauschen, welches nicht schon durch die Beugung abgedeckt wäre.

und ich halte es in diesem (und fast jedem anderen) Kontext für vollkommen belanglos.
Das verträgt sich nicht hiermit:

Und in dieses Modell habe ich nun kürzlich auch die "Pixelunschärfe" eingebaut.

Was dort nämlich der Tiefpassfilter, der Lautsprecher und Deine Ohren machen, machen hier Abbildungsfehler, AA-Filter, Bayer-Mosaik und zu guter Letzt Dein Auge.
Die Idee, hier die Auflösung auf Pixelebene zu untersuchen, war nicht meine. Im übrigen habe ich sogar darauf hingewiesen, dass selbst unter dem vereinfachenden Ausschluss o.g. Abbildungsfehler, AA-Filter, Demosaicing und Auge bereits die bloße Unterteilung des Bildes in Pixel die von dir getroffene Vereinfachung 1+x verletzt. Oder kurz: entweder wir rechnen von Anfang an richtig oder wir sehen ein, dass die Einflussfaktoren selbst da schon so massiv sind, dass die bisher hier diskutierte Rechnung keinen praktischen Sinn macht (was Quintessenz deiner jetzigen Aussage wäre).

Und wenn nicht, dann zeig mir bitte eine einzige MTF-Kurve, die an dem Ende der Kurve, wo der Quantisierungsfehler eine Rolle spielen kann (und das sind hohe Ortsfrequenzen) in irgendeiner Form einen stufenförmigen Verlauf hätte.
Jetzt frage ich: "Was soll das?", denn wenn du meine Äußerungen liest, steht da drin, dass ich weder deine Vereinfachung 1+x noch den unstetigen Verlauf für richtig erachte. Unabhängig davon macht die Frage aber auch so keinen Sinn, da ein Quantisierungsfehler mit einer Ortsfrequenz oberhalb der Abtastfrequenz sich in einem MTF-Chart natürlich auch nicht direkt abzeichnen kann (von dir hier aber trotzdem mit fixem Summand 1 eingebracht wird).
 
Zuletzt bearbeitet:
Vergiss es einfach. Auf diese destruktiven Querschläge habe ich keine Lust mehr. Ich kann Dir jedenfalls versichern, dass ein solcher statistischer Ansatz und die Betrachtung unabhängiger Fehler, auch anderswo ganz normal ist. Nicht "physikalisch korrekt", aber ausreichend genau. Und im Kontext dieses kleinen Denkmodells schon allemal.


Gruß, Matthias
 
Und ich kann dir versichern, dass dieser statistische Ansatz nicht korrekt ist. Stetige und nicht stetige Fehler sind getrennt zu betrachten - gerade wenn die stetigen die Hüllkurven diskreter stochastischer Ereignisse sind. Aber gut - lassen wir das. Wer tatsächlich pixelpeepen will, wird mit gemessenen MTF-Kurven mehr anfangen können als mit theoretischen Spielereien unter strittigen Voraussetzungen.
PS: Schade, wenn für dich Einwände, welche du offensichtlich nicht nachvollziehen kannst oder willst, gleich "destruktive Querschläge" sind.
 
Zuletzt bearbeitet:
PS: Schade, wenn für dich Einwände, welche du offensichtlich nicht nachvollziehen kannst oder willst, gleich "destruktive Querschläge" sind.

RUnd solche destruktiven Querschläge gegen mich persönlich sparst Du Dir bitte ganz!

Ich könnte jetzt Deine "Einwände" einen nach dem anderen zerpflücken. Aber das führt zu nichts, weil Du weiter jedes denkbare Missverständnis lang und breit auswalzen wirst. Das darfst Du gern mit anderen spielen, mir wird's zu blöd.

Die Idee, man dürfe eine Ausgleichskurve nicht durch Parameteranpassung annähern, solltest Du allerdings mal mit anderen diskutieren. Die "Schuldigen" für derlei grobe methodische Schnitzer sind ja leider vor vielen Jahren schon von uns gegangen. Oder leben Newton, Fourier und all diese Stümper etwa noch?



Gruß, Matthias
 
Und solche destruktiven Querschläge gegen mich persönlich sparst Du Dir bitte ganz!
Aha. Einwände werden nicht beantwortet, sondern sind "destruktive Querschläge" und die Kritik daran dann auch wieder. Damit verunmöglichst du eine sachliche Diskussion. Danke für die Klarstellung.

Ich könnte jetzt Deine "Einwände" einen nach dem anderen zerpflücken.
Dann tu es doch einfach? :confused:

Auf die danach folgenden Unterstellungen antworte ich mal nicht.

Die Idee, man dürfe eine Ausgleichskurve nicht durch Parameteranpassung annähern, solltest Du allerdings mal mit anderen diskutieren.
Du zerrst hier (nicht zum ersten Mal) meine Aussagen in einen völlig gegensätzlichen Zusammenhang. Meine "Idee" ist, dass man eine falsche Formel nicht mit Parametern "geradebiegen" kann. Das ist ein ganz wesentlicher Unterschied.

Oder leben Newton, Fourier und all diese Stümper etwa noch?
Das ist - wie übrigens auch der Versuch, Einwände als "destruktive Querschläge" abzukanzeln und dann selbst persönlich zu werden - unterstes Niveau. Du versuchst, meine Argumentation als in Konflikt mit bekannten Namen zu implizieren, um mich auf die Art und Weise zu diskreditieren. Nur dass das so nicht funktioniert.

Wenn du meine Begründungen gelesen und nicht (ob gewollt oder nicht, sei dahingestellt) missverstanden hättest, hättest du längst entdeckt, dass das genau der Schlüssel zwischen deiner Kurve, dem natürlich nicht existenten "Sollbruch" bei einer bestimmten Blende und dem, was diverse Leute hier so messen ist. Durch eine Anpassung der Formel, nicht der Parameter.
 
Zuletzt bearbeitet:
...und für all die, die es nachvollziehen wollen, ohne überall nach möglichen Missverständnissen zu suchen:

Ich könnte meinen Ansatz auch so beschreiben: Ich approximiere (nähere an) die Größe x=(effektive Pixelfläche mit Beugung)/(effektive Pixelfläche ohne Beugung) durch eine Newton'sche Reihe in B (der Blendenzahl), die ich nach dem quadratischen Term abschneide und wo ich den linearen Term zu null setze, also x=a+b*B². Der konstante Term a würde Einflüsse erfassen, die von der Blende unabhängig sind (also bspw. AA-Filter, Bayer-Mosaik, aber auch Abbildungsfehler des Objektivs, dazu später mehr), und b wäre ein Term, der den Beugungseinfluss enthält. Die ansteigenden Abbildungsfehler bei offenerer Blende klammere ich mal aus, sie könnten aber durch einen geeigneten Ansatz auch eingebaut werden. Ich könnte natürlich auch irgendeine andere Approximation wählen, wenn sie denn den tatsächlichen Kurvenverlauf genau genug nachbildet. Da ist man vollkommen frei, sich eine geeignete auszuwählen. Ich finde meine aber charmant, weil sie als Flächenaddition aufgefasst werden kann. Ob sich da wirklich Flächen addieren, ist dabei vollkommen nebensächlich, das ist nichts als eine Gedankenstütze. Mit einem bisschen physikalisch-mathematischer Vorbildung und Abstraktionsvermögen kriegt man da auch gedanklich die Verbindung hin. Und "physikalisch falsch" kann es schon sowieso nicht sein. Allenfalls trifft meine Newtonreihe die Messwerte nicht genügend genau, oder, und das wäre viel ärgerlicher, die beiden Konstanten a und b hängen so sehr von jeweiligen Sensoraufbau ab, dass ich da keinen sinnvollen Mittelwert angeben kann.

Und was ist eine "effektive Pixelfläche"? Nun, da könnte man sich einen der üblichen Messwerte für "Auflösung" nehmen, MTF50 oder MTF10 oder wie man mag, und könnte die dort angegebenen Linienpaare als 2 Pixel interpretieren (oder irgendeine andere Zahl, egal, die kürzt sich sowieso wieder raus). Und damit hätte man eine effektive Pixelbreite und mit dem Quadrat eine effektive Pixelfläche.

Selbst mit dem allerbesten Objektiv und ganz ohne Beugungseinfluss mag sich die so bestimmte "effektive Pixelfläche" von der tatsächlichen unterscheiden. Und deshalb würde ich das auf die tatsächliche Pixelfläche normieren, was erstens das a aus meiner Newton-Reihe zu eins werden lässt, zweitens die Annahme, ob nun 2 oder mehr oder weniger Pixel ein "Linienpaar" ausmachen, irrelevant macht (die Zahl kürzt sich raus), aber drittens bekäme das b aus der Newton-Reihe eine nicht unmittelbar nachvollziehbare Größe. Da müsste man dann einen bestimmten Bruchteil der Fläche eines Beugungsscheibchens benutzen. Aber wenn dieser Bruchteil über verschiedene Sensoren und Pixeldichte ausreichend konstant ist, hätte ich ein einfaches Denkmodell: Denk Dir zu der tatsächlichen Pixelfläche einen bestimmten Anteil, der quadratisch von der Blende abhängt, dazu, und Du hast die Größe des effektiven Pixels und damit die "effektive Pixelzahl". Und ich hätte sogar eine nachvollziehbare Annäherung an den Kurvenverlauf von MTF50 (oder was auch immer man da zugrunde legt) bei verschiedenen Pixelgrößen abhängig von der Blende.

Da man aber zwangsläufig keine Messwerte mit einem perfekten Objektiv ohne Beugungseinfluss finden kann, würde ich alle Messwerte unterhalb der kritischen Blende ignorieren, also nur den absteigenden rechten Ast der MTF50-Kurven benutzen und die Abweichung zwischen der maximal gemessenen und "theoretisch höchsten" Auflösung den Objektiv zuschreiben. Dann wäre das a in meiner Newtonreihe doch nicht eins, lässt sich aber auf die gleiche Art bestimmen wie das b. Ich ignoriere damit einen Unschärfeanteil aus Abbildungsfehlern jenseits der kritischen Blende, der zwar auch blenden-, aber nichts beugungsabhängig ist.

Und also nochmal: Ich behaupte nicht, dass das "richtig" ist. Und schon erst recht nicht, dass sich wirklich 2 oder mehr Flächen addieren. Aber ich behaupte, dass man es sich ungefähr so vorstellen darf und damit eine Idee von der beugungsbegrenzten Auflösung seines Sensors bekommt. Und diese Annäherung wird sogar für jeden Sensor mit jedem Objektiv jeweils für sich über einen gewissen Blendenbereich ausreichend genau funktionieren. Aber es ist natürlich witzlos, wenn man sich für jeden Sensor und/oder jedes Objektiv neue Parameter merken muss. Und um auch das nochmal klarzustellen: Dies ist keine "neue Theorie" und ich will damit auch nicht die Optik revolutionieren. Die haben längst viel bessere, aber auch aufwändigere Näherungsformeln. Es soll einfach den "Pixeldenkern" einen oder zwei Denkschritte weiter vereinfachen.





Gruß, Matthias
 
...und für all die, die es nachvollziehen wollen, ohne überall nach möglichen Missverständnissen zu suchen:
Nun, mein Einwand war keine "Suche nach möglichen Missverständnissen", aber wir scheinen ja doch noch einen Kompromiss gefunden zu haben:

Ich behaupte nicht, dass das "richtig" ist. Und schon erst recht nicht, dass sich wirklich 2 oder mehr Flächen addieren. Aber ich behaupte, dass man es sich ungefähr so vorstellen darf und damit eine Idee von der beugungsbegrenzten Auflösung seines Sensors bekommt.
Und da stimme ich dir sogar vollends zu. Formel und Kurven hin oder her, als Approximation kann man damit leben und als Modell ist es ausreichend gut.
 
Burkhards theoretische Kurven von weiter oben kriege ich jedenfalls problemlos angenähert, wenn ich Beugung kleiner oder Pixel größer annehme (was auf's selbe rauskommt). Trotz Hilfsschule.
Ich habe schon versucht, dir zu erklären, warum das nicht geht. Wenn du die theoretische Begründung nicht verstehst, dann probier' doch mal, die Funktion 1/(1+x)^2 durch 1/(a + b x^2) mit a und b deiner Wahl anzunähern. Wenn du einen logarithmischen Maßstab für die x-Achse wählst und die Kurven für verschiedene Parameter plotten lässt, wirst du schnell sehen, warum das prinzipiell nicht geht.

Mal davon ab: warum lässt du in deinem neuen Vorschlag nicht einfach den linearen Term drin? Falls du dann durch deine Messreihen herausfindest, dass er (praktisch) null wird, hast du deine Annahme immerhin belegt. Wenn nicht, dann war wenigstens die ganze Arbeit nicht umsonst.

L.G.

Burkhard.
 
Ich habe schon versucht, dir zu erklären, warum das nicht geht. Wenn du die theoretische Begründung nicht verstehst, dann probier' doch mal, die Funktion 1/(1+x)^2 durch 1/(a + b x^2) mit a und b deiner Wahl anzunähern.

Viele Verteilungsfunktionen lassen sich sehr gut durch diesen Ansatz fitten.
Die Ursache ist einer der elementarsten Sätze der mathematischen Statistik, der Zentrale Grenzwertsatz.

Man kann zwar beliebige Funktionen an beliebige Modelle fitten, die Ergebnisse sind aber meist nicht sonderlich gut, es bleiben große Restfehler übrig und die gefitteten Parameter sind nicht robust.

Da eine Formel wie 1/(a + bx²) nicht sonderlich komplex ist und das richtige asymptodische Verhalten hat, würde ich schon aus Faulheit keine andere Formel anfitten.
 
Geht das schon wieder los? Ich habe nur Hilfsschule. :ugly:
Was soll jetzt dieser Ton? Ja, ich erlaube mir weiterhin, deinem mathematischen Unsinn zu widersprechen. Trotzdem hier ein grafisch anschauliches Argument: Kurve 1/(1+x)^2 in rot, Kurven 1/(1 + b x^2) für versch. Werte für b von 0,01 bis 100 in Schwarz. Welche davon ist eine gute Näherung für die rote Kurve?
Anhang anzeigen 2300157

Dass das kein "neuer Vorschlag" ist, hast Du aber bemerkt?
Ja, habe ich. War ein Versuch, dir einen Weg aus deiner Sackgasse zu bieten.

Bisher habe ich versucht, dich in deinem Bemühen um eine vernünftige Theorie ernst zu nehmen, aber langsam denke ich, es geht dir eher darum, andere zu beeindrucken denn um Erkenntnisgewinn. Schade.

L.G.

Burkhard.
 
Da eine Formel wie 1/(a + bx²) nicht sonderlich komplex ist und das richtige asymptodische Verhalten hat, würde ich schon aus Faulheit keine andere Formel anfitten.
Nur ist das asymptotische Verhalten für die Problemstellung völlig uninteressant – dass man bei großer Blende eine zu vernachlässigende Beugung hat und bei sehr kleiner Blende die Qualität gegen 0 geht, ist klar. Interessant ist der Kurvenverlauf dazwischen, der ja darüber entscheidet, bis wann der Qualitätsverlust akzeptabel ist. Und der ist bei den beiden Kurventypen grundverschieden.

L.G.

Burkhard.
 
Och Kinners nee, dascha man zu und zu schön! Watt häbb' ick 'lacht! :lol:
Wenn du weder fachlich argumentieren magst noch damit leben kannst, dass Leute anderer Ansicht die deinige zumindest als ausreichendes Modell akzeptieren, scheint es gar nicht um Inhalte zu gehen? Gut, dann habe ich das wohl missverstanden, entschuldige.
Was ich zum Thema beizutragen habe, hatte ich heute ja schon geschrieben, alles andere gehört dann nicht mehr hierher. Du bist mich also wieder mal los. :top:
 
WERBUNG
Zurück
Oben Unten