• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hyperfokaldistanz: Fuji X-T10 = X-T1

Da steht drin, wie man bei einem optischen System mit Fokusebene die Pixelgröße als Zielgröße zur Berechnung der Schärfentiefe verwendet...

Was die Pixelgröße allerdings keineswegs zum Maß für die Auflösung macht.
Schönen Gruß vom Murmeltier... :rolleyes:

Die Tatsache, daß die Pixelgröße die theoretisch mögliche Auflösung eines optischen Systems auf einen bestimmten Wert begrenzt, ermöglicht es lediglich, diesen Wert als Berechnungsgrundlage zu verwenden (was je nach Anwendung mehr oder weniger sinnvoll sein kann).
 
Da steht drin, wie man bei einem optischen System mit Fokusebene die Pixelgröße als Zielgröße zur Berechnung der Schärfentiefe verwendet.
Na und? Nur davon, daß der Schwachsinn in einem auf englisch verfaßten Artikel über Mikroskopie steht, wird er auch nicht besser.

Es wird unterstellt, eine optische Abbildung aus Streukreisen mit Durchmessern von bis zu zwei Pixelabständen ergäbe kein schärferes Digitalbild als eine, deren Streukreise kleiner seien. Der übliche Hirnfurz von Leuten, die das Shannon'sche Abtasttheorem nicht richtig verstanden haben und es für gedankliche Kurzschlüsse mißbrauchen.

Letztlich ist es hier genau so wie in der Fotografie auch: Wer die höchstmögliche Auflösung will, bekommt minimale Schärfentiefe. Wer mehr Schärfentiefe will, muß sich mit reduzierter Auflösung zufriedengeben. Ob das sinnvoll ist und wieviel weniger Auflösung akzeptabel ist, hängt von der Anwendung ab. Mit dem Pixelabstand des Sensors hat das exakt null Komma gar nix zu tun.

Aber das hatten wir hier schon mehrfach in den letzten Jahren, und es wird auch dieses Mal wieder zum einen Ohr hinein und gleich zum anderen wieder hinausgehen ... :(
 
Mal ein kleines Gedankenexperiment:

Ich betrachte ein Bild aus einer 36MP-Kamera in 100%-Ansicht auf meinem Bildschirm. Der zeigt mir davon knapp 2MP. Diese 2MP schneide ich jetzt aus und skaliere/interpoliere sie wieder auf 36MP (oder irgendeinen anderen viel höheren Wert als 2MP), schärfe das Bild behutsam, lass es dann in genau der gleichen Größe wie mein Bildschirm ausbelichten und hänge es daneben.

In diesem Bild haben die ursprünglichen Pixel der Kamera keine Bedeutung mehr, sie sind "weginterpoliert". Die "neuen" hochskalierten Pixel haben aber auch keine Bedeutung, denn die sollen kleiner sein, als ich mit dem bloßen Auge auch aus nächster Nähe auflösen könnte. Und jetzt betrachte ich das Bild aus verschiedenen Entfernungen. Je näher ich komme, desto unschärfer erscheint es und um so geringer wird die Schärfentiefe. Irgendwann erreiche ich einen Punkt, wo auch die Fokusebene nicht mehr akzeptabel scharf erscheint (oder das Auge gar nicht mehr fokussieren kann), und für diesen Fall könnte ich die "Schärfentiefe bei Maximalansicht" bestimmen (eigentlich nicht, die wäre an dem Punkt null). Was hat nun dieser Punkt und die dort gefundene Schärfentiefe mit irgendeiner Pixelgröße oder gar der 100%-Ansicht zu tun? (*) Nichts. Weder mit der ursprünglichen noch mit der neuen hochskalierten. Er hat aber mit der Gesamt-Auflösung/-schärfe des Bilds zu tun, mit Ausgabegröße und Betrachtungsabstand, mit dem Auflösungsvermögen meiner Augen uwsw.

(*) Edit: Und fast noch wichtiger: Wo liegt der Punkt, der sich bei der Bildschirmansicht noch als "naturgegebener" Fixpunkt einer 100%-Ansicht ergeben hatte? Wodurch zeichnet sich der dazugehörige Betrachtungsabstand aus? Erkenne ich diesen Punkt überhaupt?
 
Zuletzt bearbeitet:
...wird die fotografische Literatur, die überwiegend mit 1/1500 Bilddiagonale rechnet, irrelevant?

Nein, natürlich nicht. Das ist die viel wichtigere Anwendung. Ich beschreibe hier einen kleinen Teilbereich, den ich manchmal für sinnvoll erachte (z.B. wenn jemand mit Hperfokaldistanz fotografieren will und feststellt, dass die Bilder nicht so scharf sind wie er sich das vorstellt). Das schreibe ich auch immer dazu. Ich komme nur leider selten dazu das Für und Wider des Festmachens des maximal zulässigen Zerstreuungskreis an der Pixelgröße mit jemanden in Ruhe zu bereden, weil im dritten Post steht, dass das gar nicht möglich ist und ich keine Ahnung hätte. Der Rest geht dann unter.

Da habe ich so meine Zweifel. Wenn man mit Pixeln rechnet, kommt man schnell zu dem Schluss, dass eine 24 MPx-Kamera mit gleichem Objektiv und gleichen Einstellungen weniger scharfe Bilder liefert als eine 6 MPx-Kamera. Was ein Vergleich in 100%-Ansicht ja auch "beweist". Das würde ich für einen Fehlschluss halten, und spätestens dann muss man die Relevanz der 100%-Ansicht hinterfragen. Aber vielleicht siehst du das ja anders.

Ja, das ist etwas was ich auch immer dazu schreibe (bzw. probiere es dazu zu schreiben). Man muss wissen was man da ansieht. Die 100% Ansicht ist nur sinnvoll, wenn man das Auflösungspotential seiner Kamera maximal ausnutzen möchte. Wer das möchte, muss sich diese Dinge bewusst machen, sonst zieht er falsche Schlüsse. Das ist natürlich ein Sonderfall, aber wenn jemand nach Schärfe in der 100% Ansicht fragt, verstehe ich nicht warum man das nicht diskutieren darf. Das es in der Praxis berechnbar ist, hab ich schon öfters gezeigt.

Dazu kommt noch, dass die klassischen Schärfetiefeformeln bei den heute gängigen Pixelgrößen kaum noch realistisch sind, weil Beugung und Abbildungsfehler nicht mehr so ohne Weiteres vernachlässigt werden können.

Ja, wenn die 100MPixel-Kamera normal ist, gibt es kaum noch ein Bild, dass in der 100% Ansicht scharf ist und das Thema hat sich erledigt.

Ich sehe da nicht so ganz den Vorteil der "Schärfentiefe in 100%-Ansicht".

Das brauchst Du nicht. Ich erkläre wie man ausrechnen kann, was in der 100% Ansicht scharf abgebildet wird. Man kann das gerne als übertrieben ablehnen, als akademisch interessant ansehen, oder ab und zu anwenden. Leider komme ich selten dazu, das Für und Wider zu bereden. Ich bin echt froh, dass ich die Problemstellung jetzt bei der Digitalmikroskopie gefunden habe. Da schreiben Leute die wesentlich mehr davon verstehen als ich und es wird in etlichen Papern und Veröffentlichungen besprochen. Wer also wissen will warum oder wie das geht, kann sich da ganz einfach informieren.
 
Re: Hyperfokaldistanz: Fujifilm X-T10 = X-T1

Ich komme nur leider selten dazu, das Für und Wider des Festmachens des maximal zulässigen Zerstreuungskreis an der Pixelgröße mit jemanden in Ruhe zu bereden, weil im dritten Post steht, daß das gar nicht möglich ist ...
Das Problem ist aber nicht, daß niemand mit dir diskutieren wollte, sondern daß du einfach nicht zuhörst.

So würde z. B. niemand bei klarem Verstande behaupten, es sei nicht möglich, den maximal zulässigen Streukreisdurchmesser anhand der Pixelgröße festzulegen. Selbstverständlich ist das möglich. Es ist nur nicht sinnvoll. Es wäre ein völlig willkürlich festgelegter Wert, der ebenso gut oder schlecht sein kann wie irgend ein anderer, und von dem du lediglich glaubst, er hätte irgend eine bestimmte Signifikanz.

Hat er aber nicht. Bestimmst du für diesen winzigen Streukreis die entsprechende hyperfokale Distanz, stellst das Objektiv entsprechend ein und machst ein Foto, so wird darin, wie bei jeder beliebigen, auf andere Weise bestimmten hyperfokalen Distanz auch, die Schärfe bei Unendlich geringer sein, als wenn du korrekt auf unendlich fokussiert hättest. Welcher maximale Streukreisdurchmesser also in diesem Zusammenhang angemessen ist, hängt ganz allein von deinem Schärfeanspruch ab und hat mit dem Pixelabstand rein gar nichts zu tun.
 
Das Problem ist aber nicht, daß niemand mit dir diskutieren wollte, sondern daß du einfach nicht zuhörst.

Ok, lass uns diskutieren ohne Beschimpfungen. Lass uns mit der Aussage Deines letzten Posts beginnen. Ich höre Dir sehr genau zu. Du sagst, dass es immer Situationen gibt, dass wenn ich ein Zerstreuungskreis verkleinere, dass ein Nachbarpixel gar nicht mehr oder weniger beeinflusst wird. Das heißt jede Verkleinerung der Zerstreuungskreise liefert eine höhere Auflösung. Das klingt gut. Deine Beiweise die Du bis jetzt geliefert hast: 1) Es klingt recht plausibel und 2) Du glaubst daran, dass es so ist.

Gegenbeweise: 1) Ich konnte das so experimentell nicht bestätigen (das heißt noch nicht besonders viel). 2) Es gibt offensichtlich recht viele, die sich wissenschaftlich damit auseinandersetzen und das anders sehen (Ich habe nun schon einige Veröffentlichungen gezeigt *). 3) Das Shannonsche Abtasttheorem: Pixel mit Länge l können einen räumliches Signal/Zerstreuungskreis des Durchmesser 2l so abtasten, das sie ihn wiederherstellen können (Es ist keine Rede davon, das da irgendwas richtig an (Pixel)-Grenzen "ausgerichtet" sein muss). Du sagst, wenn ich den Zerstreuungskreis kleiner mache, wird das Signal besser. Das Theorem sagt, ich bekomme dann Aliasing-Effekte, darum sollte ich mit einem Filter (hier der AA-Filter vorm Sensor) so weit wie möglich verhindern, dass der Zerstreuungskreis kleiner wird als 2*l.


* Eine weitere: http://eom.umicore.com/en/infrared-optics/featured-articles/current/
 
2) Es gibt offensichtlich recht viele, die sich wissenschaftlich damit auseinandersetzen und das anders sehen (Ich habe nun schon einige Veröffentlichun
gen gezeigt *).
Da steht nichts von "optimaler Bildqualität". Ich nehme mal dein letztes Beispiel:
The condition, that the Through Focus MTF at full Nyquist must be higher than 0.25, defines a certain symmetrical depth of focus. This criterion provides a good discrimination for reasonable lens/detector combinations.
MTF 25 bei Nyquist entspricht bei einer idealen Optik ungefähr Streukreisdurchmesser = 2 Pixelabstände, also "deinem" Kriterium. Aber da steht eben nicht, dass das die optimale Bildqualität ergibt, sondern nur "good discrimination". Mit Streukreisdurchmesser 1,6 Pixelabstände hätte man theoretisch MTF 50, also deutlich mehr Information im Bild.

Wenn man ein reales Objektiv hat, ist der tatsächliche Schärfentiefebereich kleiner als der geometrische, insofern wäre ein geometrischer Zerstreuungskreis von 2 Pixelabständen nicht gut genug für das Kriterium aus dem Paper.

3) Das Shannonsche Abtasttheorem: Pixel mit Länge l können einen räumliches Signal/Zerstreuungskreis des Durchmesser 2l so abtasten, das sie ihn wiederherstellen können (Es ist keine Rede davon, das da irgendwas richtig an (Pixel)-Grenzen "ausgerichtet" sein muss). Du sagst, wenn ich den Zerstreuungskreis kleiner mache, wird das Signal besser. Das Theorem sagt, ich bekomme dann Aliasing-Effekte, darum sollte ich mit einem Filter (hier der AA-Filter vorm Sensor) so weit wie möglich verhindern, dass der Zerstreuungskreis kleiner wird als 2*l.
Selbst wenn du das Signal, das am Sensor ankommt, perfekt rekonstruieren kannst (was in der Praxis nicht gemacht wird), ist das Ergebnis nur das Signal, das vorher durch den "Tiefpassfilter" Defocus-Unschärfe gegangen ist. Diese Tiefpassfilterung hat selbst dann einen Effekt, wenn der AA-Filter tatsächlich bei der Nyquist-Frequenz abschneidet (was ein sehr starker AA-Filter wäre), denn der Defocus-Unschärfe-Filter ist ja kein ideal steiler Tiefpassfilter, sondern beschneidet auch die niedrigeren Frequenzen. Rein rechnerisch kann man das, was die MTF betrifft, "reparieren", aber die Phasenbeziehungen sind verloren und fürs Rauschen ist das auch nachteilig.

Was das Aliasing anbelangt, kann Defocus-Unschärfe natürlich helfen, wenn der AA-Filter zu schwach und das Objektiv zu gut ist. Hilft aber u. U. wenig, wenn dafür ein anderer Bildteil in den Fokus kommt. Beugungsunschärfe ist da besser, weil überall wirksam. Ist aber ein anderes Thema.

Von der Theorie her ist es also klar, dass ein Unschärfekreis von 2 Pixeln keine optimale Schärfe bringt. Wie sehr man den Unterschied zur perfekten Schärfe sieht, hängt m. E. entscheidend von der Qualität des Objektivs und der Stärke des AA-Filters ab (und im Zweifel auch noch von Mikroverwacklern, Vibrationen durch Spiegel und Verschluss, …). Ideales Testobjekt für die Praxis wäre ein niedrig auflösender Sensor ohne AA-Filter mit einem sehr scharfen Objektiv. Den Sensor könnte man durch Box-resampling simulieren …

L.G.

Burkhard.
 
Hallo Burkhard,

was ich schon lange mit 01af diskutiere ist nicht, ob 2x optimal ist (ist es nicht*), sondern ob der Effekt, dass die Pixelgröße einen Art "Puffer" bildet, der dafür sorgt, dass man Verkleinerungen der Zerstreuungskreise irgendwann nicht mehr wahrnehmen kann, überhaupt vorhanden ist. Wenn ich mich richtig erinnere sagt 01af, dass bei 0,1*l dann vielleicht mal der Fall sei. Das würde "meine" Methode dann natürlich tatsächlich sinnlos machen. Ich denke dass der Wert deutlich größer ist. Du schreibst 1.6 wäre noch messbar besser. Wie weit würdest Du vermuten, dass visuell noch Unterschiede wahrnehmbar sind?



* Es ist richtig, dass ich vor Jahren mal geschrieben habe, dass 2x schon maximale Schärfe bringt. Da musste ich mich korrigieren und habe vor längerem geschrieben, das im direkten Vergleich 2*l zu 1*l noch ein winziger Qualitätsunterschied zu ahnen ist.
 
Zuletzt bearbeitet:
Das heißt, jede Verkleinerung der Zerstreuungskreise liefert eine höhere Auflösung.
So ist es. Und zwar – theoretisch – bis herunter zum Streukreisdurchmesser null, wo endlich das Optimum erreicht ist. In der Praxis wird man natürlich schon viel früher keinen Unterschied zum theoretischen Optimum mehr wahrnehmen können. Bei welchem Streukreisdurchmesser diese praktische Grenze liegt, hängt von verschiedenen Faktoren ab, unter anderen von der Objektivqualität. Ich würde schätzen, daß sie unter günstigen Unständen (kein Tiefpaßfilter, exzellentes Objektiv, absolut keine Verwacklung, detail- und kontrastreiches Motiv) in der Nähe von etwa einem halben Pixelabstand liegen dürfte ... vielleicht sogar einem viertel. Bei Kameras ohne Bayer-Filter (Foveon, Monochrom) noch etwas weniger.


Das klingt gut. Deine Beweise, die Du bis jetzt geliefert hast: 1) Es klingt recht plausibel und 2) du glaubst daran, daß es so sei.
... und 3) ich habe es ausprobiert und hier vor Jahr und Tag darüber berichtet.


2) Es gibt offensichtlich recht viele, die sich wissenschaftlich damit auseinandersetzen und das anders sehen (ich habe nun schon einige Veröffentlichungen gezeigt.
Du glaubst gar nicht, wie viele halbwissende Deppen es unter denen gibt, die wissenschaftlich anmutende Artikel verfassen. Und wenn man tatsächlich einmal auf einen guten Artikel stößt, dann muß man ihn auch richtig lesen und verstehen und darf nichts hineininterpretieren, was gar nicht drinsteht.


Das Shannon'sche Abtasttheorem: Pixel mit Länge l können einen räumliches Signal/Zerstreuungskreis des Durchmesser 2l so abtasten, daß sie ihn wiederherstellen können (es ist keine Rede davon, daß da irgendwas richtig an (Pixel)-Grenzen "ausgerichtet" sein müsse).
Siehst du: schon falsch.

Das Shannon'sche Abtasttheorem sagt, ein Signal mit einer endlichen oberen Grenzfrequenz könne aus endlich vielen Abtastwerten verlustlos rekonstruiert werden, wenn die Abtastfrequenz höher ist als die doppelte obere Grenzfrequenz des Signals.

Der Fehler, der an dieser Stelle ständig begangen wird, ist die Unterstellung, aus dem Durchmesser der Streuscheibchen ergäbe sich die obere Grenzfrequenz für das abzutastende Signal. Da aber – wie du gerade eben selber noch festgestellt hast – die vom Objektiv kommenden Streuscheibchen nicht an irgend einem Pixelraster ausgerichtet sind, sondern in ihrer Positionierung frei sind, also überall auftreten können, gibt's keine obere Grenzfrequenz. Oder vielleicht gibt's doch irgendwie eine, aber die läge um mindestens eine Größenordnung höher.


Du sagst, wenn ich den Zerstreuungskreis kleiner mache, werde das Signal besser.
Richtig.


Das Theorem sagt, ich bekäme dann Aliasing-Effekte ...
Auch richtig.

Deswegen muß man sich als Fotograf entscheiden – will man allerhöchste Auflösung aus dem Sensor quetschen und akzeptiert dafür hie und da ein Moiré, oder will man Moirés unbedingt vermeiden und akzeptiert dafür ein Tiefpaßfilter, welches eine geringere Auflösung beschert als die, zu der der Sensor theoretisch fähig wäre? Immerhin treten Moirés, also jene bösen Aliasing-Effekte, nur an solchen Bildstellen auf, wo das Bildsignal eine gewisse Periodizität mit der "passenden" Ortsfrequenz aufweist – also in der Praxis eher selten, wenn man nicht gerade Testtafeln fotografiert ... gut, Textilien sind auch öfter mal ein Problem.

Andererseits sorgt ein Tiefpaßfilter dafür, daß alle Aufnahmen weniger scharf werden als mit dem gegebenen Sensor maximal möglich – auch solche, die gar nicht moiréanfällig wären. Deswegen kommen die früher allgegenwärtigen Tiefpaßfilter heutzutage mehr und mehr aus der Mode ... Shannon zum Trotze.

Und selbst wenn ein Tiefpaßfilter vorhanden ist, wird eine Abbildung, die Streukreise kleiner als zweimal Pixelabstand aufweist, immer noch ein (geringfügig) schärferes Digitalbild ergeben als eines, dessen kleinste Streukreise gleich dem zweifachen Pixelabstand sind. Die Auffassung, "wenn das Tiefpaßfilter eh' nichts kleineres durchläßt, dann ist's wurscht", ist falsch. Denn ein Streuscheibchen, das vor dem Tiefpaß bereits so groß ist wie ein (nahezu) punktförmiges dahinter, wird nach dem Durchgang durch das Filter (etwas) größer sein.


Was ich schon lange mit 01af diskutiere, ist nicht, ob 2× optimal ist (ist es nicht) ...
Ach? Da bin ich aber froh, das nicht mehr diskutieren zu müssen.


... sondern ob der Effekt, daß die Pixelgröße einen Art "Puffer" bildet, der dafür sorgt, daß man Verkleinerungen der Zerstreuungskreise irgendwann nicht mehr wahrnehmen kann, überhaupt vorhanden ist.
Wie gesagt: theoretisch gibt's da keine Grenze. Aber praktisch wäre das ebenso unsinnig wie die Behauptung, es gäbe keine Unendlich-Fokussierung, weil nichts in diesem Universum wahrhaft unendlich weit entfernt ist. Also gibt's praktisch sehr wohl eine Grenze. Und wo liegt diese? Siehe Absatz 1 in diesem Beitrag.


Wenn ich mich richtig erinnere, sagt 01af, daß bei 0,1 × [Pixelabstand] dann vielleicht einmal der Fall sei.
Ich meine mich vage zu erinnern, daß ich den Wert 0,1 einmal nannte ... doch heute würde ich das so interpretieren, daß die praktische Grenze spätestens bei diesem Wert erreicht sein dürfte. Im allgemeinen wird sie wohl bei etwas größeren Werten liegen – aber doch auf jeden Fall bei einer Zahl kleiner als 1,0.
 
...sondern ob der Effekt, dass die Pixelgröße einen Art "Puffer" bildet, der dafür sorgt, dass man Verkleinerungen der Zerstreuungskreise irgendwann nicht mehr wahrnehmen kann, überhaupt vorhanden ist.

Die Frage ist viel übersichtlicher, wenn Du sie in den Fourier-Raum mitnimmst und dort in (Orts-) Frequenzgängen und Filtern denkst. Auch wenn es vielleicht nicht ganz richtig ist, kannst Du Dir all die verschiedenen Unschärfeeinflüsse wie die "Pixelunschärfe" (diskrete Abtastung des optischen Signals mit begrenzter örtlicher Abtastrate), Beugung, Abbildungsfehler, Verwacklung/Bewegung, Bildrauschen und eben auch Defokusunschärfe wie hintereinandergeschaltete Tiefpässe mit unterschiedlichen Grenzfrequenzen und Flankensteilheiten denken. In der Fokusebene ist die Defokusunschärfe null, da dominiert die Kombination all der anderen Einflüsse. Weit außerhalb der Fokusebene dominiert die Defokusunschärfe allein. Im Übergangsbereich hat man eine Kombination aus allen Unschärfeeinflüssen.

Zu Zeiten großer Pixel und wenn man ein gutes Objektiv nutzte, es nicht gerade auf f/32 abblendete und nicht verwackelte, war in der Fokusebene die "Pixelunschärfe" dominant, weit entfernt davon die Defokusunschärfe. Alle anderen Einflüsse bildeten Tiefpässe, deren Grenzfrequenzen viel höher lagen als die durch die diskrete Abtastung (mit AA-Filter) erreichte. Wenn man da nun den Punkt suchte, wo die Grenzfrequenz der Defokusunschärfe gleich der durch die Abtastung ist (was nicht bedeutet, dass Defokus-Zerstreuungskreis = Pixelabstand sein muss), führte dort die gedachte Hintereinanderschaltung von 2 ähnlichen Tiefpässen natürlich zu einer Verschlechterung des Frequenzgangs im Vergleich zur besten erreichbaren Übertragung, die in der Fokusebene vorliegt. Auch da ist schon die Forderung gleicher Grenzfrequenzen völlig willkürlich, die Forderung Defokus-Zerstreuungskreis = Pixelabstand ist es erst recht.

Heute mit viel kleineren Pixeln, und "in der Realität" mit Verwacklung/Bewegung, nicht den besten Objektiven uwsw. auch vorher schon, dominiert auch in der Fokusebene längst nicht mehr allein die "Pixelunschärfe", sondern irgendeine Kombination aller Einflüsse (außer Defokus). Der resultierende Gesamt-Tiefpass hat eine tiefere Grenzfrequenz (und andere Flankensteilheit) als durch die diskrete Abtastung allein erreichbar wäre. Je kleiner die Pixel werden, desto weniger Einfluss haben sie sogar darauf. Wenn ich so ein Foto in der 100%-Ansicht betrachte, wird es irgendwann (bei genügend kleinen Pixeln) zwangsläufig unscharf sein.

Und wenn ich da nun die Schärfentiefe über die Punkte definiere, wo ein weiterer Tiefpass (Defokus) die gleiche Grenzfrequenz hat wie ein einzelner der vielen hintereinandergeschalteten (Abtastung), zeichnen sich diese Punkte einfach durch gar nichts besonderes mehr aus (und die Punkte wo Defokus-Zerstreuungskreis = Pixelabstand schon sowieso nicht). Wenn die Pixel so klein geworden sind, dass ihr Tiefpass gar keine Rolle mehr spielt (weil die Grenzfrequenz so viel höher ist), führt das Dazuschalten eines weiteren ähnlichen Tiefpasses vieleicht zu gar keinen erkennbaren Effekt mehr.

In jedem Fall würde aber diese Berücksichtigung der Pixelgröße bzw. 100%-Ansicht entweder stärkeres Abblenden erfordern, weil die Schärfentiefe sonst viel zu klein würde, was nun einerseits wieder zu mehr Beugungsunschärfe führen kann, außerdem längere Belichtungszeiten und/oder höhere ISO erfordern würde, was dann wieder andere Unschärfen begünstigt. Und in einem dann in Gänze betrachteten Bild wäre dann vielleicht viel mehr scharf, als man möchte. Oder man käme zu viel größeren Hyperfokaldistanzen als nötig (wenn man die denn nutzen möchte), und würde im Vordergrund Schärfentiefe verschenken.
 
[...] Und wenn ich da nun die Schärfentiefe über die Punkte definiere, wo ein weiterer Tiefpaß (Defokus) die gleiche Grenzfrequenz hat wie ein einzelner der vielen hintereinandergeschalteten (Abtastung), zeichnen sich diese Punkte einfach durch gar nichts besonderes mehr aus (und die Punkte, wo Defokus - Zerstreuungskreis = Pixelabstand, schon sowieso nicht).
Puh. Ja, genau. Das meine ich, wenn ich sage, der zweifache Pixelabstand als maximal zulässiger Streukreisdurchmesser sei eine völlig willkürliche Wahl ohne eine besondere Signifikanz. Du hast es nun viel schöner formuliert, als ich es vermocht hätte. :)
 
Wenn ich mich richtig erinnere sagt 01af, dass bei 0,1*l dann vielleicht mal der Fall sei. Das würde "meine" Methode dann natürlich tatsächlich sinnlos machen. Ich denke dass der Wert deutlich größer ist. Du schreibst 1.6 wäre noch messbar besser.
Ich habe mal ein MTF-Diagramm gemacht, damit man sieht, was mit der MTF eines Sensors + normalem AA-Filter (schwarzer Graph) passiert, wenn zusätzlich Defocus-Unschärfe dazukommt. Die Nyquist-Frequenz des Sensors ist bei 1. Die anderen Graphen entsprechen der Gesamt-MtF, wenn noch eine Defocus-Unschärfe von k Streukreisdurchmessern dazukommt, für (von links nach rechts) k = 8, 4, 2, 1, 0,5, 0,25, 0,1. Zu k=2 gehört also der türkise Graph, man sieht, dass bei diesem Streukreisdurchmesser die Grenzauflösung schon oberhalb der Nyquist-Frequenz liegt. Insofern ist bei k=2 das Maximum erreicht, was die Grenzauflösung anbelangt. Man sieht, auch, dass trotzdem einiges an Kontrast verloren geht. Die Grenzauflösung kann man in einem Foto gut sehen, Kontrastverluste eher schlecht. Ich hänge mal ein Bild an, das ein Linienmuster mit 25 % Kontrast und mit 50 % Kontrast (Intensität, also im linearen Farbraum) enthält, welches welches ist, sieht man gar nicht so leicht, bzw. erst, wenn man das Bild stark vergrößert. Insofern finde ich es sehr schwierig abzuschätzen, wie stark man (in 100%-Ansicht) den Unterschied zwischen k=2 und scharfem Bild sieht. Kommt noch Objektivunschärfe dazu, dann rücken die Graphen noch enger zusammen.

* Es ist richtig, dass ich vor Jahren mal geschrieben habe, dass 2x schon maximale Schärfe bringt. Da musste ich mich korrigieren und habe vor längerem geschrieben, das im direkten Vergleich 2*l zu 1*l noch ein winziger Qualitätsunterschied zu ahnen ist.
Ich hatte, ehrlich gesagt, deinen Post #46 so gelesen, dass du maximale Schärfe bei k=2 behauptest. Aber das hat sich ja geklärt.

L.G.

Burkhard.
 

Anhänge

Insofern ist bei k=2 das Maximum erreicht, was die Grenzauflösung anbelangt. Man sieht, auch, dass trotzdem einiges an Kontrast verloren geht.

Klasse, vielen Dank das ist sehr interessant. Ich verstehe, dass man daraus schwer abschätzen kann, wie sich das visuell auswirkt. Zumal es ja auch noch Objektiv- und Objektabhängig ist.

Ich hatte, ehrlich gesagt, deinen Post #46 so gelesen, dass du maximale Schärfe bei k=2 behauptest.

Ich halte 2 für einen guten Wert, da er in der Praxis einen kaum sichtbaren Unterschied an Schärfe zur Fokusebene liefert ohne dabei "zu streng" zu sein.

... eine völlig willkürliche Wahl...

Natürlich ist das willkürlich - das ist 1/1500 auch, warum nicht 1/2000? Aber es liefert eine Konstanz über eine große Breite von Sensorauflösungen. Ein Großteil derer, die anfangen Schärfentiefe zu rechnen, kommen irgendwann an den Punkt an dem sie sich fragen, ob man auch für die 100% Ansicht rechnen kann. Ich halte die Antwort "nimm einen Zerstreuungskreis der zweimal der Pixelbreite entspricht" für sinnvoller als zu behaupten, das man das nicht könne (Auf die Problematik der 100% Ansicht sollte man natürlich eingehen). Wer sich dann darauf stürzt, hat sicher einen nicht zu schlechten Startwert für eigene Versuche.
 
Wer sich dann darauf stürzt, hat sicher einen nicht zu schlechten Startwert für eigene Versuche.

Ich bleibe dabei: Ich halte es für schon im Ansatz falsch, den Leuten etwas pixeldenkerisches zu erklären, nur weil es zufällig halbwegs hinkommt. Es geht ohne Pixel, und das ist dann auch noch universeller und in sich schlüssig, und es ist nur minimal komplizierter.
 
Ich bleibe dabei: Ich halte es für schon im Ansatz falsch, den Leuten etwas pixeldenkerisches zu erklären...

Ja und ich bin anderer Meinung. Die 100% Ansicht ist "pixeldenkerisch" und die Bewertung in 100% Ansicht ist für sehr viele Alltag... Diskutier dagegen an, es gibt schlechteres. Wenn das nächste mal aber jemand fragt, warum seine Berechnungen nicht dazu führen, dass seine Bilder von x-y "scharf" sind, werde ich ihm wieder erklären warum das so ist und was er ändern kann.

Es wäre nur nett, wenn Du das nächste mal dann nicht anzweifeln würdest, das die Bilder dann schon irgendwie scharf werden, sondern erklären warum Du das für problematisch hältst.
 
Natürlich ist das willkürlich - das ist 1/1500 auch, warum nicht 1/2000? Aber es liefert eine Konstanz über eine große Breite von Sensorauflösungen. Ein Großteil derer, die anfangen Schärfentiefe zu rechnen, kommen irgendwann an den Punkt an dem sie sich fragen, ob man auch für die 100% Ansicht rechnen kann. Ich halte die Antwort "nimm einen Zerstreuungskreis der zweimal der Pixelbreite entspricht" für sinnvoller als zu behaupten, das man das nicht könne (Auf die Problematik der 100% Ansicht sollte man natürlich eingehen). Wer sich dann darauf stürzt, hat sicher einen nicht zu schlechten Startwert für eigene Versuche.
Man kann sogar einen einheitlichen Ansatz für beide Regeln finden. Wenn man fordert, dass die Defocus-Unschärfe nur so groß sein darf, dass die Grenzauflösung des Gesamtsystems dadurch nicht beeinträchtigt wird, dann bekommt man für das System

ideales Objektiv - Sensor - Foto - Betrachter aus normalem Betrachtungsabstand

ziemlich genau die 1/1500-Regel, solange die Zerstreuungskreise größer als 2x Pixelabstand sind, und darunter die 2x Pixelabstand-Regel.

Oder anders gesagt: die 1/1500-Regel ist nur für Bildausschnitte sinnvoll, bei denen man die einzelnen Pixel noch nicht sieht, oberhalb dieser Grenze erfüllt die 2-Pixel-Regel einen ähnlichen Zweck.

L.G.

Burkhard.
 
Oder anders gesagt: die 1/1500-Regel ist nur für Bildausschnitte sinnvoll, bei denen man die einzelnen Pixel noch nicht sieht, oberhalb dieser Grenze erfüllt die 2-Pixel-Regel einen ähnlichen Zweck.

Bloß wofür wäre dieser Zweck sinnvoll? Wer betrachtet denn ein Bild so, dass er die Pixel sieht? :confused:

Im übrigen war die Frage...

Kann ich für die X-T10 auch die X-T1 oder die Option "APS-C 1.5x" nehmen?

...und die Antwort ist "ja". Wie kommt Ihr eigentlich auf die "off topic"-Schiene, hier Dinge zu erklären, nach denen gar nicht gefragt wurde? Hier muss doch das Niveau gehalten werden und eigentlich müsste hier umgehend zugemacht werden.
 
WERBUNG
Zurück
Oben Unten