• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hyperfokale Distanz vs. Fokus auf unendlich

Du lernst es nie, darfst aber gerne weiter posten.
Alles was ich hier tue ist einen (einfachen) Zusammenhang zwischen der Schärfe auf Pixelebene und der allgemeinen Schärfeberechnung her zu stellen.
Schärfe auf Pixelebene gibt es nicht. Schärfe ist eine Sache des Betrachters. Unschärfe ist auch eine Sache des Betrachters und Schärfentiefe ebenso. Auch deshalb darf Letzteres auch Tiefenschärfe genannt werden.
 
Daher nimmt man bei der Fehlerfortpflanzung zweier unabhängiger Quellen von Unschärfe als Gesamtauflösung die

Wurzel aus der Summe der Quadrate der Einzelauflösungen.
Ich fürchte, du hast das Wesen dessen nicht verstanden, was wir hier diskutieren. Eine begrenzte Auflösung ist keine "Fehlerfortpflanzung".


... dass Du gar nicht merkst, dass Du gar nicht meinen Ansatz, sondern das Konzept der Schärfentiefe in Frage stellst.
Ach!? Tue ich das? Welchen Teil von "eine Hyperfokaldistanz existiert immer nur dann, wenn du dir einen Schärfeverlust definieren kannst, den du für akzeptabel hältst" hast du nicht verstanden? :rolleyes:


Egal wie ich das Bild hinterher vergrößere oder verkleinere, es bleibt immer ein Schärfeunterschied zwischen Fokusebene und dem Rest.
Schön, daß du's endlich einsiehst. Dann können wir hier jetzt zumachen.
 
Zuletzt bearbeitet:
Schärfe auf Pixelebene gibt es nicht. Schärfe ist eine Sache des Betrachters.

Der Berachter sieht sich das Bild in 100% Ansicht an und geht so lange vor und zurück, bis er gerade keine Pixel mehr wahrnimmt: voilà Schärfe auf Pixelebene. Das macht fast jeder der die Schärfe eines digitalen Fotos begutachten will so - Du nicht wenn Du sehen willst welches von 2 Bildern schärfer ist?

Das ist weder hoch wissenschaftlich noch wahnsinnig sinnvoll*, aber gängige Praxis und ich kann Dir bei der Aufnahme schon ungefähr sagen, was Dich dann erwartet.


* 100% Ansicht vs. Gesamtbildinformation
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Dies hier ist aber nun wirklich am Leben vorbei:
Stattdessen ergibt sich der Kehrwert der Systemauflösung aus der Summe der Kehrwerte der Einzelauflösungen.

1/Rgesamt = 1/R1 + 1/R2

... die Auflösungen beider Glieder einfach in Linienpaaren pro Millimeter ausdrücken. Das ist zwar alles etwas simplifiziert – aber es geht hier erst einmal nur um das Prinzip.

Wenn also der Sensor zum Beispiel 40 Lp/mm auflösen kann und das Objektiv ein Bild darauf wirft, das ebenfalls mit 40 Lp/mm aufgelöst ist, so ergibt sich eine Gesamt-Auflösung des Systems von – nein, nicht 40 Lp/mm, sondern gerade einmal 20 Lp/mm!
Gerade dieses Beispiel belegt die Unsinnigkeit Deiner Methode.
- Liegt nämlich das Bild des Objektivs zufällig mit seinen hell bzw dunkel Streifen jeweils halb auf einem Pixel, so erhält man als Gesamtbild ein durchgehendes Mittelgrau (Ortsfrequenz 0).
- Bestrahlt hell bzw dunkel des Objektivbildes jeweils genau 1 Pixel, ergibt sich als Gesamtbild eines mit der Ortsfrequenz 40LP/mm (d.i. eine der Einzelkomponenten).

Fazit: Die Ortsfrequenz des Ergebnisses ist zufällig(!) von der Phasendifferenz der beiden Einzelkomponenten abhängig. Da eine real existierende Kante sich aber nicht um dieses Problem kümmert, ist das Ergebnis des Bildes hiervon in Sachen Ortsfrequenz entlang des Bildes dieser Kante breit gefächert.

Stimmen die Ortsfrequenzen nicht überein, gibt es zunächst niedrigfrequente Modulationen ähnlich einer Amplitudenmodulation. Bei größer werdenden Abständen der Ortsfrequenzen bestimmt dann das schwächste Glied das Tempo.

Da Deine Summenbildung sicher nicht der Weisheit letzter Spruch ist, gebe ich Deine Befürchtung zu meinem Verständniswesen erst einmal zurück.
 
Ich werf mal die Frage ein, was das dem Fotografen in der Praxis bringt?
Die Frage hab ich schon in https://www.dslr-forum.de/showthread.php?p=12008069#post12008069 gestellt und keine befriedigende Antwort bekommen. Ja, ich bin Techniker, und ich kenn mich mit Mathe aus. Aber beim Fotografieren genügen mir Erfahrungswerte (die ein Ungeübter sicher mit Schärfetieferechnern ersetzen kann). Und wenn ich bei Standardbrennweiten Blende 11 nehme & auf 6, 8 oder 10 m fokussiere dann wird die Unschärfe in 00 nur geringfügig variieren.


Gruß
Manfred
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Dann schlage ich vor, daß du die Lehrbücher über Informationstheorie neu schreibst. Und bei der Gelegenheit auch den Leuten bei Zeiss beibringst, wie Objektive funktionieren. Denn schließlich ist es nicht "meine" Methode ... :rolleyes:
Was Besseres fällt Dir wohl nicht ein. Das nächste Gegenbeispiel, das Deine Formel ad absurdum führt, ist geradezu trivial:

Nimm einen Sensor mit der Ortsfrequenz Pixel = 1.
Lege darauf ein Bild eines Objektivs mit Ortsfrequenz 1/100.

Nach Deiner Formel kommt als Bild der Digitalkamera eine Ortsfrequenz von 1/101 raus. Das ist offensichtlicher Unsinn, wird doch bei einem derart langwelligen Bild des Objektivs bei diesem hochauflösenden Sensor die Wellenlänge praktisch exakt wieder gegeben.

Da dieser Fehler bei jedem noch so schlecht strukturiertem Bild gleich bleibt, suchst Du besser ein anderes Lehrbuch als eines aus der Informationstheorie.
 
Nimm einen Sensor mit der Ortsfrequenz Pixel = 1. Lege darauf ein Bild eines Objektivs mit Ortsfrequenz 1/100.

Nach Deiner Formel kommt als Bild der Digitalkamera eine Ortsfrequenz von 1/101 raus. Das ist offensichtlicher Unsinn ...
Offensichtlich. Denn "Pixel = 1" ist keine Ortsfrequenz. Es sieht eher aus wie die Feststellung, daß eine skalare Größe namens Pixel den Wert eins besitzt. "1/100" ist ebenso wenig eine Ortsfrequenz, sondern nur eine Zahl.

Aber vielleicht meinst du einen Sensor mit einem Pixel pro Millimeter und ein Objektiv, dessen Streuscheibchen 1/100 mm groß sind? In diesem Falle läge die (rein rechnerische, also alle sonstigen möglichen Einflußfaktoren außer acht lassende) Auflösung des Bildes bei 0,99 Linien pro Millimeter – also knapp unterhalb des theoretischen Maximums.

Mit scheint, dein Verständnisproblem (und das von anathbush ebenso) beruht darauf, daß in deiner Modellvorstellung immer nur genau ein Streuscheibchen existiert, das auf genau ein Pixel fällt, und daß du gar nicht verstehen kannst (oder willst), daß ein Bild in Wirklichkeit aus ganz vielen Streuscheibchen besteht, welche auf einen Sensor mit ziemlich vielen Pixeln fallen.
 
Ich werf mal die Frage ein, was das dem Fotografen in der Praxis bringt?
Die einen rechnen lieber, die anderen probieren aus … wie man zu Erkenntnissen kommt, ist letztlich Geschmackssache. Früher zu Analogzeiten war Rechnen jedenfalls schneller und billiger.

Und wenn ich bei Standardbrennweiten Blende 11 nehme & auf 6, 8 oder 10 m fokussiere dann wird die Unschärfe in 00 nur geringfügig variieren.
Du wirst dich wundern … bei 12 m ist der weit entfernte Hintergrund doppelt so scharf wie bei 6 m (und bei KB und 6 m ist er unschärfer als nach der 1/1500-Regel "erlaubt", den Unterschied zwischen 6 m und 10 m sollte man also deutlich erkennen können). Das alles kann ich übrigens vorhersagen, obwohl es jetzt gerade draußen dunkel ist und ich es gar nicht ausprobieren kann. ;)

L.G.

Burkhard.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Offensichtlich. Denn "Pixel = 1" ist keine Ortsfrequenz. Es sieht eher aus wie die Feststellung, daß eine skalare Größe namens Pixel den Wert eins besitzt. "1/100" ist ebenso wenig eine Ortsfrequenz, sondern nur eine Zahl.

Aber vielleicht meinst du einen Sensor mit einem Pixel pro Millimeter und ein Objektiv, dessen Streuscheibchen 1/100 mm groß sind? In diesem Falle läge die (rein rechnerische, also alle sonstigen möglichen Einflußfaktoren außer acht lassende) Auflösung des Bildes bei 0,99 Linien pro Millimeter – also knapp unterhalb des theoretischen Maximums.
Ich meine schon, was ich schreibe. Nur kannst Du nicht mit beliebigen aber dann gleichen Einheiten umgehen. Nimm also Für die Pixel die Ortsfrequenz 1/E und das Bild des Objektivs 1/100/E. Somit hast Du die Kehrwerte 1E und 100E zu addieren und, den Kehrwert zu bilden und kommst mit Deiner Formel auf eine Wellenlänge des Bildes von 101E und seiner Ortsfrequenz 1/101/E.

Nun darfst Du gerne dieses "E" als Längeneinheit durch eine beliebige Dir gefällige Einheit zu ersetzen. Du darfst die Einheit dann auch gerne Meter, 01af nennen oder den 2-fachen Pixelabstand nehmen. Grad egal.

In jedem Falle ist es Irrsinn anzunehmen, Das vom Sensor aufgenommene digitale Bild hätte eine Wellenlänge von 101E bei einem Original von 100E, nur weil der aufnehmende Sensor eine Nyquist Frequenz von 1/E hat. Selbstverständlich kann der Sensor diese Wellenlänge richtig wiedergeben, die Amplitude ist minimal verringert.

Deine Geschichte darfst Du gerne bei Zeiss anbieten
 
Nur kannst Du nicht mit beliebigen, aber dann gleichen Einheiten umgehen.
Ich kann nicht damit umgehen!? :lol:

Will ein Brötchen dem Bäcker erklären, wie ein Backofen funktioniert ...


Nimm also für die Pixel die Ortsfrequenz 1/E und das Bild des Objektivs 1/100/E.
O je. Ich wünschte, du würdest schreiben, was du meinst. Na schön ... unterstellen wir einmal, du meintest: (1/100)/E, also 0,01/E – denn nur so ergibt sich eine Ortsfrequenz, wenn E eine Längeneinheit ist. Dein Streukreis ist also 100 Einheiten groß.


Somit hast Du die Kehrwerte 1 E und 100 E zu addieren und den Kehrwert zu bilden und kommst mit Deiner Formel auf eine Wellenlänge des Bildes von 101 E und seiner Ortsfrequenz (1/101)/E.
Richtig. Und wo genau liegt jetzt dein Problem?
 
Zuletzt bearbeitet:
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

In jedem Falle ist es Irrsinn anzunehmen, Das vom Sensor aufgenommene digitale Bild hätte eine Wellenlänge von 101E bei einem Original von 100E, nur weil der aufnehmende Sensor eine Nyquist Frequenz von 1/E hat.
Aber das behauptet doch auch niemand, oder? Es ging doch immer nur um Auflösungsvermögen. Das Objektiv kann eine Wellenlänge von 100E noch ausreichend gut auf dem Sensor abbilden, aber das Sensorbild ist wegen dessen zusätzlichem Fehler nicht mehr gut genug. Bei 101E ist die Qualität der Abbildung auf dem Sensor ein bisschen besser, und was am Ende herauskommt, entspricht dann noch dem Qualitätskriterium für die Auflösung. Natürlich stimmen Wellenlänge des Testbildes und Wellenlänge des Sensorbildes überein, solange man sich unterhalb der Nyquist-Frequenz bewegt. (Ich nehme jetzt mal die Zahlen aus der "Formel", obwohl ich immer noch keine Rechtfertigung für sie sehe – aus der Betrachtung von MTF-Kurven ergibt sie sich m.E. nicht, aber das habe ich ja schon geschrieben.)

L.G.

Burkhard.
 
Sei beim Objektiv die Auflösunggrenze bei 100E. Dann werden genau diese 100E vom System Sensor/Objektiv aufgelöst, wenn der Sensor alleine 1E kann.

Sprich - es kommt besonders kein einheitsgrau sondern die 100E werden fast mit Originalamplitude abgebildet.

Nach der Theorie von 01af kann das System aber keine Wellenlänge 100E auflösen sondern nach der bemerkenswerten Summenregel eben nur 101E.

Nun habe ich zwei Gegenbeispiele gebracht, die 01af Summenformel absurd machen. Ich verkruemel mich damit, weil ich keinen Bock habe, ständig Euren gegen Aberglauben anzudebattieren.
 
Sei beim Objektiv die Auflösunggrenze bei 100 E. Dann werden genau diese 100 E vom System Sensor/Objektiv aufgelöst, wenn der Sensor alleine 1 E kann.
Nein, eben nicht. Der Sensor müßte unendlich hoch auflösen, wenn er das vom Objektiv gelieferte Bild vollkommen unverfälscht wiedergeben wollte. Ist aber seine Auflösung begrenzt, so reduziert er immer und zwangsläufig die Qualität der Wiedergabe. Ist seine Auflösung um Größenordnungen besser als die des Objektives (z. B. 100× besser wie in obigem Beispiel), so ist diese Reduktion unmerklich gering, aber rechnerisch dennoch vorhanden.

Egal, wie sich die jeweiligen Auflösungen von Objektiv und Sensor zueinander verhalten – die Auflösung des Bildes wird immer von beiden Teilauflösungen bestimmt und ist immer niedriger als die beiden Teilauflösungen.


Nach der Theorie von 01af kann das System aber keine Wellenlänge 100 E auflösen, sondern nach der bemerkenswerten Summenregel eben nur 101 E.
Ja, genau. Aber bitte – das ist nicht "die Theorie von 01af". Denn weder ist es eine Theorie, noch stammt das von mir. Es ist einfach so, wie es ist – ebenso wie beispielsweise die binomischen Formeln, der Satz des Pythagoras oder das Gravitationsgesetz keine Theorien sind.
 
Sprich - es kommt besonders kein einheitsgrau sondern die 100E werden fast mit Originalamplitude abgebildet.
Genau. Und wenn diese Amplitude die Amplitude unterschreitet, die für "Auflösungsvermögen" erforderlich ist (erst mal egal, ob man die Grenze bei 50% der Originalamplitude, bei der Erkennbarkeitsschwelle des Auges, Untergehen im Rauschen), dann ist eben unterhalb 100E mit dem Auflösungsvermögen Schluss, und 101E sind gerade noch oberhalb der Grenze.

L.G.

Burkhard.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Ja, genau. Aber bitte – das ist nicht "die Theorie von 01af". Denn weder ist es eine Theorie, noch stammt das von mir. Es ist einfach so, wie es ist – ebenso wie beispielsweise die binomischen Formeln, der Satz des Pythagoras oder das Gravitationsgesetz keine Theorien sind.
Deine "Summe der Kehrwerte"-Formel ist allerdings meilenweit von der Gravitationstheorie entfernt – das ist höchstens eine krude Faustformel. Und auch die MTF-Theorie hat ihre Grenzen. Sie ist eben eine Theorie. (Binomische Formeln und Pythagoras haben einen ganz anderen erkenntnistheoretischen Stellenwert. Wusste schon Kant.)

L.G.

Burkhard.
 
AW: Re: Hyperfokale Distanz vs. Fokus auf unendlich

Deine "Summe der Kehrwerte"-Formel ist allerdings meilenweit von der Gravitationstheorie entfernt
Sag ich doch die ganze Zeit. Entsprechend falsch ist ja auch die 101, schon weil im Beispiel der immer gleiche Aufschlag von 1 bei länger werdender Basiswellenlänge (100, 200, ...) völlig abwegig ist.
 
... schon weil im Beispiel der immer gleiche Aufschlag von 1 bei länger werdender Basiswellenlänge (100, 200, ...) völlig abwegig ist.
Wieso abwegig? Es ist doch immer der gleiche Sensor.


Deine "[Kehrwert der] Summe der Kehrwerte"-Formel [...] ist höchstens eine krude Faustformel.
:rolleyes:

Natürlich ist sie das – unter anderem schon deshalb, weil man die Auflösung eines Objektives gar nicht in Form eines einzelnen Lp/mm-Wertes charakterisieren kann. Darauf wies ich gleich zu Beginn hin ... Lesen müßte man können.

Trotzdem ist eins mal sonnenklar: Auch wenn die Auflösungsgrenze eines zur Erzeugung eines Lichtbildes eingesetzten Objektives von einem völlig anderen Charakter als die eines Sensors und vergleichsweise schwer faßbar ist, so ist sie immerhin weder unendlich hoch noch unendlich niedrig. Und wenn man nun die Auflösung eines bestimmten Objektives bei einer bestimmten Blende für einen bestimmten Kontrast auf einer bestimmten Bildhöhe für ein Bilddetail mit einer bestimmten räumlichen Orientierung ermittelt, dann kann man diese auch in ein Linienpaare-pro-Millimeter-Äquivalent umwandeln und damit weiterrechnen. Dasselbe gilt für das Päckchen aus Deckglas, vertikalem Tiefpaß, IR-Sperrfilter, horizontalem Tiefpaß, Mikrolinsenfeld, Farbfilter, Reihen und Spalten dotierten Siliziums und ggf. nachfolgender Bayer-Interpolation, welches wir gemeinhin als "Sensor" bezeichnen.

Und diese beiden in Lp/mm ausgedrückten Einzel-Auflösungen interagieren im Prinzip nun einmal miteinander in der oben beschriebenen Weise. Natürlich ist das eine Abstraktion, und in der wirklichen Welt ist das alles etwas komplizierter. Insbesondere interagieren da nicht nur zwei Auflösungswerte gleicher Form, sondern furchtbar viele ganz unterschiedlicher Formen. Aber der Sinn und Nutzen liegt, wie bei jeder anderen Abstraktion auch, in der, äh, Abstrahierung von einer allzu überwältigenden Fülle von Details, die nur den Blick auf die wesentlichen, grundlegenden Zusammenhänge verstellen.

Erst, wenn man das Grundprinzip verstanden hat, kann man – bei Bedarf – anfangen, sich über die Details Gedanken zu machen. Als Fotograf dürfte allerdings an dieser Stelle dieser Bedarf kaum bestehen ... schließlich wollen wir die Objektive und Kameras benutzen und nicht konstruieren.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten