• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Bokehunterschied gleiches Objektiv zw DX & FX

Stattdessen könntest Du ein bisschen Schulwissen anwenden und aus Strahlensatz und Linsengleichung die Zusammenhänge herleiten. Ist aber offenbar weit jenseits des Horizonts für ganz viele hier.


Gruß, Matthias

Dann bitte, erlöse uns alle und rechne es vor. Bitte mit genügend Erläuterung damit es auch der allerletzte versteht.
Und anschließend hätte ich auch gerne eine Erklärung, wie der Sensor das Licht beeinflusst, dass auf ihn trifft. Weil meines Wissens nach fängt der Sensor nur dass ein was auf ihn an Licht trifft. Und zwar in 2D. Die Tiefenschärfe hängt mit der dritten Dimension zusammen. Wie die Sensorgröße das beeinflussen soll ist mir ein Rätsel!
 
Wenn ich mir bei dpreview Bilder in gleicher MP-Anzahl aus jew FX und DX nebeneinanderstelle sind in der 100%-Ansicht die Bilder (z.B. der Münze) immer gleich groß, haben also die gleiche Vergrößerung trotz unterschiedlicher Sensorformate.
Sie sind verschieden stark vergrößert, um eben als Ergebnis (auf deinem Bildschirm) dann gleich groß zu sein; das ist etwas anderes.

Was meinst du zu Posting Nr. 55?
 
Zuletzt bearbeitet:
Dann bitte, erlöse uns alle und rechne es vor.

Das kannst Du an x verschiedenen Stellen im Internet nachlesen. Das Ergebnis könntest Du dann in übersichtlicher Form in einem Thema von mir namens "Schärfentiefe (Formeln und Anleitung)" oder so ähnlich nachlesen. Ich muss doch Trivialitäten nicht für jeden wiederkäuen, der zu faul ist, selber zu denken oder zu recherchieren.


Gruß, Matthias
 
Das kannst Du an x verschiedenen Stellen im Internet nachlesen. Das Ergebnis könntest Du dann in übersichtlicher Form in einem Thema von mir namens "Schärfentiefe (Formeln und Anleitung)" oder so ähnlich nachlesen. Ich muss doch Trivialitäten nicht für jeden wiederkäuen, der zu faul ist, selber zu denken oder zu recherchieren.


Gruß, Matthias

Schön, dass wir 7 Seiten benötigt habe um zu erkennen, dass es so außerordentlich trivial ist. Wenn alles im Internet zu finden und für jeden verständlich ist können wir ja dieses Forum direkt schließen! Und auch alle Universitäten der Welt! Steht ja alles im Internet! Helau!
Beteilige Dich doch bitte nicht an Diskussionen, wenn Du eigentlich keine Lust hast. Oder poste direkt deinen Artikel! Das wäre deutlich einfacher!
 
Zuletzt bearbeitet:
Uha, hier geht's ja ab... Vorweg: Masi & Co haben recht.

12 MP sind 12 MP und wuerden, egal auf welche Sensorgroesse verteilt, erstmal komplett identisch aussehen, wenn jeweils die Brennweite angepasst wird und es keine Abbildungsfehler / Auslesefehler gibt und alles komplett scharf ist.

Wir reden hier aber
a) nicht ueber die ideale Welt, d.h. es gibt Beugung, Rauschen, Objektivfehler etc., die alle zugunsten des groesseren Sensors sprechen

b) Wollen wir ja nicht alles scharf haben, sondern reden ueber Bokeh, also Schaerfeverlaeufe. So ein Schaerfeverlauf ist hoechst subjektiv, da sich je nachdem wie gut man gucken kann, wie weit man vom Foto weg ist, wie gross das Foto selbst ist etc. ein anderer Schaerfe / Unschaerfeverlauf einstellt.

Nehmen wir nun eine KB-Kamera (z.B D700) und eine Crop-Kamera (D300, hat ca. die gleiche nominelle Aufloesung) und machen mit beiden Kameras vom gleichen Standpunkt aus mit einer 50 mm Objektiv eine Aufnahme. Die Aufnahme drucken wir in 20x30 cm und schauen sie uns an.

Erstmal aus 10 m Entfernung. Wir erkennen auf dem einen Bild ein Gesicht (Crop-Aufnahme), auf dem anderen ein Gesicht mit ein bisschen Gruen aussen rum (KB), aber mehr Farbkleke als wirklich Details.

Nun gehen wir naeher ran, auf 2 m - nun koennen wir bereits Details erkennen, beide Aufnahmen erscheinen recht scharf und wirken gut, die Einzelheiten des Gesichtes lassen sich natuerlich bei der Cropaufnahme besser erkennen, ist ja auch groesser...

Nun wollen wir es genau wissen und halten sie uns direkt vor die Nase. Bei der KB-Aufnahme erscheinen uns Haare etc. alle identisch scharf zu sein. Bei der Cropaufnahme erkennen wir aber, dass das dort nicht so der Fall ist. Das Auge - perfekt getroffen, die Haare vorne sind auch toll scharf, aber nach hinten wird es etwas verschwommener. Wir sind geneigt das nicht mehr als komplett scharf zu definieren.

Weil das Bild staerker vergroessert wurde, waren wir in der Lage mehr Unterschiede in der Schaerfe zu erkennen und konnten deshalb besser zwischen scharf/unscharf unterscheiden. That's it
 
Dann bitte, erlöse uns alle und rechne es vor. Bitte mit genügend Erläuterung damit es auch der allerletzte versteht.
Und anschließend hätte ich auch gerne eine Erklärung, wie der Sensor das Licht beeinflusst, dass auf ihn trifft. Weil meines Wissens nach fängt der Sensor nur dass ein was auf ihn an Licht trifft. Und zwar in 2D. Die Tiefenschärfe hängt mit der dritten Dimension zusammen. Wie die Sensorgröße das beeinflussen soll ist mir ein Rätsel!

Das Missverständniss liegt in der Definition von Unschärfe. Ob wir etwas als unscharf wahrnehmen hängt maßgeblich von der Ausgabgröße und dem Betrachtungsabstand des fertigen Bildes ab und kann daher nicht unabhängig davon betrachtet werden!

Da es keine 100% korrigierten Objektive gibt ist erstmal alles in einem Bild unscharf, wenn man das Bild nur weit genug vergrößert (bei gleichbleibendem Betrachtungsabstand).
Es sind daher nicht Teile eines Bildes "scharf" und andere "unscharf". Man kann nur sagen, das einige Teile eines Bildes schärfer sind als andere, welche davon wir mit unserem Auge als scharf beurteilen hängt wie schon ausgeführt an der Ausgabgröße und dem Betrachtungsabstand des fertigen Bildes.

Zitat von http://www.striewisch-fotodesign.de/lehrgang/anmerk/ts_kb.htm:
"Das Bild auf dem Sensor muss bei sinkender Sensorgröße für das gleiche Endformat stärker vergrößert werden. Dabei werden auch die Unschärfen vergrößert und deutlicher sichtbar. "
 
Weil das Bild staerker vergroessert wurde, waren wir in der Lage mehr Unterschiede in der Schaerfe zu erkennen und konnten deshalb besser zwischen scharf/unscharf unterscheiden. That's it

Ja, besser beurteilen. Das heißt aber doch nicht, dass tatsächlich ein Unterschied in der Tiefenschärfe vorliegt, sondern dass es lediglich besser zu beurteilen ist. Ich sehe schon, das geht hier noch etwas weiter mit der Diskussion... :)

Edit: Denke Diamantenkönig hat mit seinem Post voll und ganz recht. Das bringt es ganz gut auf den Punkt.
 
Zuletzt bearbeitet:
Das ist ja das ganze Problem - Scharf/Unscharf ist ein subjektiver Eindruck, sonst wuerde z.B. Unscharf maskieren gar nicht funktionieren.

Ich kann festlegen welchen Zerstreuungskreis ich als Scharf und welchen ich als Unscharf definiere. Aus der Praxis haben sich dafuer bestimmte Werte ergeben. die auch den DOF-Rechnern zugrunde liegen.

Als Extrembeispiel kann jeder ja mal ein Foto bildschirmfuellend oeffnen und sich anschauen welcher Bereiche er/sie als scharf und welche als unscharf einordnen wuerde. Nun die 1:1 Ansicht aufrufen und nochmal gucken. Man wird feststellen, dass ploetzlich der scharfe Bereich kleiner wird, weil man mehr Details sieht und deshalb die Grenze im Kopf sich verschiebt.
 
Das scheint mit plausibel. Für mich ist das Thema damit durch. Tut mit leid, dass ich vorhin etwas aufbrausend war. Da sind die Pferde mit mit durchgegangen :D
 
Der hauptsächliche Denkfehler dabei ist anzunehmen dass Schärfentiefe eine physikalisch dem Objektiv anhaftende und dort quasi unabänderlich "eingefrorene" Eigenschaft sei.

Es hilft, das ganze von der anderen Seite zu betrachten:
Scharf ist das, was der durchschnittlich sehstarke Betrachter bei üblichem, auf die Ausgabegröße abgestimmten Betrachtungsabstand noch eben als scharf empfindet, d.h. keine Unschärfe erkennen kann.
Ein gewisser Bereich vor und hinter der Fokusebene wird eben noch als "akzeptabel scharf" empfunden - das ist die Schärfentiefe.
Will man nun die Schärfentiefe von 2 Bildern die von unterschiedlichen Sensorgrößen stammen vergleichen, ist es natürlich Grundvoraussetzung dass beide in gleicher Ausgabegröße vorliegen - alle anderen Vergleiche wären sinnlos und würden zu falschen Schlussfolgerungen führen. Alles weitere ergibt sich daraus.

PS:
Wenn die Schärfentiefe vom Sensorformat unabhängig wäre, würden ja alle DOF-Rechner falsch rechnen - oder?
 
Sie sind verschieden stark vergrößert, um eben als Ergebnis (auf deinem Bildschirm) dann gleich groß zu sein; das ist etwas anderes.

Was meinst du zu Posting Nr. 55?

Wie kommst Du da drauf, wo steht das es verschiedenen Vergrößerungen wären? Ich lese nur generell in der Überschrift: Crops are 100%.
 

Anhänge

Zuletzt bearbeitet:
Wie kommst Du da drauf, wo steht das es verschiedenen Vergrößerungen wären? Ich lese nur generell in der Überschrift: Crops are 100%.
Ja - und das bedeutet nur: 1 Pixel der Bilddatei = 1 Pixel auf dem Bildschirm. Das hat mit dem Vergrößerungsfaktor nichts zu tun.
Vergrößerungsfaktor = Breite der Darstellung des gesamten Bildes auf dem Bildschirm (oder Ausdruck, ...) dividiert durch Breite des Aufnahmesensors; und um genau diesen Faktor ist dann vergrößert worden.

Die Ausschnitte sind natürlich gleich groß, aber eben mit verschiedenen Vergrößerungsfaktoren vergrößert um eben genau das zu erreichen: gleiche Größe. Die Ausgangsgröße ist nämlich verschieden - einmal 24 x 36 mm und einmal 16 x 24 mm. Benötigt, um in gleicher Größe dargestellt zu werden, logischerweise verschiedene Vergrößerungsfaktoren.

Vergrößerungsfaktor ungleich Größe der Darstellung!

Wie ich darauf komme habe ich erklärt, u.a. hier und in Posting Nr. 55. ;)

Woran hakt es denn, bzw. wie soll ich es anders erklären?
 
Du bist ja wirklich eine harte Nuß:D

Drehen wir es mal andersherum: die maximale Bildgröße, welche der Kamerhersteller angibt (300 dpi) müßte sich, wenn es so wäre wie Du sagst unterscheiden, je nachdem ob zB. 24 MP aus FX oder DX kommen.

Dem ist nicht so. Nikon gibt für die D7100 bei 6000x4000 Pixeln eine maximale Bildgröße von 50,8x33,9 cm an.

Und für die D600 bei 6016x4016 Pixeln eine maximale Bildgröße von 50,9x34 cm an.

Wenn der Vergrößerungsfaktor relevant wäre, dann könnte das bei gleichen Anforderungen an die Qualität nicht sein.
 
Drehen wir es mal andersherum: die maximale Bildgröße, welche der Kamerhersteller angibt (300 dpi) müßte sich, wenn es so wäre wie Du sagst unterscheiden, je nachdem ob zB. 24 MP aus FX oder DX kommen.
Warum sollte sich die Bildgröße denn unterscheiden? Und auf Grund von welcher meiner Aussagen?

Du vermischst hier einige Sachen die nicht zusammengehören.

Die Anzahl der dpi bezieht sich nur auf das Ausgabeformat, nicht auf den Sensor. Wenn du das Bild 50,8 cm groß ausdruckst, hast du 6000 / (50,8 / 2,54) = 300 dpi, bei 20 cm 6000 / (20 /2,54) = 762 dpi usw. Die dpi-Angabe hat mit dem Größenverhältnis Ausgabeformat : Sensorgröße gar nichts zu tun. Klarerweise kommen bei dieser Berechnung bei gleich vielen Megapixel und gleicher dpi-Angabe auch gleiche Bildgrößen heraus.
"Die maximale Bildgröße welcher der Kamerahersteller angibt" ist nur von MP-Anzahl und beliebiger Bildgröße abhängig, ist eine einfache Division - siehe oben. ;)

Unterschiedliche Vergrößerungsfaktoren bei gleicher Bildgröße ausgehend von KB vs. APS-C sind eine andere Geschichte (siehe Posting #55).
 
Stattdessen könntest Du ein bisschen Schulwissen anwenden und aus Strahlensatz und Linsengleichung die Zusammenhänge herleiten. Ist aber offenbar weit jenseits des Horizonts für ganz viele hier.
Gruß, Matthias

Unangebrachte Polemik ohne Absicht etwas Erhellendes beizutragen!

"Das Bild auf dem Sensor muss bei sinkender Sensorgröße für das gleiche Endformat stärker vergrößert werden. Dabei werden auch die Unschärfen vergrößert und deutlicher sichtbar. "
Das gilt für Filmformate uneingeschränkt und für Sensoren nur, wenn sie die gleiche Pixeldichte haben.

PS:
Wenn die Schärfentiefe vom Sensorformat unabhängig wäre, würden ja alle DOF-Rechner falsch rechnen - oder?
Sie rechnen falsch, glaub´ mir das.
Allen Berechnungen der Tiefenschärfe liegt der zulässige Zerstreuungskreis zu Grunde, der sich zwar am Auflösungsvermögen des Auges orientiert aber doch willkürlich festgelegt ist. Allgemein gilt 1/1500 der Bildschirmdiagonale, wodurch gleichzeitig auch die Abhängigkeit der Tiefenschärfe von der Filmgröße festgelegt wurde.
Aber: Für hohe Ansprüche kann der zulässige Zerstreuungskreis kleiner definiert werden, z.B. 1/3000 der Bilddiagonale. So, jetzt hast du bei identen Einstellungen plötzlich völlig unterschiedliche Ergebnisse in der Berechnung der Tiefenschärfe.
 
Das gilt für Filmformate uneingeschränkt und für Sensoren nur, wenn sie die gleiche Pixeldichte haben..
Der zitierte Satz von Diamantenkönig gilt auch bei nicht gleicher Pixeldichte.


Sie rechnen falsch, glaub´ mir das.
Allen Berechnungen der Tiefenschärfe liegt der zulässige Zerstreuungskreis zu Grunde, der sich zwar am Auflösungsvermögen des Auges orientiert aber doch willkürlich festgelegt ist. [...]
Warum rechnen sie (Anm.: in Bezug auf Abhängigkeit von der Sensorgröße, darum ging es in der Diskussion) falsch?
Auch wenn ich die allgemeine Konvention des zulässigen Zerstreungskreises von 1/1500 der Bilddiagonale (= 1/1500 der Sensordiagonale) auf 1/3000 oder irgendeinen anderen individuellen Bruchteil ändere, bleibt doch die Abhängigkeit von der Sensorgröße bestehen?
 
Unangebrachte Polemik ohne Absicht etwas Erhellendes beizutragen!

Richtig! Angesichts des beeindruckenden Unsinns, der hier verbreitet wird, finde ich meinen alten Artikel zum Thema namens "Schärfentiefe (Formeln und Anleitung)" vollkommen ausreichend. Den Link findet Ihr selber, am Handy sind Links schwierig.


Gruß, Matthias
 
Warum rechnen sie (Anm.: in Bezug auf Abhängigkeit von der Sensorgröße, darum ging es in der Diskussion) falsch?
Auch wenn ich die allgemeine Konvention des zulässigen Zerstreungskreises von 1/1500 der Bilddiagonale (= 1/1500 der Sensordiagonale) auf 1/3000 oder irgendeinen anderen individuellen Bruchteil ändere, bleibt doch die Abhängigkeit von der Sensorgröße bestehen?

Ja ganz genau, es gibt eine mathematische Abhängigkeit. Du kannst die Hyperfokaldistanz nicht berechnen, wenn du nicht irgendeinen Zerstreuungskreisdurchmesser einsetzst. Den kann man als 1/xxxx der Bilddiagonale definieren, womit die Abhägigkeit von der Bildgröße da ist.

Aber wie ist das in der Praxis?
Schau noch einmal das Beispiel an, wo du mir unterstellt hast, dass ich den Strahlensatz nicht kenne.
Ich habe an der D800 nur das Bildfeld von FX auf DX umgestellt, alle anderen Parameter gleich gelassen. Die Ergebnisse punkto Tiefenschärfe sind völlig ident, das sieht man sehr schön. Aber rechnerisch bekomme ich verschiedene Ergebnisse, weil sich die Bildgröße ändert.

Daher bin ich überzeugt, dass die Formeln, die wahrscheinlich 150 Jahre alt sind, nicht 1:1 auf die digitale Fotografie übertragbar sind.
Und zwar weil die Sensorgröße nicht mehr der alleinige Faktor für die Vergrößerbarkeit von Bildern verantwortlich ist, wie das beim Film sehr wohl der Fall war.
Es kommt nämlich die Pixelanzahl dazu. Es gibt nämlich große Sensoren mit wenig Pixeln und kleine mit viel Pixeln und umgekehrt und damit ist die Linearität beim Teufel.
Jetzt wissen wir aber, das sich Bilder mit vielen Pixeln zwar leichter vergrößern lassen, das aber noch nichts über die Qualität des Bildes aussagt, weil man sich mit einer hohen Pixeldichte andere Nachteile einhandelt.
Will man also in Zukunft weiter rechnen, wird man müssen, den erlaubten Zerstreuungskreis an die Pixeldichte koppeln und nicht an die Bildgröße.
Das sieht man auch sehr schön am Beispiel der D800. Verwendet man an der D800 Objektive, die nach einem "toleranteren" Zerstreuungskreis gerechnet sind, erhältst du an der D300, die eine geringere Pixeldichte und einen kleineren Sensor hat bessere Ergebnisse als auf der FX D800, obwohl es eigentlich umgekehrt sein müsste. (natürlich auf Pixelebene betrachtet!)
Gut Licht nach Hamburg!
 
Verwendet man an der D800 Objektive, die nach einem "toleranteren" Zerstreuungskreis gerechnet sind, erhältst du an der D300, die eine geringere Pixeldichte und einen kleineren Sensor hat bessere Ergebnisse als auf der FX D800, obwohl es eigentlich umgekehrt sein müsste. (natürlich auf Pixelebene betrachtet!)
Welchen Sinn hat in diesem Fall die Betrachtung auf Pixelebene?
 
[...] wenn du nicht irgendeinen Zerstreuungskreisdurchmesser einsetzst. Den kann man als 1/xxxx der Bilddiagonale definieren, womit die Abhägigkeit von der Bildgröße da ist.
Gut, darüber sind wir uns einig.

Aber wie ist das in der Praxis?
Schau noch einmal das Beispiel an, wo du mir unterstellt hast, dass ich den Strahlensatz nicht kenne.
Das war nicht ich; und bin auch nicht in Hamburg, sondern eher im Süden zu Hause... :)

Ich habe an der D800 nur das Bildfeld von FX auf DX umgestellt, alle anderen Parameter gleich gelassen. Die Ergebnisse punkto Tiefenschärfe sind völlig ident, das sieht man sehr schön. Aber rechnerisch bekomme ich verschiedene Ergebnisse, weil sich die Bildgröße ändert.
Und auch praktisch könnte man den Schärfentiefeunterschied beobachten, wenn die beiden Bilder nebeneinander in gleicher Ausgabegröße vorlägen. In deinem Beispiel aus #56 ist das DX-Bild aber deutlich kleiner dargestellt, der grüne dazugefügte Rand macht das eigentliche Bild auch nicht größer!

Daher bin ich überzeugt, dass die Formeln, die wahrscheinlich 150 Jahre alt sind, nicht 1:1 auf die digitale Fotografie übertragbar sind.
Und zwar weil die Sensorgröße nicht mehr der alleinige Faktor für die Vergrößerbarkeit von Bildern verantwortlich ist, wie das beim Film sehr wohl der Fall war.
Die Formeln, sowie zB auch auf dem Objektiv eingravierte Skalen (die übrigens nur für das Aufnahmeformat gelten für das das Objektiv ursprünglich gedacht war - meistens Kleinbild!) sind standardisierte Werte, basierend darauf welche ein normalsichtiger Betrachter bei üblichem Betrachtungsabstand noch als scharf erkennen würde.
Selbstverständlich steht es einem heutigen Digitalfotografen frei andere Annahmen zu Grunde zu legen:
Jemand der nur 10 x 15-Bilder ausdruckt wird mit einem Zerstreuungskreis von vielleicht 1/500 das Auslangen finden, wer nur als 1024x768-Pixel-jpg abspeichert mit zB 1/1000, und wer 24+MP und Spitzenobjektive zur Verfügung hat etwa die erwähnten 1/3000.

Übrigens ist das so neu nicht: auch zu Filmzeiten war die Negativgröße nicht allein für die Vergrößerbarkeit ausschlaggebend - es gab schärfere/feinkörnigere Filme und weniger feinkörnigere, genauso wie es heute Sensoren mit höherer Pixelzahl/-dichte gibt wie solche mit weniger. Eigentlich alles beim alten...

(natürlich auf Pixelebene betrachtet!
Und ich betrachte es eher auf Bildebene, womit ich jedenfalls mir leichter tue die Zusammenhänge zu sehen.

Ebenfalls Gut Licht!
 
WERBUNG
Zurück
Oben Unten