• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtausbeute VF vs. Crop

Wie bitte? Beugungsunschärfe ist bei kleinen Senbsoren deshalb stärker, weil das Bild stärker vergrößert werden muss, um das gleiche Ausgabeformat zu erreichen. Die Pixeldichte/-zahl ist vollkommen wurscht, solange sie für die Ausgabegröße ausreichend ist. Nicht vergessen: Gleiche Ausgabegröße, gleicher Betrachtungsabstand, sonst gibt's nichts sinnvolles zu vergleichen.


Gruß, Matthias

Aha. Dann überleg mal, was passiert, wenn die Beugungskreise auf große Pixel fallen, und was passiert, wenn sie auf kleine Fallen. Tipp: Im einen Fall ist es egal. Auch beim Vergrößern. Im anderen nicht.
 
Aha. Dann überleg mal, was passiert, wenn die Beugungskreise auf große Pixel fallen, und was passiert, wenn sie auf kleine Fallen. Tipp: Im einen Fall ist es egal. Auch beim Vergrößern. Im anderen nicht.

Lesen und verstehen...

Wie bitte? Beugungsunschärfe ist bei kleinen Senbsoren deshalb stärker, weil das Bild stärker vergrößert werden muss, um das gleiche Ausgabeformat zu erreichen. Die Pixeldichte/-zahl ist vollkommen wurscht, solange sie für die Ausgabegröße ausreichend ist. Nicht vergessen: Gleiche Ausgabegröße, gleicher Betrachtungsabstand, sonst gibt's nichts sinnvolles zu vergleichen.

Bei gleicher Ausgabegröße ist übrigens ein Sensor mit höherer Pixeldichte (bei gleicher Größe) geringfügig weniger empfindlich für Beugungsunschärfe.



Gruß, Matthias
 
Lesen und verstehen...



Bei gleicher Ausgabegröße ist übrigens ein Sensor mit höherer Pixeldichte (bei gleicher Größe) geringfügig weniger empfindlich für Beugungsunschärfe.



Gruß, Matthias

Meine güte, wo hast Du nur diesen Unsinn her? Hast Du mal Seiten wo ich unwissender mich schlaulesen kann? Die Beugung ist sogar als auflösungsbegrenzender Faktor definiert.
 
Meine güte, wo hast Du nur diesen Unsinn her? Hast Du mal Seiten wo ich unwissender mich schlaulesen kann?

Ein bisschen Optik, Geometrie, ein paar Energiebetrachtungen, Statistik, das hattest Du bestimmt alles in der Schule. Aber man vergisst ja so schnell, nicht? :rolleyes:

Die Beugung ist sogar als auflösungsbegrenzender Faktor definiert.

Und was hat das mit Pixeln zu tun?



Gruß, Matthias
 
Ein beispielsweise 300mm Objektiv wird an Crop 2x halt zum 600er bei gleicher Lichtstärke. Die Kosten für ein 600er am Kleinbild steigen sehr stark.
*Seufz*
Wenn Du schon die Brennweiten aequivalent stellst, dann mache das bitte im gleichen Atemzug auch mit der Blende. Und dann wirst Du merken, dass man mit crop 2x exakt 2 Blenden verliert. Um das auszugleichen brauchst Du also am crop ein um 2 Blenden lichtstaerkeres Objektiv. Was sowas mehr kosten wuerde (so es ueberhaupt moeglich ist) kannst Du selber ausrechnen. Achtung, der Taschenrechner braucht eine Anzeige mit vielen Stellen. ;)


Chris
 
Ein bisschen Optik, Geometrie, ein paar Energiebetrachtungen, Statistik, das hattest Du bestimmt alles in der Schule. Aber man vergisst ja so schnell, nicht? :rolleyes:



Und was hat das mit Pixeln zu tun?



Gruß, Matthias

Es gibt da so ein paar tolle Regeln bei die man beim Zusammenspiel zwischen Optik (v.a. der Blende) und der dahinter liegenden Sensormatrix beachten sollte. Eine wichtige Faustregel dabei ist z.B. das die Beugungsscheiben nicht größer werden sollten, als der Abstand zwischen zwei benachbarten Sensorelementen (aka Pixeln).
Auch das kann man sich mit der üblichen Schulbildung so zusammenreimen. Die konkrete Erklärung erfordert aber das, was auf die allgemein bildenden Schulen folgt. Wenn man dann auch noch einen passend spezialisierten Job hat, ist das sogar noch besser.
Wenn Du keine Lust hast Dir das selbst herzuleiten, gibt es im Netz auch gute Vergleiche darüber, ab welcher Blende die Beugung bei verschiedenen Kameras der limitierende Faktor wird.
 
Es gibt da so ein paar tolle Regeln....

...und die berücksichtigen wie genau die hiesige Grundannahme "gleiche Ausgabegröße, gleicher Betrachtungsabstand"? Gar nicht, oder? Merke: "Pixeldenken" führt fast immer zu völlig falschen Schlussfolgerungen. So auch hier.



Mahlzeit, Matthias
 
...und die berücksichtigen wie genau die hiesige Grundannahme "gleiche Ausgabegröße, gleicher Betrachtungsabstand"? Gar nicht, oder? Merke: "Pixeldenken" führt fast immer zu völlig falschen Schlussfolgerungen. So auch hier.



Mahlzeit, Matthias

Ich stelle Dir mal eine einfache Frage: Wieso sieht ein 1,6x Crop einer 5D Mark II so viel besser aus als das, was aus einer 50D kommt (Der Crop zeigt den gleichen Ausschnitt, selbes Objektiv mit selben Einstellungen und gleiches Ausgabeformat)?
 
Ich stelle Dir mal eine einfache Frage: Wieso sieht ein 1,6x Crop einer 5D Mark II so viel besser aus als das, was aus einer 50D kommt (Der Crop zeigt den gleichen Ausschnitt, selbes Objektiv mit selben Einstellungen und gleiches Ausgabeformat)?

(und bevor zum x-ten Mal der Einwand kommt: beim Vergleich von Sensoren von ähnlichem Entwicklungsstand).



Gruß, Matthias
 
Moin tachyon,

Eine wichtige Faustregel dabei ist z.B. das die Beugungsscheiben nicht größer werden sollten, als der Abstand zwischen zwei benachbarten Sensorelementen (aka Pixeln).

ich traue mich ja kaum, mich in diese Diskussion einzumischen. Aber ich hätte da doch einmal eine ganz einfache und sachliche Nachfrage: Verstehe ich dich richtig, dass gemäß dieser Regel der maximale Zerstreungskreisdurchmesser nicht größer sein sollte als die Pixelgröße (bei einer Canon EOS 7D beispielsweise demzufolge 4,3µm)? Oder ist mit dem Abstand zwischen zwei Sensorelementen etwas anderes gemeint?


Sorry, unsinnige Frage – aber das habe ich eben erst auf dem Klo gemerkt... Es geht ja um Beugung, nix mit Zerstreuungskreisen.
 
Zuletzt bearbeitet:
Der Punkt ist eben, dass große Pixel schneller Ladung sammeln können, und man dadurch weniger verstärken muss. Man hat zwar häufig eine Korrelation von KB-Sensoren und großen Pixeln, aber einen entsprechenden kausalen Zusammenhang hat man dadurch noch lange nicht. Gerade der ist aber wichtig, wenn man die Lichtausbeute als Argument anführen will. ;)
Die Pixelgröße ist nicht wichtig. Daher auch nicht der Zusammenhang zwischen Sensor- und Pixelgröße. Die Summe über alle Pixelgrößen = Sensorfläche ist wichtig.

Nein, erklärt wurde bis jetzt nur wenig. Es wurden nur Aussagen getroffen.
Lies doch weiter vorne im Thread mal die Diskussion mit "-rabu-" durch. Da habe (unter anderem) ich eine Menge erklärt.
Das Problem ist, dass man in "Pixeln" bei der Wiedergabe denken muss - im Zweifelsfall also "Augenpixel", wenn die Auflösung durch nichts anderes (Sensor, Wiedergabemedium etc.) limitiert ist. Da werden dann spätestens sowieso die Sensorpixel gemittelt.

Und das Photonenrauschen ist ebenfalls ein Effekt der auf Pixelebene stattfindet. Wie soll es auch anders sein?
Zunächst mal ja. Aber dann werden immer mehrere Sensorpixel gemittelt. Spätestens bei der Betrachtung im Auge - meistens lange vorher bei der Wiedergabe. Lies dir doch mal diese beiden Posts von mir durch.

Man liest ja nicht die Gesamtladung der Sensorfläche aus.
Nein, aber man mittelt am Ende (wie gesagt, spätestens im Auge des Betrachters) immer über mehrere Pixel, d.h. man liest quasi deren Gesamtladung aus. Und wenn es mehr kleinere Pixel sind und weniger größere, ist das Ergebnis trotzdem gleich.

Genau. Wenn Du alles zusammenschüttest hast Du recht. Was kommt wohl bei dabei raus, wenn Du bei einem digitalen Bild alles zusammenschüttest?
Wie gesagt: Du schüttest nicht alles zusammen, aber zwangsläufig immer ein paar Pixel. Andernfalls würdest du bei der Betrachtung einzelne Pixel erkennen. Dann wird die Pxielzahl relevant, weil sie nämlich zu klein ist.

Es gibt da so ein paar tolle Regeln bei die man beim Zusammenspiel zwischen Optik (v.a. der Blende) und der dahinter liegenden Sensormatrix beachten sollte. Eine wichtige Faustregel dabei ist z.B. das die Beugungsscheiben nicht größer werden sollten, als der Abstand zwischen zwei benachbarten Sensorelementen (aka Pixeln).
Sowas hat "-rabu-" ja später auch noch zitiert. Solche Regeln gibt es. In erster Näherung ist die Überlegung ja nicht falsch: Wenn ich mit der Größe der Scheibe grundsätzlich unter einer Sensorpixel bleibe, bin ich jedenfalls sicher, dass die Beugung (oder sonstwie entstandene Unschärfe, das ist hierfür ja egal) keine Auswirkung haben kann. Wenn ich diesen Pixel jetzt aber in vier einzelne aufteile (und sich die Beugungsscheibe daher über aller vier erstreckt) und hinterher diese vier bei der Betrachtung wieder zusammenwerfe, habe ich nichts verloren.
 
Moin tachyon,



ich traue mich ja kaum, mich in diese Diskussion einzumischen. Aber ich hätte da doch einmal eine ganz einfache und sachliche Nachfrage: Verstehe ich dich richtig, dass gemäß dieser Regel der maximale Zerstreungskreisdurchmesser nicht größer sein sollte als die Pixelgröße (bei einer Canon EOS 7D beispielsweise demzufolge 4,3µm)? Oder ist mit dem Abstand zwischen zwei Sensorelementen etwas anderes gemeint?
Ja, Du hast das richtig verstanden.
 
Sowas hat "-rabu-" ja später auch noch zitiert. Solche Regeln gibt es. In erster Näherung ist die Überlegung ja nicht falsch: Wenn ich mit der Größe der Scheibe grundsätzlich unter einer Sensorpixel bleibe, bin ich jedenfalls sicher, dass die Beugung (oder sonstwie entstandene Unschärfe, das ist hierfür ja egal) keine Auswirkung haben kann. Wenn ich diesen Pixel jetzt aber in vier einzelne aufteile (und sich die Beugungsscheibe daher über aller vier erstreckt) und hinterher diese vier bei der Betrachtung wieder zusammenwerfe, habe ich nichts verloren.

Selbst das ist nicht richtig. Stell Dir doch einfach statt eines durch Beugung vergrößerten Punkts eine Linie vor, die quer über mehrere Pixel reicht. Im Mittel (und nur um den Mittelwert geht es) wird die Linie dadurch breiter. Und dieser Effekt wird um so kleiner, je kleiner die Pixel sind. Bei gleicher Ausgabegröße, wohlgemerkt.



Gruß, Matthias
 
Ich stelle Dir mal eine einfache Frage: Wieso sieht ein 1,6x Crop einer 5D Mark II so viel besser aus als das, was aus einer 50D kommt (Der Crop zeigt den gleichen Ausschnitt, selbes Objektiv mit selben Einstellungen und gleiches Ausgabeformat)?
Das tut er nicht. Ich habe schon mal genau diesen Vergleich angestellt und einen Crop aus der 6D mit dem Bild der 40D verglichen (das kommt auch auflösungsmäßig recht gut hin). Ergebnis: Kein Unterschied.

Verstehe ich dich richtig, dass gemäß dieser Regel der maximale Zerstreungskreisdurchmesser nicht größer sein sollte als die Pixelgröße (bei einer Canon EOS 7D beispielsweise demzufolge 4,3µm)? Oder ist mit dem Abstand zwischen zwei Sensorelementen etwas anderes gemeint?
Laut dieser Fausregel ist das richtig. Die gilt aber eben nur eingeschränkt (siehe unten).

Sorry, unsinnige Frage – aber das habe ich eben erst auf dem Klo gemerkt... Es geht ja um Beugung, nix mit Zerstreuungskreisen.
Nö, das passt schon. Die Frage ist generell, welche Größe von Unschärfekreisen tolerabel ist. Wie die Unschärfe entsteht, ist dafür ja egal.

Der Punkt ist nur: Damit kann ich ausrechnen, ab wann die Unschärfe so klein ist, dass sie nicht mehr der begrenzende Faktor ist, da diesen "Job" jetzt der Sensor übernimmt, der dann nicht mehr mehr kann. Wenn man mit der Ausgabe und der Betrachtung aber nicht zufällig haarscharf an die Sensorauflösung rankommt, ist diese Frage aber wiederum wenig relevant. Die Ausgabe und Betrachtung begrenzt die sichtbare Auflösung. Ob man, wenn es diese Grenze nicht gäbe oder man sie durch Detailvergrößerungen herausschieben würde, als nächstes an die Begrenzung des Sensors oder des Objektivs oder sonstiger Unschärfequelle stoßen würde, ist dafür erst mal nicht wichtig.
 
Selbst das ist nicht richtig. Stell Dir doch einfach statt eines durch Beugung vergrößerten Punkts eine Linie vor, die quer über mehrere Pixel reicht. Im Mittel (und nur um den Mittelwert geht es) wird die Linie dadurch breiter. Und dieser Effekt wird um so kleiner, je kleiner die Pixel sind. Bei gleicher Ausgabegröße, wohlgemerkt.
Stimmt schon, macht es aber noch komplizierter.
 
Und was hat das mit Pixeln zu tun?

Es ist völlig egal, ob du die Beugung über die Pixelgrösse oder über die Bilddiagonale/× definierst. Es geht hier nur um die Definition eines Toleranzwertes.

Die Physik sagt uns bloß dass es Beugung immer gibt. Also auch ein Foto mit einem 0,95/50mm ist beugungsbehaftet. Damit ist die Physik fertig mit den Aussagen. Dann kommen die mathematikbegabten Psychoheinis unter uns und erklären uns die Gültigkeit eines Grenzwertes. Damit hat die Physik allerdings nichts am Hut, weil dass kein physikalisches Phänomen ist....

epitox
 
Stimmt schon, macht es aber noch komplizierter.

Nee, ich finde es so sogar deutlich einfacher, weil es von der unseligen Pixeldenkerei wegführt, die ja ohnhin nur zu abstrusesten Schlussfolgerungen führt. Es gibt eben eine ganze Reihe von Unschärfeeinflüssen auf das fertige Bild, alle gleichzeitig, und die "addieren" sich irgendwie. Das wären u.a. Beugung, Abbildungsfehler des Objektivs, minimale Verwacklung/Bewegung (zuviel davon gibt sichtbare Striche) und eben "Pixelunschärfe". In Wirklichkeit ist das Zusammenspiel all dieser Anteile viel komplizierter, aber für eine grobe Abschätzung könnte man einfach die effektiven Flächen dieser "Unschärfekleckse" addieren (das entspräche der Idee der Standardabweichung aus der Statistik), um auf die Gesamtunschärfe zu kommen. Ganz "analog" und ohne Pixeldenkerei.



Gruß, Matthias
 
Aha. Dann überleg mal, was passiert, wenn Beugungskreise auf große Pixel fallen, und was passiert, wenn sie auf kleine Fallen. Tipp: Im einen Fall ist es egal. Auch beim Vergrößern. Im anderen nicht.

Hier stimme ich dir zu. Es ist durchaus so das z. B bei einem 24mp Aps C Sensor bei F8.0 die Auflösung höher ist als am 8Mp Aps C, dennoch wirken beim erstgenannten die Beugungseinflüsse auflösungsmindernd, während das 8Mp Modell in diesem Fall frei von Beugungsverlusten bleibt was zur Folge hat die
, das die förderlichen Blenden eine deutliche Spreizung erfahren
 
Ist die Grundvoraussetzung "gleiche Ausgabegröße, gleicher Betrachtungsabstand" wirklich geometrisch so undurchschaubar? :confused:
 
WERBUNG
Zurück
Oben Unten