• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hochgeöffnete Optiken limitiert durch Mikrolinsen?

... Allerdings ist das auch abhängig von der jeweiligen Objektivkonstruktion - wenn die Optik bildseitig mit nem ~ telezentrischen Strahlengang glänzt, kann sie ihre Vorteile voll ausspielen.

Kann man das so verstehen, dass Olympus mit der Überlegung, telezentrisch gerechneter Objektive doch richtig liegt? Alle anderen haben ja immer verneint, dass das relevant wäre und eher die Microlinsen entsprechend ausgerichtet und das Problem so gelöst.

Ich muss gestehen, ich habe zwar schon verstanden, worum es hier geht und welche praktischen Auswirkungen das hat, aber mit dem _Warum_ bin ich noch nicht ganz fertig...

Dass eine Abdunklung - resp. nicht komplette Nutzung des Lichts - passiert kann ich mir ja noch irgendwie vorstellen. Nicht vorstellen kann ich mir aber, warum auch die Schärfentiefe größer ist. Das Bild wird auf den Sensor projiziert und ist ab einem gewissen Punkt scharf und wird ab einem gewissen Punkt unscharf. Das kann ja nichts davon beeinflusst werden, ob das Bild durch irgendwelche Probleme bei der Ausnützung der ankommenden Lichthelligkeit abgedunkelt wird. Diese Logik verstehe ich nicht.
 
Zuletzt bearbeitet:
Nicht vorstellen kann ich mir aber, warum auch die Schärfentiefe größer ist. Das Bild wird auf den Sensor projiziert und ist ab einem gewissen Punkt scharf und wird ab einem gewissen Punkt unscharf. Das kann ja nichts davon beeinflusst werden, ob das Bild durch irgendwelche Probleme bei der Ausnützung der ankommenden Lichthelligkeit abgedunkelt wird. Diese Logik verstehe ich nicht.
Siebe oben :), ich versuch es nochmal mit einer besseren (?) Formulierung/Erklärung:

Unschärfe bedeutet, dass jeder Punkt des Motives nicht als Punkt auf der Bildebene (Sensor) abgebildet wird, sondern als mehr oder weniger großer Zerstreuungskreis. Die Schärfentiefe ergibt sich daraus, ab welchem Abstand der Motivpunkte von der Schärfeebene (nach vorne + nach hinten) die Zerstreuungskreise merkbar zu groß werden.

Und weil die Zerstreuungskreise durch den beschriebenen Effekt nicht gleichmäßig abgedunkelt werden, sondern außen (schräge Lichtstrahlen) mehr als innen (gerade Lichtstrahlen), erscheinen sie dem Sensor kleiner als sie in Wirklichkeit sind => die effektive Schärfentiefe wird größer.

Ich hoffe, das war einigermaßen verständlich? :o
 
Und weil die Zerstreuungskreise durch den beschriebenen Effekt nicht gleichmäßig abgedunkelt werden, sondern außen (schräge Lichtstrahlen) mehr als innen (gerade Lichtstrahlen), erscheinen sie dem Sensor kleiner als sie in Wirklichkeit sind => die effektive Schärfentiefe wird größer.

Vielen Dank, ich verstehe es noch immer nicht, weil: Die Lichtinformation, die auf die Fläche eines Pixels kommen haben eine bestimmte Helligkeit. Dieser Pixel ist die kleinste Größe in der das Bild aufgelöst werden kann. Wenn das nun schräg angestrahlt wird - verstehe ich - wird der Pixel dunkler beleuchtet. Aber deswegen ist der Pixel als solcher weder größer noch kleiner geworden. Ein einzelner Pixel ergibt ja keine Schärfe oder Unschärfe, sondern nur der Vergleich mit den Nachbarpixeln ergibt dann die Schärfe oder Unschärfe. Ich glaube nicht, dass der Lichtabfall zwischen zwei oder drei nebeneinander liegenden Pixeln derartig dramatisch ist, dass das bereits eine Veränderung des Bildinhalts bedeutet.

Das auf den Sensor projizierte Bild verschiebt sich nicht und verändert sich nicht. Das, was für den betreffenden Pixel gedacht ist, fällt auf diesen. Weil es ungünstig fällt, ist das Licht schwacher. Die Bildinformation als solche ist aber unverändert.

Also: Dadurch, dass das Licht auf den einen Pixel nur abgeschattet ankommt - und dadurch dunkler -, ändert sich aber nicht der Informationsgehalt, der für den einen Pixel bestimmt ist. Ein Pixel allein ist ja immer nur ein Tonwert und nie auch eine Struktur, der kann also nicht schärfer oder unschärfer werden. Das ergibt sich erst im Zusammenwirken mit anderen Pixeln.

Deswegen verstehe ich das nicht.
 
Vielen Dank, ich verstehe es noch immer nicht, weil: Die Lichtinformation, die auf die Fläche eines Pixels kommen haben eine bestimmte Helligkeit. Dieser Pixel ist die kleinste Größe in der das Bild aufgelöst werden kann. Wenn das nun schräg angestrahlt wird - verstehe ich - wird der Pixel dunkler beleuchtet. Aber deswegen ist der Pixel als solcher weder größer noch kleiner geworden.

Ja, aber Schärfentiefe hat absolut nichts mit der Größe der Pixel zu tun.


Gruß, Matthias
 
Ich glaube nicht, dass der Lichtabfall zwischen zwei oder drei nebeneinander liegenden Pixeln derartig dramatisch ist, dass das bereits eine Veränderung des Bildinhalts bedeutet.
Ok, ich glaube, hier Deinen Denkfehler gefunden zu haben ;)

Der Effekt bewirkt, dass der Lichtabfall schon bei einem einzigen Pixel dramatisch (1 EV) ist. Also wird ein Motivpunkt, der exakt in der Schärfeebene liegt, beispielsweise auf diesen einen Pixel auch zu dunkel, aber eben scharf, abgebildet.

Nehmen wir jetzt mal an, der Motivpunkt ist nicht genau in der Schärfeebene, so das der Zerstreuungskreis einen Durchmesser von 5 Pixeln bekommt. Was passiert bezogen auf diesen einen Motivpunkt? Der mittlere Pixel wird von geraden Lichtstrahlen getroffen, also hell ausgeleuchtet, die äußeren von schrägen Lichtstrahlen, also relativ dunkel. Der Zerstreuungskreis ist rein optisch eigentlich 10 Pixel breit, aber auf dem digitalen Ergebnis ist er außen so abgeschwächt, dass er wie 7 oder 8 Pixel (jetzt mal nur eine Hausnummer) aussieht. Die Pixeldichte/größe ist dabei unerheblich - die Größe des Zerstreuungskreises schrumpft bezogen auf die Bildgröße.

Bitte nicht falsch verstehen, das ist wirklich nicht böse gemeint: Vielleicht gibt es bei Dir irgendwie eine kleine Fehleinschätzung, wie Unschärfe in der Bildebene entsteht? Evtl. hier nochmal nachlesen: http://de.wikipedia.org/wiki/Zerstreuungskreis. Aber vielleicht sind ja meine Erklärungsversuche auch zu konfus (was ich eigentlich eher vermute;)).

Ja, aber Schärfentiefe hat absolut nichts mit der Größe der Pixel zu tun.
Genau - ganz wichtiger Hinweis. Zumindest wenn man die Schärfentiefe über zulässige Größe der Zerstreuungskreise relativ zur Bildgröße definiert, wie man es auch üblicherweise macht (max. 1/1500 der Film- oder Sensordiagonalen).
 
Ja, aber Schärfentiefe hat absolut nichts mit der Größe der Pixel zu tun.

Jeder Einzelsensor - also Pixel - kann aber nur einen Helligkeitswert annehmen. Ob die Fläche des Einzelsensors nur teilweise beleuchtet wird oder zur Gänze ist egal. Ich glaube daher, dass die Schlussfolgerung von Lumnious Landscape falsch ist. Es ist übrigens auch dort nicht als überprüft sondern als Vermutung angeführt, die auch offenbar nicht von DXO kommt.

Bei höherer Auflösung es Gesamtsensors verändert sich die Schärfentiefe sich zwar nicht, ist aber feiner resp. überhaupt erst als Unterschied erkennbar. Die letzte feine Unschärfe kann der niedriger auflösende Sensor nicht mehr von optimaler Schärfe unterscheiden weil dann die Pixel dafür zu groß sind. Das hat aber damit jetzt nichts unmittelbar zu tun.
 
Genau - ganz wichtiger Hinweis. Zumindest wenn man die Schärfentiefe über zulässige Größe der Zerstreuungskreise relativ zur Bildgröße definiert, wie man es auch üblicherweise macht (max. 1/1500 der Film- oder Sensordiagonalen).

Im Grunde genommen ist es 1/1500 der Betrachtungsentfernung. Denk mal drüber nach. Ist hier aber auch nicht so wichtig. :)


Gruß, Matthias
 
Nehmen wir jetzt mal an, der Motivpunkt ist nicht genau in der Schärfeebene, so das der Zerstreuungskreis einen Durchmesser von 5 Pixeln bekommt. Was passiert bezogen auf diesen einen Motivpunkt? Der mittlere Pixel wird von geraden Lichtstrahlen getroffen, also hell ausgeleuchtet, die äußeren von schrägen Lichtstrahlen, also relativ dunkel. Der Zerstreuungskreis ist rein optisch eigentlich 10 Pixel breit, aber auf dem digitalen Ergebnis ist er außen so abgeschwächt, dass er wie 7 oder 8 Pixel (jetzt mal nur eine Hausnummer) aussieht. Die Pixeldichte/größe ist dabei unerheblich - die Größe des Zerstreuungskreises schrumpft bezogen auf die Bildgröße.

Danke, was Zerstreuungskreis und Schärfentiefe ist, weiß ich schon. So schlimm ist es auch wieder nicht ;-)

Na gut, ich werde noch einmal darüber nachdenken, jetzt bin ich wieder etwas unsicher, weil Ihr da alle so sicher seid. Dennoch ist mir nicht klar an welchem Punkt auf der Bildfläche ein Punkt direkt beleuchtet und die fünf daneben jeweils schräg. Das kann nur in der Mitte sein. In der Mitte sind sie bei jedem Objektiv direkt und zum Rand hin werden sie gleichmäßig zunehmend schräger. Bei einem mehr, beim anderen weniger, aber so abrupt von einem zum nächsten Pixel kann ich mir das momentan nicht vorstellen.
 
Danke, was Zerstreuungskreis und Schärfentiefe ist, weiß ich schon. So schlimm ist es auch wieder nicht ;-)
Wie gesagt, das dachte ich mir ja auch schon :):)

weil Ihr da alle so sicher seid.
Oh, sicher bin ich mir da noch lange nicht!!! :)

Rand hin werden sie gleichmäßig zunehmend schräger.
Ja, anderer böser Effekt, aber um den geht es hier erstmal nicht, sondern primär nur um die Pixel in der Bildmitte.

Bei einem mehr, beim anderen weniger, aber so abrupt von einem zum nächsten Pixel kann ich mir das momentan nicht vorstellen.
Nehmen wir mal an, dass die äußeren Lichtstrahlen im Winkel von 45 Grad einfallen (nur ne Hausnummer - man müsste nochmal rausfinden, was reelle Winkel bei hochlichtstarken Objektiven sind). Dann könnte das schon folgendermaßen aussehen (Zerstreuungskreis mit Radius 3 Pixel genau in der Bildmitte): Siehe Bild. Wenn der Effekt insgesamt eine Abdunklung von 1 EV verursacht, müssten die äußeren Pixel schon wesentlich mehr abgedunkelt sein, meinetwegen 2 EV, und das ist schon eine ganze Menge. Also sieht der Zerstreuungskreis auf dem Bild praktisch aus als hätte er einen Radius von 2 Pixeln oder so.
 
Zuletzt bearbeitet:
Nehmen wir mal an, dass die äußeren Lichtstrahlen im Winkel von 45 Grad einfallen (nur ne Hausnummer - man müsste nochmal rausfinden, was reelle Winkel bei hochlichtstarken Objektiven sind). Dann könnte das schon folgendermaßen aussehen (Zerstreuungskreis mit Radius 3 Pixel genau in der Bildmitte):

Öffnungswinkel:

f/2 -> 28°
f/1,4 -> 40°
f/1,2 -> 45°
f/1 -> 53°

Die äußeren Strahlen fallen jeweils unter dem 1/2 Winkel ein.

Das gilt aber nur nach einer ganz primitiven Daumenformel und nicht für telezentrische oder Retrofokus-Konstruktionen.


Gruß, Matthias
 
Dann könnte das schon folgendermaßen aussehen (Zerstreuungskreis mit Radius 3 Pixel genau in der Bildmitte):

Ja, die Winkel-Schritte von einem zum nächsten Pixel sind aber bei einem Sensor mit einer Diagonale von beispielsweise 5000 Einzelsensoren extrem minimal. Auch in der Mitte.
 
Ja, die Winkel-Schritte von einem zum nächsten Pixel sind aber bei einem Sensor mit einer Diagonale von beispielsweise 5000 Einzelsensoren extrem minimal. Auch in der Mitte.
Jaaa... aber es geht ja auch nicht um den Unterschied von Pixel zu Pixel sondern vom mittleren Pixel des Zerstreuungskreises zu den äußeren Pixeln des Zerstreuungskreises! Die Pixeldichte ist erstmal völlig egal (abgesehen davon, wie sie konstruktionsbedingt die Stärke des Effekts beeinflusst).
 
Also sieht der Zerstreuungskreis auf dem Bild praktisch aus als hätte er einen Radius von 2 Pixeln oder so.

Meinst Du das so, dass durch den schrägen Lichteinfall, das Licht für einen Pixel über zwei Pixel streift? Dann wäre aber der Zerstreuungskreis größer und damit die Schärfentiefe kleiner und nicht größer. Dann wäre auch das Bild insgesamt ganz schön stark verzerrt.

Ich will die Diskussion nicht an dem Punkt anhalten. Ich werde mich anderweitig schlau machen. Vielen Dank für die Mühe! Ich stehe einfach momentan komplett auf der Leitung und da hat das leider keinen Sinn. Ich werde in mich gehen.

@starscapefan: Ich verstehe nicht, wieso der Bereich der Mitte eines Zerstreuungskreises in einem ganz anderen Winkel auftreffen soll wie der Rest des Zerstreuungskreises. Das ist ja eine Projektion, die ja unabhängig vom Inhalt in einem nach außen hin flacher werdenden Winkel auf den Sensor auftrifft. Das kapiere ich momentan nicht und werde in mich gehen. Vielen Dank nochmals!
 
Zuletzt bearbeitet:
Hier mal meine Testbilder.

Die ersten beiden bei f1.2, das erste mit verriegeltem, das zweite mit entriegeltem Objektiv. Man sieht sehr gut, dass es einiges dunkler ist. Im Sucher war die Belichtungswaage beim ersten Bild zentriert, beim zweiten ploetzlich soweit daneben, dass ich eine Blende haette verstellen muessen, um sie wieder zu zentrieren.

Die anderen Beiden sind bei f4 aufgenommen, beide gleich hell.

Interessant auf jeden Fall!


Chris
 
Aber warum sind die beiden Bilder, bei denen die Kamera von der Blende wusste, nicht gleich hell? Die sind doch laut EXIF gleich belichtet.
Welche beiden Bilder?

Es sind 2 Bildpaare, einmal beide mit f1.2, einmal beide mit f4.
Einmal verriegeltes Objektiv (Kamera weiss was dran baumelt und be*******t ggf. entsprechend), einmal entriegelt (Kamera behandelt es wie ein rein manuelles Objektiv).


Chris
 
Welche beiden Bilder?

Es sind 2 Bildpaare, einmal beide mit f1.2, einmal beide mit f4.
Einmal verriegeltes Objektiv (Kamera weiss was dran baumelt und be*******t ggf. entsprechend), einmal entriegelt (Kamera behandelt es wie ein rein manuelles Objektiv).

Das habe ich doch gesagt: "bei denen die Kamera von der Blende wusste", und das sind laut EXIF #1 und #3.


Gruß, Matthias
 
Mark Dubovoy behauptet auch, daß KB Sensoren nur 6 Blenden Dynamikumfang haben, MF Sensoren derer 12. Wenn so jemand auch noch auf die Aussagen von DxO aufbaut, dem Hersteller des schlechtesten RAW Konverters weltweit, kann ich mir ungefähr denken, was da rauskommt.

Das schräg einfallendes Licht stärker reflektiert wird als senkrecht einfallendes, ist ein alt bekannter Effekt aus der Physik. Das geht bis zur Totalreflektion, ein Effekt, den man bei Lichtwellenleitern gezielt ausnutzt. Wenn dem kameraintern abgeholfen wird, finde ich das sogar gut. Dann brauche ich nicht im Kopf auszurechnen, welche Belichtungskorrektur ich noch brauche. Für mich ist das alles nur Alarmismus.
 
Ich stehe einfach momentan komplett auf der Leitung...

Ich versuche mal, den Effekt anders zu erklären, vielleicht wird es dann ja klarer.
Es geht eigentlich darum, das das eigentlich Objektiv und die Mikrolinsen ja ein optisches Gesamtsystem bilden. Nun sieht es offenbar so aus, als würden die Mikrolinsen die Lichtstärke dieses Systems ab etwa Blende 2 begrenzen. Die Folge ist, das z.B. ein Objektiv mit Blende 1,2 effektiv nur noch mit Blende 1,4..1,8 arbeitet.

Das Canon und andere Hersteller offenbar versuchen, den Lichtverlust durch Pushen der ISO zu kompensieren, ist mir ehrlich gesagt ziemlich egal. Viel interessanter finde ich die Auswirkungen auf Bokeh und Schärfentiefe.

Warum DxO da so rum eiert, verstehe ich allerdings auch nicht. Es ist ja nicht sonderlich schwer, den Effekt zu messen.

vg Klaus
 
Ich versuche mal, den Effekt anders zu erklären, vielleicht wird es dann ja klarer.
Es geht eigentlich darum, das das eigentlich Objektiv und die Mikrolinsen ja ein optisches Gesamtsystem bilden. Nun sieht es offenbar so aus, als würden die Mikrolinsen die Lichtstärke dieses Systems ab etwa Blende 2 begrenzen. Die Folge ist, das z.B. ein Objektiv mit Blende 1,2 effektiv nur noch mit Blende 1,4..1,8 arbeitet.

Das Canon und andere Hersteller offenbar versuchen, den Lichtverlust durch Pushen der ISO zu kompensieren, ist mir ehrlich gesagt ziemlich egal. Viel interessanter finde ich die Auswirkungen auf Bokeh und Schärfentiefe.

Warum DxO da so rum eiert, verstehe ich allerdings auch nicht. Es ist ja nicht sonderlich schwer, den Effekt zu messen.

vg Klaus

Vielen Dank, ich habe inzwischen sozusagen darüber geschlafen und glaube nun schon dass es falsch ist, dass sich die Schärfentiefe damit ändert. Die Abschattung, die passiert, bewirkt, dass der Einzelsensor weniger Licht bekommt. Jeder Einzelsensor bekommt aber in jedem Fall - egal aus welcher Richtung oder wie das Licht auftrifft - immer nur _einen_ Helligkeitswert. Mehr als das kann ein Einzelsensor nicht detektieren.

Es ist dabei egal, ob die geringere Helligkeit dadurch bedingt ist ob die Sensorfläche des Einzelsensors teilweise in voller Helligkeit oder zur Gänze in verminderter Helligkeit beleuchtet wird. Es gibt nur ein Ergebnis.

Wenn also eine Abschattung passsiert, dann ist das Ergebnis daraus prinzipiell gleich wie wenn ich einen Neutraldichte-Filter davorschalte: Es ist dunkler, aber die Schärfentiefe ist die selbe.

Das Objektiv projiziert ein Bild auf den Sensor, das genauso wie die Bildinhalte auch die Eigenschaften wie Unschärfe enthält. Das kann sich nicht verändern, es kann nur durch ungünstige Bedinungen schwächer bei den Einzelsensoren ankommen.

Das Objektiv kümmert sich nicht darum, wie das Bild verwendet wird, es projiziert es auf die Sensorfläche inklusive der Unschärfen, die sich eben aufgrund der eingestellten Blende etc. ergeben. Der Sensor kümmert sich nicht darum ob etwas eine Unschärfe oder ein Detail ist, sondern detektiert einfach die Helligkeit an jedem Einzelsensor-Punkt.

Gegenprobe: Falls es wirklich so wäre, dass dadurch eine Veränderung der Schärfentiefe passiert, passiert ja in Wirklichkeit eine Veränderung des Bildinhalts. Das würde sich also nicht nur auf die Schärfentiefe-Darstellung sondern auch massiv auf die Detaildarstellung auswirken. Das heißt, dann müssten ja die Bilder komplett unbrauchbar sein.

Ich halte es nicht für unerheblich, ob die ISO-Einstellung "heimlich" verändert wird. Im Grenzbereich der ISO-Empfindlichkeit eines Sensors kann das durchaus die Qualität erheblich verschlechtern. Bei jeder Kamera gibt es einen Punkt, bis zu dem die ISO-Einstellung noch gute Resultate bringt, danach aber bereits die Farben bereits stark abfallen. Wenn es gerade an diesem Punkt ist und dann ISO hochgedreht werden, habe ich ein Bildergebnis, das ich so nicht wollte. Insofern ist es also nicht unwichtig. Ich würde es besser finden, eher die Verschlusszeit zu verlängern, das hat in der Regel eine geringere Auswirkung. Am besten wäre es freilich, wenn das angezeigt wird.

Luminous Landscape genieße ich mit großer Vorsicht. Die hatten vor mehreren Jahren einmal eine haarsträubende Theorie quasi wie ein Dogma in die Welt gesetzt, dass Schärfentiefe in Wirklichkeit bei Weitwinkel wie bei Teleobjektiven gleich groß ist. Das war komplett absurd, aber sie hatten eine riesige Anhängerschar mit diesem Blödsinn. Prinzipiell ist es richtig, dass die Abbildung mit jeder Brennweite bei selber Blende gleich ist, aber das hat mit dem Prinzip der Schärfentiefe - die ja auf der Größe der Abbildung im Gesamtbild und damit dem typischen Betrachtungsabstand basiert - nichts zu tun:

http://www.luminous-landscape.com/tutorials/dof2.shtml

Zum Thema noch: Dass bei Objektiven am Rand die Lichtstrahlen schräger am Sensor auftreffen und dass sich das verstärkt bei großen Blendenöffnungen, ist an sich nicht neu. Dass Canon wegen dieses Effekts die Randbereiche aufgehellt hat - und damit partiell quasi die ISO-Empfindlichkeit erhöht -, ist auch immer schon bekannt gewesen. Das hat also bisher auch schon - wenn auch nur im Randbereich - die Bildqualität verändert.

Das Theater, das LL nun aufführt mit "Offenen Brief an die Hersteller" ist also stark überzogen. Weil es das prinzipiell - also nicht angezeigte partielle Veränderung quasi des ISO-Wertes - immer schon gegeben hatte. Ob nur im Randbereich oder über das ganze Bild ist ja prinzipell die selbe "Geheimnistuerei".

Neu ist nun dennoch offensichtlich, dass das über das ganze Bildfeld so ist, wenn die Einzelsensoren entsprechend kleiner sind. Wenn das das ganze Bildfeld betreffen soll, dann verstehe ich noch immer nicht, wodurch der Verlust bei Pixeln in der Mitte passieren soll, weil bei diesen das Licht in jedem Fall direkt auftrifft.

Wenn es etwas mit der Licht-Wellenlänge zu tun haben sollte, dann müsste das ja ein urgewaltig dramatisches Problem bei den erheblich kleineren Einzelsensoren von Kompaktkameras sein, die ja teilweise auch Objektive mit Offenblende F2 haben, bei der sich dieser Effekt ja bereits auszuwirken beginnt. So viel ich weiß muss der Sensor mindestens einen Durchmesser von der doppelten Licht-Wellenlänge haben, also etwa 1,5µm. Davon sind die Einzelsensoren bei SLRs weit entfernt und sofern das durch Abschattungen unterschritten werden sollte, dann ist das Licht das detektiert wird, nicht dunkler sondern nicht vorhanden, also schwarz.

Möglicherweise hat es aber nichts mit dem Blendenwert - also Auftreten des Effekts ab Blende 2 - zu tun, sondern mit dem absoluten Durchmesser der Blende und es sind deswegen die Kompaktkameras davon nicht betroffen. Dieser ist bei längerer Brennweite größer. Bei Teles müsste daher der Effekt dann bei schon kleineren Blendenwerten auftreten. Falls es so sein sollte. Beispielsweise die Schärfentiefe hat eigentlich auch nichts mit der Brennweite oder dem Blendenwert zu tun, sondern nur mit dem absoluten Durchmesser der Blende. Dieser ist halt bei größerem Bildkreis und längerer Brennweite größer.

Ich werde nächste Woche ein paar Leute aus der Industrie treffen und habe schon angefragt, sich damit bis dahin zu beschäftigen und mir eine Antwort zu geben was da dran ist und was die genauen Erklärungen für diesen Effekt sind. Sobald ich das weiß, werde ich mich damit dann hier rühren.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten