• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hochgeöffnete Optiken limitiert durch Mikrolinsen?

Ich habe mal einen schnellen Test bzgl. LED vs. kontinuierlicher Strahler gemacht.

Diesmal musste meine Deckenlampe (Gluehlampe) herhalten. Da es sich nicht mehr um eine Punktlichquelle handelt, ist die Abbildung eher diffus, vielleicht aber auch etwas praxisrelevanter.

Der Effekt immer noch recht deutlich zu sehen. Besonders die Farbverschiebungen sind auffaellig. Das Bild der 5D zeigt keinerlei Anzeichen fuer den Effekt.

Besonders interessant ist, dass das Labyrinthmuster immer noch im unteren blaeulichen Bereich zu erkennen ist. Zumindest hier dachte ich, dass durch die Tatsache, dass sich nun doch recht viele Unschaerfekreise ueberlagern, dieses Labyrinth verschwinden wuerde... ist aber nicht so!
 
Diesmal musste meine Deckenlampe (Gluehlampe) herhalten. Da es sich nicht mehr um eine Punktlichquelle handelt, ist die Abbildung eher diffus, vielleicht aber auch etwas praxisrelevanter.

War das eine Energiesparlampe? Solche produzieren ein unkontinuierliches Lichtspektrum und flackern relativ stark. ... Ich möchte nur auf eine mögliche Fehlerquelle hinweisen.
 
Besonders interessant ist, dass das Labyrinthmuster immer noch im unteren blaeulichen Bereich zu erkennen ist.
Könnte das hier nicht eine Reflektion an der Beschriftung der Glühbirne sein?
Besteht die Möglichkeit, den Versuch mit einer Streuscheibe (Weißabgleichsscheibe o.ä.) vor der Frontlinse zu wiederholen?
 
Ich habe mal einen schnellen Test bzgl. LED vs. kontinuierlicher Strahler gemacht.

Eine weiße LED ist ein KONTINUIERLICHER Strahler mit einem Peak im Blau und eventuell 1 bis 2 weiteren (schwachen) Peaks. Sie ist KEIN Linienstrahler wie z. B. eine RGB-LED es wäre.

Für den Kamera-Sensor sollte das aber unerheblich sein. Der sieht auf 3 Kanälen; woher er das Signal mit welcher Spektralverteilung empfängt, ist ihm egal. Insbesondere sind 3 beliebige Peaks, die in den RGB-Kanälen die Signalhöhen eines schwarzen Körpers erzeugen, für ihn das Gleiche wie das originale Signal des schwarzen Körpers.

Einen Einfluss könnte es bei den Mikrolinsen haben, wenn deren chromatischer Fehler bei hoher Apertur zunimmt.

Die beobachteten Effekte scheinen mir in diese Richtung zu weisen:

1. Generell Intensitätsabfall bei hoher Apertur durch Überschreiten der maximalen Auslegungsapertur der Mikrolinsen.

2. In diesem Bereich machen sich dann Fertigungstoleranzen der Mikrolinsen als chromatischer Fehler bemerkbar.

3. Diese chromatischen Fehler erzeugen bei benachbarten Pixeln des Bayer-Sensors Signaldifferenzen, also eine scheinbare (Farb-) Modulation.

4. Diese Modulation wird vom Raw-Konverter als Muster interpretiert.

Alles meine persönliche Interpretation. Wie hier schon angemerkt wurde, gibt es Anlass zu der Vermutung, dass ich von optoelektronischen Systemen keine Ahnung habe.
 
Zuletzt bearbeitet:
War das eine Energiesparlampe? Solche produzieren ein unkontinuierliches Lichtspektrum und flackern relativ stark. ... Ich möchte nur auf eine mögliche Fehlerquelle hinweisen.
Nein, deswegen schrieb ich ja extra Gluehlampe!;)
Könnte das hier nicht eine Reflektion an der Beschriftung der Glühbirne sein?
Besteht die Möglichkeit, den Versuch mit einer Streuscheibe (Weißabgleichsscheibe o.ä.) vor der Frontlinse zu wiederholen?
Das wuerde ich ausschliessen. Das Farb- und Helligkeitsmuster entspricht exakt dem der LED. Auch der Vergleich mit der 5D zeigt das gleiche Ergebnis (genauer gesagt, die 5D zeigt den Effekt nicht, so wie es das LED-Experiment zeigte.)
Die beobachteten Effekte scheinen mir in diese Richtung zu weisen:

1. Generell Intensitätsabfall bei hoher Apertur durch Überschreiten der maximalen Auslegungsapertur der Mikrolinsen.

2. In diesem Bereich machen sich dann Fertigungstoleranzen der Mikrolinsen als chromatischer Fehler bemerkbar.
Ja, das koennte so hinkommen. Ich wuerde es nur nicht unbedingt Fertigungstoleranzen nennen, sondern es ist einfach ein Ergebnis der Dispersionseigenschaften der Mikrolinsen.
3. Diese chromatischen Fehler erzeugen bei benachbarten Pixeln des Bayer-Sensors Signaldifferenzen, also eine scheinbare (Farb-) Modulation.

4. Diese Modulation wird vom Raw-Konverter als Muster interpretiert.
Jein. Ich sehe es eher so, dass unterschiedliche Helligkeitssignale in Pixeln unterschiedlicher Farbe keine Muster erzeugen koennen, sondern nur einen "Farbstich". Um diese Muster zu erzeugen, braucht es schon unterschiedliche Helligkeitssignale in Pixeln GLEICHER Farbe. Waere es moeglich, dass jedes Farb-Subgitter der Bayer-Matrix jeweils nochmals aus zwei Subgittern gleicher Farbe besteht? Und dann zwischen diesen Subgittern z.B. die Orientierung der Pixel anders sind? (Ich erinnere mich an das 5DII Labyrinth-Problem. Da war es tatsaechlich so, dass jede Farbe zwei getrennte Kanaele besitzt und die waren nicht gut genug aneinander angeglichen.) Wenn das zutreffen sollte, koennte ich mir das Problem erklaeren.

Wo ist Nightshot, wenn man ihn braucht?;):o

Alles meine persönliche Interpretation. Wie hier schon angemerkt wurde, gibt es Anlass zu der Vermutung, dass ich von optoelektronischen Systemen keine Ahnung habe.
Nein, das ist schon perfekt so. So lange niemand vorbeischaut, der das Problem komplett kennt und erklaeren kann, bin ich fuer jeden Gedanken dankbar!:top:
 
Muster reinrechnende RAW-Converter (bzw. genauer Demosaicing-Algorithmen) sieht man hier.
Tolle Vergleichsmöglichkeit, aber leider ist die Seite total veraltet. Gerade Adobe ACR hat riesige Fortschritte gemacht und ist noch nicht SO lange endlich brauchbar. Ich glaube v4.x, wie auf der Seite verwendet, muss über 2 Jahre alt sein. Aber generell ist das schon verblüffend, wie 'schlecht' so ein Konverter arbeiten kann :).

Einfacher ausgedrueckt: Erst, wenn ein physikalischer Grund (wie zu hohe Aufloesung der Optik oder eben ungleichmaessige Pixelsignale) gibt, kann es zum Versagen des Demosaicing-Algorithmus kommen.
Danke, das leuchtet ein.

... siehe auch dieses Bild (Bild ist nur verkleinert, nicht beschnitten)
Werd ich am WE mal probieren. Aber welche BW war das? Für 3 Meter sieht die LED riesig aus :confused:?

Wie hier schon angemerkt wurde, gibt es Anlass zu der Vermutung, dass ich von optoelektronischen Systemen keine Ahnung habe.
Falls immer noch ich gemeint bin, ich höre schon lange mit offenem Mund zu und versteh fast nur noch Bahnhof :D.


Muss das mit dem Fehlmuster überhaupt etwas mit den Microlinsen zu tun haben? Ich meine mich zu erinneren, dass solche Muster bei schlechteren RAW-Convertern (oder eben frühen Versionen der jetzt guten) auch bei der 5D ohne Microlinsen vorkam, die MLs gabs ja damals nicht - täusch ich mich?

Außerdem steig ich grad etwas aus, um was es bei den Tests mit der LED eigentlich genau ging/geht? Gings nicht um die Asymmetrie der Unschärfekreise generell? Wie gesagt, ich verlier grad etwas den Faden :).
 
Werd ich am WE mal probieren. Aber welche BW war das? Für 3 Meter sieht die LED riesig aus :confused:?
Das war mit dem 50/1.2L. Die LED sieht riesig aus, weil dass der Unschaerfekreis ist, wenn die Optik auf Naheinstellgrenze steht und die LED 3m entfernt ist!:top:
Muss das mit dem Fehlmuster überhaupt etwas mit den Microlinsen zu tun haben? Ich meine mich zu erinneren, dass solche Muster bei schlechteren RAW-Convertern (oder eben frühen Versionen der jetzt guten) auch bei der 5D ohne Microlinsen vorkam, die MLs gabs ja damals nicht - täusch ich mich?
Ob es direkt an den Mikrolinsen liegt, versuchen wir ja herauszufinden. Es muss zumindest mit hoher Wahrscheinlichkeit am selben Effekt liegen, der auch fuer den Helligkeitsabfall auf der linken Seite verantwortlich ist.
Meiner Meinung nach kommt es durch diesen Effekt zu einer ungleichen Beleuchtung der Pixel (moeglicherweise durch die Mikrolinsen verursacht), was dann wiederrum zu dem Muster fuehrt.
Muster bei anderen Kameras, z.B. 5D ohne Mikrolinsen, koennen eigentlich nur andere Gruende haben, wie z.B. optisch sehr fein aufgeloeste Strukturen in Verbindung mit einem relativ schwachen AA-Filter.
Außerdem steig ich grad etwas aus, um was es bei den Tests mit der LED eigentlich genau ging/geht? Gings nicht um die Asymmetrie der Unschärfekreise generell? Wie gesagt, ich verlier grad etwas den Faden :).
Ja, das ist verstaendlich. Wie gesagt, ich denke, dass die beiden Effekte, also der einseitige Helligkeitsabfall der Unschaerfekreise und das Muster darin die selbe Ursache haben.
 
Das war mit dem 50/1.2L. Die LED sieht riesig aus, weil dass der Unschaerfekreis ist, wenn die Optik auf Naheinstellgrenze steht und die LED 3m entfernt ist!:top:
Argh ... da hätt ich selbst mal drauf kommen können :o.

Es muss zumindest mit hoher Wahrscheinlichkeit am selben Effekt liegen, der auch fuer den Helligkeitsabfall auf der linken Seite verantwortlich ist. Meiner Meinung nach kommt es durch diesen Effekt zu einer ungleichen Beleuchtung der Pixel (moeglicherweise durch die Mikrolinsen verursacht), was dann wiederrum zu dem Muster fuehrt.
Groschen gefallen :). Aber auch wenn ich persönlich nicht glaube, dass es für das Muster eine Art 'asymmetrischer Beleuchtung' der Pixel braucht, kann ich nicht wirklich mitreden. Wie gesagt, ich denke nur zu wissen, dass es speziell dieses Labyrinth schon vor den Microlinsen gab.

Muster bei anderen Kameras, z.B. 5D ohne Mikrolinsen, koennen eigentlich nur andere Gruende haben, wie z.B. optisch sehr fein aufgeloeste Strukturen in Verbindung mit einem relativ schwachen AA-Filter.
Ja eben, irgendeine Störung reicht ja, um den Algorithmus auf das Muster 'einzuschießen'. Letztlich ist es dessen Fehler, DER darf einfach nie so ein Muster generieren.

Naja, wenn ich morgen eine weiße LED finde, test ich auch mal ein wenig 'rum' :D.
 
Um diese Muster zu erzeugen, braucht es schon unterschiedliche Helligkeitssignale in Pixeln GLEICHER Farbe.

Nein, so simpel ist das nicht. Die hohe Auflösung heutiger De-Bayer-Algorithmen wird unter anderem durch heuristische Verfahren erreicht. Was Canon (und andere RAW-Konverter) genau macht, ist natürlich nicht bekannt. Ungefähr läuft es so ab, dass für jedes Pixel ein angenommener Helligkeitswert (also R+G+B) mit hoher Auflösung aus den nebeneinander liegenden R/G/B-Einzelwerten errechnet wird (NICHT nur einfach gemittelt zwischen den jeweils nächsten Pixeln gleicher Farbe). Wenn diese Heuristik jetzt glaubt, eine gleichmäßige monochrome Fläche zu erkennen, dann ergeben Modulationen in einem Farbkanal eine (fälschliche) Modulation des Helligkeitssignals.

Mikrolinsen darf man sich auch nicht so "ideal" vorstellen. Das sind extrem kleine Strukturen, die (relativ zu ihren Dimensionen) bei weitem nicht die Fertigungsgenauigkeit von traditioneller abbildender Optik erreichen. Da sind Fertigungsabweichungen, Störmuster im Grenzbereich usw. praktisch unvermeidbar.

Aber, wie bemerkt, nur meine persönliche Meinung, von Optoelektronik verstehe ich nichts.
 
Wo ist Nightshot, wenn man ihn braucht?;):o
Ok, hab mir das mal angesehen und fühle mich nun bereit was Sinnvolles beizutragen. Achtung, das wird lang:

1) Irgendeine Linse in deinem Objektiv ist leicht verkippt. Wenn ich ein Objektiv justiere mache ich das in der Regel mit einer unscharf gestellten Punktquelle. Ich justiere so lange, bis ich einen sauberen Kreis sehe, das Objektiv ist dann ganz von allein scharf. Eine unscharfe Punktquelle ist höchst sensitiv auf optische Unzulänglichkeiten.

2) Das Lichtprofil von deinen Bildern ist höchst spannend. Während die 5DII eine nahezu gleichmäßige Helligkeit der Scheibe zeigt vignettiert die 7D zum Rand hin. Der Rand wird von den Lichtstrahlen gebildet, die unter dem höchsten Winkel auf den Sensor treffen. Das würde die Theorie, dass die Apertur mit kleiner werdenden Pixeln sinkt untermauern. Eine Blendenreihe wäre hier ganz nützlich.

3) Gegen diese Labyrinth-struktur kämpfe ich gerade mit einer 5D. Ein A/D Wandler scheint hier eine andere Verstärkung zu fahren und damit sind die beiden Grünkanäle vom Histogramm nicht mehr deckungsgleich. Das betrifft aber immer das ganze Bild. Der Bayeralgorithmus kann bei so einer Pixelmodulation nicht mehr richtig arbeiten. Diese lokale Struktur habe ich allerdings noch nie gesehen.

4) Der AA Filter einer 5D ist nicht ungewöhnlich schwach, er produziert einen Unschärfekreis von 9µm und gehört damit zu den stärksten die je verbaut wurden. Auch eine 5D hat natürlich Mikrolinsen auf dem Sensor, ihr werdet wahrscheinlich nie eine Kamera in die Hand bekommen, die keine Mikrolinsen hat. Diese Sensoren findet man nur in absoluten Spezialanwendungen.
 
Was den Labyrintheffekt angeht, so wurde im Parallelthread ja bereits das Thema Gegenlicht/Streulicht angesprochen. Interessant ist das insofern, als es mich unmittelbar an diesen Thread und das dortige Zitat von Panopeeper erinnert hat. Die Ursache für das Labyrinthmuster als Artefakt des Demosaicing ist ein Ungleichgewicht in den beiden Grünkanälen der Bayer-Matrix. Panopeeper spricht in Verbindung mit der Extremsituation Gegenlicht/Streulicht und einem evtl. daraus resultierenden 'unkonventionellen' Strahlengang im Objektiv von "disproportional response" (ungleichmäßigem Ansprechverhalten) der einzelnen Sensorzeilen.

Ich wäre nicht überrascht, wenn die hier ebenfalls durch 'Labyrinthe' auffälligen Randbereiche des Unschärfekreises eine ähnliches Extrem darstellen würden, und die 'Randstrahlen' der Optik zu einem vergleichbaren Ungleichgewicht (und damit den Artefakten) führen. Welcher Effekt nun genau dahinter steckt (Aberration des Objektivs, Winkelabhängigkeit der Mikrolinsen, Interferenz-/Moiré-Effekte mit dem AA-Filter, o.ä.), lässt sich allein daraus aber wohl nicht ohne Weiteres ableiten.

Gruß, Graukater
 
Zuletzt bearbeitet:
Ob es direkt an den Mikrolinsen liegt, versuchen wir ja herauszufinden.
Gibt es denn noch andere (APS-C-)Bodies, die diese Effekte zeigen? Ich denke da z.B. an die 60D und 550D, die ja einen ähnlichen oder gar gleichen Sensor haben sollen?

Wo genau sitzen die Mikrolinsen? Sitzen diese direkt auf dem Sensor vor dem Farbfilter, also quasi unter AA- und IR-Filter? Oder sitzen diese auf einem der oberen Filter bzw. dazwischen? Oder kurz: sind die Mikrolinsen noch da, wenn dem Body für IR-Fotografie der IR- und AA-Filter entfernt wurde? Falls nicht, wird sich doch wohl jemand finden, der den LED-Test mal machen kann.
 
Auch eine 5D hat natürlich Mikrolinsen auf dem Sensor, ihr werdet wahrscheinlich nie eine Kamera in die Hand bekommen, die keine Mikrolinsen hat. Diese Sensoren findet man nur in absoluten Spezialanwendungen.
Ach - das ist ja 'doll', hätt ich nicht gedacht. Gibt es einen Grund, warum dann Canon erst seit der 5DII die MLs so massiv bewirbt, bzw. in den Vordergrund rückt? Vor allem wäre doch dann das ganze Threadthema so alt wie die digitale Spiegelreflexfotografie. Ich hatte den Eindruck, das ist ein neues Phänomen der neueren Kameras.

Danke natürlich auch für deine wieder mal exzellenten Ausführungen ... soweit ich sie verstanden habe :).
 
Wofür das Marketing so massiv die Werbetrommel gerührt hat, war das "gapless" Design der Mikrolinsen, durch welches der Sensor ein Maximum an (effektiver) lichtempfindlicher Fläche bekam.

Gruß, Graukater
 
1) Irgendeine Linse in deinem Objektiv ist leicht verkippt. Wenn ich ein Objektiv justiere mache ich das in der Regel mit einer unscharf gestellten Punktquelle. Ich justiere so lange, bis ich einen sauberen Kreis sehe, das Objektiv ist dann ganz von allein scharf. Eine unscharfe Punktquelle ist höchst sensitiv auf optische Unzulänglichkeiten.
Bist du dir da sicher oder ist das eine moegliche Alternative? Bei dem 50er bin ich mir eigentlich ziemlich sicher, dass es ziemlich kreisrund abbildet, zumindest an der 5D. Ausserdem sehe ich den gleichen Effekt (Helligkeitsabfall auf der linken Seite) an der 7D mit dem 35L, 50L und 85L. Was auch gegen die Linse spricht, ist, wenn ich das Objektiv in der Bajonettfassung drehe, aendert sich nicht die Orientierung der Vignettierung nicht. Daher gehe ich davon aus, dass die Vignettierung wirklich vom Sensor erzeugt wird.
Mein 35er hat zwar einen kleine Macke in der Richtung, die geht aber hoffentlich morgen auf die Reise zu Canon.

2) Das Lichtprofil von deinen Bildern ist höchst spannend. Während die 5DII eine nahezu gleichmäßige Helligkeit der Scheibe zeigt vignettiert die 7D zum Rand hin. Der Rand wird von den Lichtstrahlen gebildet, die unter dem höchsten Winkel auf den Sensor treffen. Das würde die Theorie, dass die Apertur mit kleiner werdenden Pixeln sinkt untermauern. Eine Blendenreihe wäre hier ganz nützlich.
Wenn die Blende geschlossen wird, werden einfach nur die Randbereich abgeschnitten. Irgendwo habe ich das schonmal ausprobiert, muss mal schauen wo ich das habe.

3) Gegen diese Labyrinth-struktur kämpfe ich gerade mit einer 5D. Ein A/D Wandler scheint hier eine andere Verstärkung zu fahren und damit sind die beiden Grünkanäle vom Histogramm nicht mehr deckungsgleich. Das betrifft aber immer das ganze Bild. Der Bayeralgorithmus kann bei so einer Pixelmodulation nicht mehr richtig arbeiten. Diese lokale Struktur habe ich allerdings noch nie gesehen.
Ja, wenn es das ganze Bild betrifft, verstehe ich es auch vollkommen. Ich will dieses Muster aber auch nicht als echtes Problem sehen, da ich mir nicht vorstellen kann, dass es wirklich in der Praxis stoeren koennte. Vielmehr sehe ich es als weiteren Teil des Puzzles an, der mir oder euch vielleicht hilft, es irgendwann zu verstehen.

4) Der AA Filter einer 5D ist nicht ungewöhnlich schwach, er produziert einen Unschärfekreis von 9µm und gehört damit zu den stärksten die je verbaut wurden. Auch eine 5D hat natürlich Mikrolinsen auf dem Sensor, ihr werdet wahrscheinlich nie eine Kamera in die Hand bekommen, die keine Mikrolinsen hat. Diese Sensoren findet man nur in absoluten Spezialanwendungen.
Mit relativ schwachem AA-Filter habe ich auch die Staerke in Relation zum Pixelpitch gemeint. Da sollte die 5D doch immer noch relativ stark zur hohen Pixelschaerfe aber auch potentiell zum Aliasing neigen.


Was den Labyrintheffekt angeht, so wurde im Parallelthread ja bereits das Thema Gegenlicht/Streulicht angesprochen. Interessant ist das insofern, als es mich unmittelbar an diesen Thread und das dortige Zitat von Panopeeper erinnert hat. Die Ursache für das Labyrinthmuster als Artefakt des Demosaicing ist ein Ungleichgewicht in den beiden Grünkanälen der Bayer-Matrix. Panopeeper spricht in Verbindung mit der Extremsituation Gegenlicht/Streulicht und einem evtl. daraus resultierenden 'unkonventionellen' Strahlengang im Objektiv von "disproportional response" (ungleichmäßigem Ansprechverhalten) der einzelnen Sensorzeilen.

Ich wäre nicht überrascht, wenn die hier ebenfalls durch 'Labyrinthe' auffälligen Randbereiche des Unschärfekreises eine ähnliches Extrem darstellen würden, und die 'Randstrahlen' der Optik zu einem vergleichbaren Ungleichgewicht (und damit den Artefakten) führen. Welcher Effekt nun genau dahinter steckt (Abberration des Objektivs, Winkelabhängigkeit der Mikrolinsen, Interferenz-/Moiré-Effekte mit dem AA-Filter, o.ä.), lässt sich allein daraus aber wohl nicht ohne Weiteres ableiten.
Das ist ein sehr interessanter Punkt. Da komme ich auf einen Gedanken, den muss ich aber erst noch etwas durchdenken...

Gibt es denn noch andere (APS-C-)Bodies, die diese Effekte zeigen? Ich denke da z.B. an die 60D und 550D, die ja einen ähnlichen oder gar gleichen Sensor haben sollen?
Das waere wirklich interessant. Ich kann den Test in etwa 5 Minuten machen, habe aber leider nur die 5DI und die 7D hier. (Bei mir vorbeikommen zum Kaffee und Sensortest wird aber auch schwierig...:rolleyes:)

Es ist aber wirklich nicht schwer. Der wichtigste Punkt (im wahrsten Sinne des Wortes) ist, eine saubere Punktlichquelle, im Idealfall eine einzelne weisse LED zu haben. Und natuerlich Objektive mit mindestens f/1.4 (f/1.8 koennte eng werden). Wenn man das hat, ist es einfach. Einfach das Objektiv auf Naheinstellgrenze drehen, am besten Zimmer abdunkeln, so dass LED die einzige Lichtquelle ist, die unscharfe Abbildung des Punktlichts in die Mitte des Suchers bringen (LV hilft enorm!) und etwas mit der Belichtungszeit spielen.
 
So, ich habe jetzt eine Idee, was mit den Apertur-Randstrahlen passiert, wie die Mikrolinsen darin involviert sind, warum es so stark bei der 7D auftritt, bei der 5D aber nicht, warum das ganze asymmetrisch bzw. anisotrop ist, und warum das Labyrinthmuster auftritt.
Bitte versteht das ganze als "Arbeitshypothese", ich bin also fuer alle Hinweise, Verbesserungsvorschlaege oder gerne auch niederschmetternde Gegenargumente :o dankbar...

Das ganze ist an eine fundamentale Annahme gebunden: Zur Reduktion von Leiterbahnen bzw. zur einfacheren Kontaktierung derselben bzw. einfacheres "Schreiben" der Sensoren durch Photolithografie werden die lichtempfindlichen Sensorflaechen zu 2x2-Pixel-"Inseln" zusammengefasst und sind von den lichtunempfindlichen Flaechen/Bahnen umgeben.
Ich habe eine Skizze angehaengt, die das ganze veranschaulichen soll.
(Moeglicherweise kann jemand diesen Aufbau bestaetigen oder revidieren, ich selbst habe davon wenig Ahnung)

Die Skizze ist so zu verstehen: Die grauen Flaechen sind die lichtunempfindlichen Bereiche jedes Pixels. Die farbigen Flaechen sind die lichtempfindlichen Pixel, in RGGB, wobei ich den beiden Gruen-Kanaelen etwas unterschiedliche Farbtoene gegeben habe um die Unterscheidung zu vereinfachen. Die Ringe um das gesamte (lichtempfindliche und lichtunempfindliche) Pixelkonstrukt sind die Mikrolinsen. Diese sind so geformt, dass sie das Licht zu den lichtempfindlichen Flaechen hin brechen.

Was sofort auffaellt: jedes rote Pixel sitzt unten links in seinem Mikrolinsenbereich und jedes blaue oben rechts, waehrend ein gruenes Subgitter oben links sitzt und das andere unten rechts (also komplementaer zur Anordnung im 2x2-Cluster).

Fallen Lichtstrahlen mehr oder weniger von vorne auf den Sensor, ist alles kein Problem. Jedes Subgitter verhaelt sich aehnlich. Sobald allerdings Lichtstrahlen schraeg auf die Mikrolinsen treffen, kann es passieren, dass das Licht nicht mehr zur lichtempfindlichen Flaeche hin gebrochen werden kann. Passiert das z.B. fuer die blauen Pixel, haben die roten gar kein Problem, da sie ja genau andersherum orientiert sind. Trifft das Licht im entgegengesetzten Winkel auf, verhalten sich die Farben genau andersherum. Dadurch kommt es zur einseitigen Vignettierung und Farbverschiebung ins roetliche auf der einen Seite und einer lichten Vignettierung und Farbverschiebung ins blaeuliche auf der anderen. Sobald es die gruenen Pixel betrifft, kann es natuerlich nicht zu einer Farbverschiebung kommen. Aber es kommt zu einer Abschattung eines Gruen-Kanals, was neben der leichten sichtbaren Vignettierung eben auch das Labyrinthmuster nach dem Demosaicing erzeugt.

Das ganze waere bei der 7D so stark ausgepraegt, weil die lichtempfindlichen Flaechen in Relation zum Gesamtpixel relativ klein sind. Dadurch ist diese Asymmetrie, die durch die Mikrolinsen erzeugt werden, sehr stark. Die 5DI, die (wie wir ja alle wissen:D) auch Mikrolinsen verwendet, hat stattdessen ein sehr viel guenstigeres Verhaeltnis von lichtempfindlicher zu Gesamtflaeche und ist dadurch wenn ueberhaupt nur unsichtbar betroffen.

Eine Frage bleibt allerdings noch unbeantwortet: Warum sind die Symmtrieachsen der Vignettierung/Farbverschiebung/Labyrinthmuster parallel zu den Sensordimensionen und nicht diagonal, wie es das Pixelmuster ist?
 
Zuletzt bearbeitet:
... Was sofort auffaellt: jedes rote Pixel sitzt unten links in seinem Mikrolinsenbereich und jedes blaue oben rechts, waehrend ein gruenes Subgitter oben links sitzt und das andere unten rechts (also komplementaer zur Anordnung im 2x2-Cluster).
Vielleicht vor dem Selber-Erfinden doch erst einmal über den Stand der Technik informieren? Über 7D konnte ich auf die Schnelle nichts finden, aber hier:

http://www3.canon.de/images/pro/fot/slr/geh/file/EOS1D_MarkIII_White_Paper.pdf

auf Seite 10 erklärt Canon prinzipiell, wie sowas ausssieht.

Nur SO kann auch die Interpolation "fehlender" Farben des Bayer-Musters zwischen den Pixeln funktionieren! Hatte ich vor ein paar Seiten schon mal beschrieben, aber in dieser Diskussion gehen Sachbeiträge leider leicht in einem Wust an laienhaften Spekulationen verloren.

Es gibt ein älteres Kodak-Paper (das suche ich jetzt nicht auch noch raus), das die Tiefenausdehnung der Pixel beschreibt. Die Werte dort sind sicher nicht 1:1 auf Canon-Sensoren übertragbar, zeigen aber das prinzipielle Problem der Randabschattung und damit einhergehenden Aperturbegrenzung. Wenn jetzt minimale Fertigungstoleranzen zusammen mit der unvermeidlichen chromatischen Aberration der Mikrolinsen dazukommen, dann sind wir GENAU bei dem, was ich schon beschrieben hatte.

Fazit: das ist ein fertigungstechnischer und konstruktiver Teufelskreis, der keine ideale Lösung hat. Am besten lässt sich das noch mit Konstruktionen wie bei Foveon durchbrechen, aber die haben andere Probleme.

Aber wie erwähnt, es gibt hier ja andere Forumsteilnehmer, die wissen genau, dass ich keine Ahnung habe. Wird dann also wohl doch alles ganz anders sein.
 
Vielleicht vor dem Selber-Erfinden doch erst einmal über den Stand der Technik informieren? Über 7D konnte ich auf die Schnelle nichts finden, aber hier:

http://www3.canon.de/images/pro/fot/slr/geh/file/EOS1D_MarkIII_White_Paper.pdf

auf Seite 10 erklärt Canon prinzipiell, wie sowas ausssieht.
Ach so, Canon offenbart also sein patentiertes Sensor-Design in einem popeligen (sorry) Whitepaper, dass zu 90% von der Marketing-Abteilung geschrieben wurde? Allein wenn ich die Fehler in den Abbildungen sehe, kann ich das nicht mehr ernst nehmen. Selbst wenn die Photodioden nicht-zentrisch angeordnet sein sollten, wird die Marketing-Abteilung nicht so bloed sein, und das in einer (Werbe-)Abbildung, in der es alleine um die Reduktion der lichtunempfindlichen Bereiche geht, zeigen.

Nur SO kann auch die Interpolation "fehlender" Farben des Bayer-Musters zwischen den Pixeln funktionieren! Hatte ich vor ein paar Seiten schon mal beschrieben, aber in dieser Diskussion gehen Sachbeiträge leider leicht in einem Wust an laienhaften Spekulationen verloren.
:confused:
Mit "meinem" Sensordesign funktioniert keine Interpolation???

Sorry, wenn du dich mit deinen Sachbeitraegen hier alleine fuehlst...

Es gibt ein älteres Kodak-Paper (das suche ich jetzt nicht auch noch raus), das die Tiefenausdehnung der Pixel beschreibt. Die Werte dort sind sicher nicht 1:1 auf Canon-Sensoren übertragbar, zeigen aber das prinzipielle Problem der Randabschattung und damit einhergehenden Aperturbegrenzung. Wenn jetzt minimale Fertigungstoleranzen zusammen mit der unvermeidlichen chromatischen Aberration der Mikrolinsen dazukommen, dann sind wir GENAU bei dem, was ich schon beschrieben hatte.
Ja, das hattest du in der Tat schonmal geschrieben. Trotzdem konnte ich es schon damals und auch jetzt nicht als die Erklaerung aller Erklaerungen akzeptieren. Ich verstehe, dass Mikrolinsen nicht perfekt sind, aperturbegrenzt sind und CAs erzeugen. Aber warum zum ... ist das so unsymmetrisch??? Und warum zeigen das andere Kameras wie die 5DI nicht?

Fazit: das ist ein fertigungstechnischer und konstruktiver Teufelskreis, der keine ideale Lösung hat. Am besten lässt sich das noch mit Konstruktionen wie bei Foveon durchbrechen, aber die haben andere Probleme.
Nein, so kann ich das nicht akzeptieren. Die Entwicklungsabteilung hat hier zu einem bestimmten Zeitpunkt gezielt eine Entscheidung getroffen, hin zu ISO 6400 und weg von einer gleichmaessigen Ausleuchtung der Pixel bei Blendenzahlen kleiner als 2.

Aber wie erwähnt, es gibt hier ja andere Forumsteilnehmer, die wissen genau, dass ich keine Ahnung habe. Wird dann also wohl doch alles ganz anders sein.
Koenntest du bitte mit dem kindischen Gehabe aufhoeren? So langsam beginnt das zu nerven...
 
Vielleicht vor dem Selber-Erfinden doch erst einmal über den Stand der Technik informieren?
Muss dieser Tonfall sein? Die Grundidee von UnclePat war gar nicht mal so abwegig: Guck mal was ich z.B. gefunden habe: http://www.ride-downhill.de/blog/?p=709. Allerdings frage ich mich, warum die Mikrolinse da explizit versetzt dargestellt wird. Wenn alle Pixel gleich aussehen, könnte man sie ja auch mittig zur lichtempfindlichen Fläche anordnen. Egal: Das Bild zeigt, dass wir uns hier eben nicht 100%ig auf irgendwelche Abbildungen auf irgendwelchen Websites oder Whitepapers verlassen können. Ohne hier wirklich einen CMOS-Sensor-Layoutexperten zu haben können wir also eh nur spekulieren... was ja auch ganz kurzweilig sein kann...
Ach so, Canon offenbart also sein patentiertes Sensor-Design in einem popeligen (sorry) Whitepaper, dass zu 90% von der Marketing-Abteilung geschrieben wurde?
War auch mein erster Gedanke!


Nachtrag: Hier gibt es sogar eine schematische Abbildung eines CMOS-Sensors, der noch nicht mal rechteckige Sensorflächen hat: http://www.digitalversus.com/guide-demosaicing-colour-photos-article-1064.html :eek:
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten