• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hochgeöffnete Optiken limitiert durch Mikrolinsen?

Guck mal was ich z.B. gefunden habe: http://www.ride-downhill.de/blog/?p=709. Allerdings frage ich mich, warum die Mikrolinse da explizit versetzt dargestellt wird.
Weil die Zeichnung falsch ist. Und die von Canon ist richtig. Und meine prinzipielle Beschreibung von Demosaicing-Algorithmen ist auch richtig.

Das Marketing von Canon versteht eben doch mehr von der Sache als der Verfasser eines Radfahrerblogs. Bzw., eigentlich ist die Zeichnung des Radfahrers, die er ja auch nur an anderer Stelle entnommen hat, nicht wirklich falsch, sie wird von dir nur überinterpretiert. Nirgendwo steht geschrieben, dass das eine perspektivisch korrekte Explosionszeichnung sein soll. Und das ist sie eben auch nicht.

Wofür das Marketing so massiv die Werbetrommel gerührt hat, war das "gapless" Design der Mikrolinsen, durch welches der Sensor ein Maximum an (effektiver) lichtempfindlicher Fläche bekam.

Richtig. Und "Gapless" geht natürlich nur mit äquidistanter Anordnung der Pixel. Auf eine andere Idee ist aber sowieso noch nie jemand gekommen. Weder die Fertigung der Mikrolinsen noch das Demosaicing ließe sich mit einer "unregelmäßigen" Anordnung vernünftig beherrschen, ganz zu schweigen von den optischen Problemen. Schließlich ist das errechnete Endbild eines mit quadratischen, äquidistanten Pixeln. Wer käme wohl ernsthaft auf die Idee, das mit einem gigantischen Aufwand an Fließkommaoperationen aus einem nicht-äquidistanten Array auszurechnen? Das ist für jeden Informatiker absurd.

Wenn ich UnclePats Idee richtig verstanden habe, dann hat er aber einen ganz anderen kardinalen Fehler gemacht: er sieht über jeweils VIER Pixeln EINE Mikrolinse vor. Das funktioniert optisch aus vielen Gründen nicht, daher mein Hinweis auf das Kodak-Paper! Vor JEDEM Pixel befindet sich eine Mikrolinse.
 
Zuletzt bearbeitet:
Wenn ich UnclePats Idee richtig verstanden habe, dann hat er aber einen ganz anderen kardinalen Fehler gemacht: er sieht über jeweils VIER Pixeln EINE Mikrolinse vor.
Du hast es komplett falsch verstanden.

Edit: Da ich das nicht so provokant alleine stehenlassen wollte: Die Idee war, dass die Einzelsensoren verglichen mit dem Canon-Idealbild aus dem Whitepaper etwas von der Mitte ihrer jeweiligen Mikrolinse verschoben sind, aber ansonsten natürlich völlig der normalen Bayer-Anordnung entsprechen.

Übrigens haben wir hier glaube ich einen Effekt noch gar nicht beachtet: Bei extremen Einfallswinkeln könnte es ja passieren, dass der Lichtstrahl sich an "seinem" Einzelsensor vorbeimogelt und auf dem Nachbar-Sensor landet. Je nach Rotationswinkel ergibt das dann natürlich lustige Farbverschiebungs- und Abschattungseffekte, die den hier gezeigten ähnlich sein könnten...

Edit/2: Ist das dann evtl. der gleiche Effekt, mit dem die M9 auf globaler (Sensor-) Ebene statt auf lokaler (Zerstreuungskreis-) Ebene zu kämpfen hat, weil die Randstrahlen bei bestimmten Objektiven so schräg auftreffen? Bei Ken Rockwell gibt es hier ein schönes Bild, das dem Effekt von UnclePat auffallend ähnlich sieht :cool:


Noch was:
...der Verfasser eines Radfahrerblogs.... ...des Radfahrers...
Naja, daran sollte man sich nun wirklich nicht stoßen: Dieses Bild findet sich auch auf ein paar anderen Seiten/Blogs, auch mit Thema Fotografie. Ich hatte hier halt nur den ersten Google-Treffer verlinkt, und das war nun mal zufälligerweise ein Radfahrerblog ;)
 
Zuletzt bearbeitet:
Allerdings frage ich mich, warum die Mikrolinse da explizit versetzt dargestellt wird. Wenn alle Pixel gleich aussehen, könnte man sie ja auch mittig zur lichtempfindlichen Fläche anordnen.
Das ist ein guter Gedanke. Eine mittige Anordnung waere moeglich, wenn die Orientierung der benachbarten Pixel gleich waere.
Sobald die benachbarten Pixel so orientiert sind wie in meinem Modell, muessen die Mikrolinsen versetzt ueber der photosensitiven Flaeche bzw. zentriert ueber dem Gesamtpixel angeordnet sein, ansonsten wuerden sich ja die benachbarten Mikrolinsen in die Quere kommen. Wenn die Mikrolinsen so verkippt sind, dass sie telezentrische Strahlen in das Zentrum der photosensitiven Flaeche hin brechen, ist das ja auch vollkommen ok. Sobald es allerdings zur Abschattung durch einen grossen Einfallswinkel kommt, sieht die Sache anders aus...

Leider ist auf der Abbildung nur ein einzelnes Pixel zu sehen. Es waere wirklich interessant zu sehen, wie die benachbarten Pixel orientiert sind...

Weil die Zeichnung falsch ist. Und die von Canon ist richtig. Und meine prinzipielle Beschreibung von Demosaicing-Algorithmen ist auch richtig.
Amen.

Das Marketing von Canon versteht eben doch mehr von der Sache als der Verfasser eines Radfahrerblogs. Bzw., eigentlich ist die Zeichnung des Radfahrers, die er ja auch nur an anderer Stelle entnommen hat, nicht wirklich falsch, sie wird von dir nur überinterpretiert. Nirgendwo steht geschrieben, dass das eine perspektivisch korrekte Explosionszeichnung sein soll. Und das ist sie eben auch nicht.
Schoen, dass du die "Stellung" eines Verfassers/Menschen so hoch wertest. Ich kann ja auch in meinem Beruf nicht wirklich ernst genommen werden, da ich nebenbei "Fotograf" bin.

Richtig. Und "Gapless" geht natürlich nur mit äquidistanter Anordnung der Pixel. Auf eine andere Idee ist aber sowieso noch nie jemand gekommen. Weder die Fertigung der Mikrolinsen noch das Demosaicing ließe sich mit einer "unregelmäßigen" Anordnung vernünftig beherrschen, ganz zu schweigen von den optischen Problemen. Schließlich ist das errechnete Endbild eines mit quadratischen, äquidistanten Pixeln. Wer käme wohl ernsthaft auf die Idee, das mit einem gigantischen Aufwand an Fließkommaoperationen aus einem nicht-äquidistanten Array auszurechnen? Das ist für jeden Informatiker absurd.
Wieso sollen die "effektiven" Pixel nicht aequidistant sein? Bist du schon mal auf die Idee gekommen, dass man Linsen unsymmetrisch konstruieren kann, damit sie das Licht hin zu den lichtempfindlichen Flaechen hin brechen? Das ist doch genau der Sinn der Mikrolinsen...
Schau dir mein Modell an, da sind die Mikrolinsen aequidistant! So wie ich das jetzt verstehe, ist das genau der Sinn des "gapless designs".

Und selbst wenn die Pixel icht aequdistant sein sollten, meinst du die Halbleiterentwicklungsabteilung von Canon schert sich gross darum, ob ein paar Informatiker einen neuen optimierten Demosaicing-Algorithmus (mehr als ein paar Wichtungs-Koeffizienten muessten da wohl kaum eingefuehrt werden) entwickeln muss? Was meinst du, wo mehr Geld zu sparen ist???

Wenn ich UnclePats Idee richtig verstanden habe, dann hat er aber einen ganz anderen kardinalen Fehler gemacht: er sieht über jeweils VIER Pixeln EINE Mikrolinse vor. Das funktioniert optisch aus vielen Gründen nicht, daher mein Hinweis auf das Kodak-Paper! Vor JEDEM Pixel befindet sich eine Mikrolinse.
Keine Ahnung wie du auf diese Idee kommst...
 
Zuletzt bearbeitet:
Keine Ahnung wie du auf diese Idee kommst...
Weil ich anders in der Idee der gruppenweise versetzten Pixel überhaupt keinen Sinn erkennen konnte. Gut, es war nicht so gedacht. Tatsache ist, kein Optik-Entwickler käme auf die Idee, die Pixel gruppenweise zu versetzen. Selbst wenn der Chip-Entwickler das gut fände, der Optik-Entwickler würde es ihm wieder ausreden (man kann Mikrolinsen nicht in Vierergruppen unsymmetrisch versetzt konstruieren, auch Optik-Konstruktionen haben ihre Grenzen, und die sind dabei weit überschritten), der Softwareentwickler würde sich die Haare raufen und seine Kollegen für verrückt erklären. Die Pixel sind in einem regelmäßigen, äquidistanten Raster angeordnet, in jeder Art von Sensor, egal, ob da ein RGB-Bayer-Filter drüber ist oder ein anderes. Eine Quelle dafür hatte ich genannt. Gründe dafür auch, zahlreiche.

Ich verstehe ja, dass du von deiner Erklärungsidee begeistert bist, aber Sensoren werden nun mal nicht so gebaut. Ich sehe mich schon aus zeitlichen Gründen außerstande, dazu jetzt einen noch längeren Vortrag aufzuschreiben und verweise deshalb auf Wikipedia und ähnliche allgemein verfügbare Quellen, wenn man schon dem Canon-Paper nicht glauben will.

...mehr als ein paar Wichtungs-Koeffizienten muessten da wohl kaum eingefuehrt werden...
Deiner Formulierung entnehme ich, dass du dich offenbar noch nie mit Skalierungs-Algorithmen befasst hast, und erst recht nicht mit Skalierungs-Hardware. Das unterscheidet uns.

Übrigens haben wir hier glaube ich einen Effekt noch gar nicht beachtet: Bei extremen Einfallswinkeln könnte es ja passieren, dass der Lichtstrahl sich an "seinem" Einzelsensor vorbeimogelt und auf dem Nachbar-Sensor landet. Je nach Rotationswinkel ergibt das dann natürlich lustige Farbverschiebungs- und Abschattungseffekte, die den hier gezeigten ähnlich sein könnten...
Müsste man mal mit den realen Dimensionen des Sensors aufmalen, wofür man diese Zahlen allerdings haben müsste, aber aus dem Stegreif würde ich sagen, angesichts der realen Apertur der jeweiligen Photodioden ist das unmöglich. Der Abstand zur nächsten Diode ist viel zu groß. Deshalb hat man ja die Mikrolinsen. Wenn (als Annahme) bei F/2 die Diode voll ausgeleuchtet wird, dann reicht der Lichtkegel bei F/1,2 noch nicht bis zur nächsten Diode. Und wenn doch, dann müsste noch ein erheblicher Deckungsfehler bei den Farbfiltern hinzukommen, um überhaupt einen Störeffekt zu erzeugen. Anders wird das allenfalls, wenn der Sensor von der Rückseite beleuchtet wird. So weit ist Canon aber noch nicht.
 
Zuletzt bearbeitet:
zur labyrinthstruktur:
nightshot dürfte gemäß dieser links hier recht haben, daß es mit den grünkanälen zusammenhängt - ob jetzt mit unterschiedlicher filterdichte oder unterschiedlicher adc-quantisierung, weiß ich natürlich nicht.
btw. gibt es sensoren, wo die jeweils grün-pixel pro gruppe unterschiedliche filterdichte haben, um die farbauflösung zu verbessern. und wenn der raw-konverter diese eigenheiten nicht kennt, daß er blödsinn demosikiert ...

http://www.ojodigital.com/foro/perf...-labyrinth-artefacts-green-equilibration.html

http://forums.dpreview.com/forums/readflat.asp?forum=1019&thread=33474743&page=6

http://forums.dpreview.com/forums/read.asp?forum=1019&message=36765887

-----------------------------

optischer farb-crosstalk zwischen benachbarten pixel war in vielen webseiten, welche ich fand, ein thema und eine these von uncle pat, daß darauf diese unsymmetrischen unschärfekreise-verfärbungen beruhen, stützen (noch dazu, weil dieses phänomen nur bei hochgeöffneter blende auftaucht - ist also eine frage, wie gut microlinsen geformt sind und ob sie je nach lage am sensor schräg zur objektivpupille hin ausgerichtet sind.)

http://www.google.at/imgres?imgurl=...&ndsp=21&tbs=isch:1&ei=1D1UTYCVPJXn4gbv-aHeCA

http://www.google.at/imgres?imgurl=...&ndsp=21&tbs=isch:1&ei=EDpUTa2zK4SB5AaSx_nXCA

http://sonyalpharumors.com/wp-content/uploads/2010/05/Sony-1p43um-Pixed-Dual-Ulens.jpg

http://www.google.at/imgres?imgurl=...&ndsp=21&tbs=isch:1&ei=vj9UTfroN5T-4wbm7NzSCA

http://www.google.at/imgres?imgurl=...&ndsp=21&tbs=isch:1&ei=9z9UTceWFM3-4wa1sKH6CA

http://www.google.at/imgres?imgurl=...&ndsp=21&tbs=isch:1&ei=Y0BUTb77JYj64Aa6vanjCA


weiß jetzt natürlich nicht, ob irgendeiner der links mit den mikrolinsenanordnungen irgendejmandem was hilft.
 
Zuletzt bearbeitet:
Müsste man im Sinne der ursprünglichen Fragestellung nicht ohnehin versuchen, den Einfluss des CFA und des Bayer-Patterns/Demosaicing so weit wie möglich zu eliminieren (um 'systematische' Fehler auszuschließen)? Also z.B. das RAW per dcraw möglichst 'unbehandelt' nach TIFF umwandeln (dcraw -D -4 -j -t 0 -T), und dann die einzelnen RGGB-Kanäle getrennt betrachten/untersuchen...

Gruß, Graukater
 
Müsste man im Sinne der ursprünglichen Fragestellung nicht ohnehin versuchen, den Einfluss des CFA und des Bayer-Patterns/Demosaicing so weit wie möglich zu eliminieren (um 'systematische' Fehler auszuschließen)? Also z.B. das RAW per dcraw möglichst 'unbehandelt' nach TIFF umwandeln (dcraw -D -4 -j -t 0 -T), und dann die einzelnen RGGB-Kanäle getrennt betrachten/untersuchen...

Gruß, Graukater

Gute Idee! Nützt zwar in der fotografischen Praxis nichts, aber könnte zur Erklärung beitragen. Jedenfalls käme man dem Problem der Labyrinthe näher (sofern nicht schon in der Kamera da etwas "optimiert" wird, was ich aber erst einmal nicht annehmen würde).
 
Ich bin über ein Canon Patent gestolpert das wohl den Microlens Shift zeigen soll, aber es belegt schön die Dimensionen und Probleme von so einem Sensor:

http://egami.blog.so-net.ne.jp/2010-11-07#english

Die eigentliche lichtempfindliche Fläche liegt bei so einem Pixel sehr tief vergraben und da muss das Licht erstmal hin kommen. Die oben liegenden Leiterbahnen (921) sind reflektierend und werfen das Licht zurück. Würde das Licht nur ins Nachbarpixel gelangen wäre das recht egal, das ist ja auch die Aufgabe vom AA Filter und somit alles in Butter.

Ich kann mir aber vorstellen, dass unter einem bestimmten Winkel und bestimmten Pixelabstand eine Bedingung erfüllt ist, bei der das reflektierte Licht an der Innenseite vom Nachbarpixel ein weiteres Mal reflektiert wird und damit in die übernächste Zelle gelangt und jetzt bekommt der deBayer ein Problem. Auf diesem gezeigten Labyrinthbild scheint diese Bedingung genau an dem einen Fleck erfüllt zu sein.


Je tiefer die lichtempfindliche Fläche vom Pixel liegt (und das skaliert mit der Pixelgröße) umso schwerer wird es bei hoch geöffneten Objektiven hier noch das Licht rein zu bekommen. Die Lösung wäre also der back-illuminated CMOS Sensor. Sony ist da glaube ich der oder einer der Miterfinder. Und kaum liest man da ein paar Presseerklärungen, schon kann man zwischen den Zeilen lesen: Klar gibt es ein Problem mit hoch geöffneten Optiken vor einem Sensor, aber unser Sensor ist bei f/2,0 um 1,5dB besser als der normale Sensor.

http://www.sony.net/SonyInfo/News/Press/200806/08-069E/index.html
 
Ich kann mir aber vorstellen, dass unter einem bestimmten Winkel und bestimmten Pixelabstand eine Bedingung erfüllt ist, bei der das reflektierte Licht an der Innenseite vom Nachbarpixel ein weiteres Mal reflektiert wird und damit in die übernächste Zelle gelangt und jetzt bekommt der deBayer ein Problem.

Damit überhaupt Licht in ein Nachbarpixel kommt, müsste die Steghöhe zwischen den Mikrolinsen >> Höhe der Linsenwölbung sein. Um das beurteilen zu können, bräuchte man Daten einer realen Mikrolinsenstruktur. Sind die irgendwo verfügbar?

Wahrscheinlicher ist, dass das zurücktreflektierte Licht einfach den gesamten Streulichtanteil erhöht, also kontrastvermindernd wirkt, und nicht ein Muster von spezifischen Nachbarpixeln trifft. Selbst wenn solche Reflexionen stattfinden, dann gibt es aufgrund der Komplexität der Strukturen gleichzeitig viele Wege des Störlichts, was den Effekt letztlich ausmittelt.

Die eigentliche lichtempfindliche Fläche liegt bei so einem Pixel sehr tief vergraben und da muss das Licht erstmal hin kommen.

Das dürfte die Erklärung der beobachteten Phänomene liefern. Leider wurde die gute Idee von Graukater, die hier bei der Analyse weiterhelfen könnte, wohl bisher nicht aufgegriffen.

Die Lösung wäre also der back-illuminated CMOS Sensor.

Genau. Vielleicht noch Foveon-like mit Mehrschichtenstruktur, Sony arbeitet auch daran.
 
Um das ganze mal etwas praxisnaeher darzustellen habe ich mal einen kurzen Vergleich gemacht. Ein kleines Stilleben mit Blitz und ein paar Reflexions-Glanzlichtern. Kuenstlerisch wohl weniger wertvoll aber diesen Anspruch erhebt es auch nicht.

Ich habe versucht, den Ausschnitt und Fokus beim Kamerawechsel moeglichst nicht zu verstellen. Ansonsten wurden die Bilder aus Lightroom mit identischen Einstellungen exportiert und die Bilder der 5D wurden auf 62.5% Kantenlaenge beschnitten, um den Cropfaktor der 7D auszugleichen.

So kann sich jeder selbst ein grobes Bild machen, was das fuer jeden einzelnen in der Praxis bedeutet.

Fuer mich ist der Effekt ist sichtbar, aber ohne direkte Vergleichsmoeglichkeit wohl kaum auffaellig. Trotzdem koennte es in bestimmten Situation deutlich staerker sichtbar sein. Deshalb hoffe ich, dass Canon bei einer zukuenftigen 5D3 nicht nur auf moeglichst rauschfreie ISO 256.000 optimiert, sondern auch auf eine moeglichst gleichmaessige Aufzeichnung der Unschaerfekreise Wert legt.
 
Könntest Du mir bitte erklären, was ich auf den Bildern sehen können soll?
Die ungleichmäßige, richtungsabhängige Helligkeitsverteilung in den Unschärfekreisen. Siehe auch UnclePats anderen Thread dazu.

Wenn man sehr genau drauf achtet, kann man es andeutungsweise sehen, aber wie von UnclePat schon gesagt, ist es praktisch komplett unauffällig.
 
WERBUNG
Zurück
Oben Unten