• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RGBW-Sensoren?

e-Pawel

Themenersteller
So eine Frage an die Runde:

Kodak hat bereits 2007 einen RGBW-Sensor angekündigt, in 2012 war es Sony und jetzt kommen die ersten Geräte auf den Markt (Huawei P8 gibt es bereits zu kaufen, Spekulationen nach soll das kommende Apple iPhone ebenfalls mit einem RGBW-Sensor daherkommen).

Warum geht das so schleichend voran (es ist in dem Sinne keine neue Technologie, die nicht von "einem Tag auf den anderen" umgesetzt werden könnte oder?) und wird noch gar nicht bei großen Sensoren eingesetzt?

Ist der Dazugewinn doch nicht so groß, wie es einem auf den ersten Blick erscheinen könnte? Gibt es bereits irgendwo sachliche Vergleiche (und keine Pressemitteilungen mit utopischen Versprechungen ;) )?

Pawel
 
Ist der Dazugewinn doch nicht so groß, wie es einem auf den ersten Blick erscheinen könnte?

Was abgehobenes ist das nicht....eigentlich ja nur ein angepasstes Filterstack. (Ähnlich X-Trans.)
Canon hatte wenn ich mir recht entsinne in der 7D(I) z.B. nen RGCB Filterstack...also Cyan statt zweimal Grün...da sind sie dann meines Wissens auch wieder komplett von weg.

Der Zugewinn von solchen Lösungen wird in Summe dann wohl eher doch nicht so prall sein...
Mit RGWB verschenkt man dann ja halt auch Farbauflösung im Grünkanal und gewinnt Auflösung und SnR im Bezug auf die Grauwerte. (Helligkeitsrauschen)

Bei großen Sensoren dürfte das Prinzipbedingt eine zunehmend geringere Rolle spielen und eher die Nachteile überwiegen...ist aber nur eine Vermutung.

Schlägt ja auch in eine Ähnliche Kerbe wie die RGBW Displays oder die glorreichen RGBY TVs (Sharp)...oftmals viel Marketingbuzz mit nur eingeschränktem tatsächlichen Nutzen.
 
Zuletzt bearbeitet:
...Schlägt ja auch in eine Ähnliche Kerbe wie die RGBW Displays oder die glorreichen RGBY TVs (Sharp)...oftmals viel Marketingbuzz mit nur eingeschränkten tatsächlichen Nutzen.

anscheinend werden bei OLED's Monitore weisse Subpixel dazu eingesetzt, um genügend helle Bilder darstellen zu können. LG und Chinesische Panel-Anbieter nutzen neuerdings diesen Umstand indem man W-Subpixel anstelle von RGB-Subpixel einsetzt, die Bildschirme aber dennoch unter dem Synonym eines UHD-Gerätes verkauft:

http://www.prad.de/new/tv/specials/Fake-UHD.html
 
Ist das vielleicht so:
12 Photonen treffen auf 4 Pixel. Durch den Filter sieht jeder Pixel nur 1 seiner 3 statistischen Photonen (nämlich ein "grünes", "rotes" oder blaues"). In Summe also 4 Stück. Ein Sensor, der bei einem von 4 Pixeln die Filter weglässt, sieht also 1+1+1+3=6 Photonen, eine halbe Blende (?) Gewinn.
Kann das hinhauen?
Wie viel gewinnt diese Leica ganz ohne Farbfilter?
 
Vorallem würden die "weißen" Sensel ja auch deutlich schneller volllaufen...oder sie müssten eine zur höheren Quantenausbeute proportional höhere Kapazität haben. :o
 
Dass das Bayer Pattern wahrscheinlich nicht ideal ist, wird ja schon seit Ewigkeiten diskutiert (das RGBW ist ja nur eine von vielen Alternativen).

Bryce Bayer soll ja auch dieser Meinung gewesen sein.


Der Punkt mit dem der Bayer Filter aktuell punktete ist sicher, dass reichlich Entwicklungsarbeit in die Algorithmen zur Verarbeitung geflossen sind.

Wie schwer es ist mit einem neuen Filter zu punkten zeigen ja die Anfänge von Fujis X-Trans.
Hier ist mir noch nicht ganz klar, was RGBW zu bedeuten hätte.
 
Es gibt alle möglichen exotischen Varianten zu Bayer: https://en.wikipedia.org/wiki/Color_filter_array

Bayer hat sich in der Fotografie durchgesetzt, weil man damit Farben am präzisesten messen kann. Woran z.B.CYYM gescheitert sind. CYYM würde wohl auch einen besseren Zugewinn an Lichtausbeute bringen als RGBW - und es gäbe das bereits genannte Problem mit der Überempfindlichkeit des W-Pixels nicht.

So oder so halte ich das für wenig sinnvolles Herumdoktoren am eigentlichen Problem. Ich kann mir nicht vorstellen, das dabei besonders große Performanzsprünge herumkommen. Schätzen wir mal das ein grünes Pixel ca 50% des Lichtes filtert (da es in der Mitte des Spektrums liegt), während blaue und rote Pixel 33% filtern (da sie an den Enden des Spektrums liegen). Dann wäre die Gesammtausbeute des Lichtes ca (2*50+2*33)/4 = 41.5%. Mit RGBW würde es dann auf (50+100+2*33)/4 = 54% gesteigert. Das ist als ein Drittel bessere Ausbeute - in der Größenordnung wie die Backlit-Technologie der neuen Sony A7r2. Ein netter kleiner Sprung, aber auch nicht mehr. Und wie gesagt mit dem häßlichen Überbelichtungsproblem für das W-Pixel. Und demselben prinzipiellen Problem wie X-Trans: man muß viel Software neu schreiben.

Die Hersteller sollten sich daher lieber darauf konzentrieren, eine Variante der Foveon X3 Technologie herzustellen, welche die Photonen tatsächlich pro Pixel in 3 verschiedene Töpfe verteilt, die sich dann ohne Rauschprobleme auslesen lassen (*). Z.B. durch dichroitische Microspiegel auf dem Sensor. Das ergäbe dann einen Leistungssprung von ca 40% auf 100% - das Zweieinhalbfache. Das wäre ein sehr viel deutlicherer Sprung als RGBW oder X-Trans oder CYYM.



(*) Das Rauschproblem von Foveon X3 ergibt sich daraus, das die Farben anhand der Eindringtiefe in den Sensor unterschieden werden. Das heißt, die oberste Schicht misst Photonen aller Wellenlängen, weil natürlich auch grüne und rote Photonen eine Chance haben, hier die Photodiode anzusprechen, die Schicht darunter nur noch grüne und rote Photonen, und bei der untersten Schicht kommen nur noch rote Photonen an. Das Endergebnis ist daher starkes Farbrauschen besonders im roten Farbkanal, denn die unterste Schicht sieht ja nur noch ein starke abgedunkeltes Signal.
 
Bayer Pattern sind dann gut, wenn man die Pixel möglichst zu 100% nutzen möchte. Weil es relativ gut möglich ist,die Farben zu raten in den feinsten Details.

Aber wie ist das bei einer hypothetischen Kamera mit KB KB Sensor und Pixelgrösse ala 20 MP 1"? Ohne jedoch die Absicht, diese Pixel je einmal 1:1 zu nutzen? Also ohne die Option, die 140 MP dann in sinnvoller 100% Qualität zu bekommen?
Ich könnte mir da schon andere Muster vorstelen, die ganz gut sind, wenn man aus den 140 MP dann irgendwas zwischen 25 und 40 als höchste Auflösung macht.

Einfaches Beispiel: Rot, Grün, Grün, Blau, Weiss, Grau. Wir wissen von der Leica, dass Farbfilter etwas mehr als 1 Blende kosten. Der weisse Pixel würde also ein bisschen mehr bei wenig Licht bringen. Der graue Pixel hääte einen 3 bis 4 Bleden starken Graufilter, um die Lichter zu holen.
Oder wenn man nicht nur Helligkeitswerte für diese hellsten Lichter will, dann den W weg, und Rot, Rot-3, Grün, Grün-3, Blau, Blau -3, wobei die -3 für Blenden steht. Bringt dann etwas weniger High ISO als heutige Senoren, aber mehr Dynamik.
 
In der Fachliteratur gibt es etliche Untersuchungen zu diesem Thema, z.B. von Eric Fossum. Problem ist halt, daß das Standard-Bayer-Pattern schon ein gewisses Optimum darstellt, und viele Alternativen dann z.B. zwar bessere Dynamik/Empfindlichkeit liefern, aber die Farbtrennung drunter leidet bzw. umgekehrt. Das RGBW-Pattern hat da bisher die besten Resultate gezeigt. Außerdem kommt der schon angedeutete Punkt des Demosaicing hinzu, was bei in sich geschlossenen Kameramodulen besser zu verstecken ist als z.B. bei Kameras, die ihre (mehr oder weniger) Rohdaten weitergeben.

Sony hatte 2012 übrigens ihre Abkehr von RGBW bei der Entwicklung einiger Sensoren bekanntgegeben, weil deren Versuche nicht die gewünschte Bildqualität gezeigt hatten. Mittlerweile scheinen die das im Griff zu haben, wie beim Kameramodul des im Startbeitrag erwähnten Telefons zu sehen ist. Interessant an der Geschichte ist die Tatsache, daß sie intern RGBW in ein handelsübliches Bayer-RGB umrechnen ("remosaic").
 
Die Nachteile der anderen Varianten werden dann unwichtiger, wenn man die Auflösung des Sensors so extrem hoch macht, dass 100% Ansicht weniger ein Thema wird. Wenn ich die Anzahl Pixel nachher eh durch 4 oder so teile, und das als höchste Auflösung aus der Kamera gebe, fällt mancher Mangel des Demosaicing weg. Natürlich kann man dann immer noch für die die unbedingt wollen statt 36 MP 16 Bit TIFF die volle 144 MP Dröhnung ohne vorheriges Demosaicing haben, aber das dann halt nach demMotto: Dafür ist es nicht gemacht, stimmen dann feinste Details nicht, Maul halten und freuen, dass in anderen Situationen das geht, was eigentlich nicht vorgesehen ist.:rolleyes:
 
Die Nachteile der anderen Varianten werden dann unwichtiger, wenn man die Auflösung des Sensors so extrem hoch macht, dass 100% Ansicht weniger ein Thema wird.
Wenn Du ein bißchen rumsuchst, wirst Du u.a. auch von dem von mir genannten Autor Artikel finden, die sich prinzipiell mit genau Deinen Gedanken/Ideen beschäftigen und Untersuchungen dazu anstellen.

RGBW läuft ja u.a. auch mit der Prämisse, möglichst nicht allzuweit vom 2x2-Pattern abzudriften, weil wir noch nicht im Zeitalter der Massivauflösung unterwegs sind. Das andere Problem ist das Demosaicing, welches vor allem für Bayer-Pattern einen riesigen Vorlauf hat, bis hin zu Optimierungen von Algorithmen jenseits vom Demosaicing, mit entsprechenden Folgen, wenn da z.B. ein X-Trans-Sensor auf der Bildfläche erscheint (siehe die Grütze, die LR damit anstellt). In dem Kontext ist das "Remosaicing" von Sony eine interessante Idee.

Das wird also noch eine Weile dauern, bis sowas in der Praxis aufschlägt; die Sensorforschung hat sich diesem Thema aber schon angenommen.
 
Meiner Meinung nach ist RGBW der völlig falsche Ansatz. Ich zumindest brauche keine noch höheren Empfindlichkeiten und eine noch bessere Lichtausbeute. Ich wäre glücklich, wenn die Hersteller sich zusammentun würden, sodass wir einerseits Kameras mit noch höherer Dynamik und Farbtiefe und andererseits Anzeigegeräte bekommen, die diese Aufnahmen in all ihrer Pracht wiedergeben können.
 
Wenn man die Farben einfach doppelt macht, also wie heute eigentlich RGGB, aber jedes heute quadrtische Pixel in 2 dann längliche Subpixel teilt, von denen eines 3 Blneden oder so weniger Licht bekomt, aber die gleiche Farbe hat, dann ist das Demosaicing erstmal nicht so wahnsinnig anders. Zumal es dann nur relativ schmale Bereiche gibt, wo nur das helle oder dunkle was sieht - bie heute 14 BLneden Dynamik würde eine Verschiebung von nur 3 Blneden immer noch grosse Überschneidung garantieren. Die Effekte, die sowas haben könnte, würden also mehrheitlich in den extrem Schatten und Lichtern auftreten, wo nur noch die eine Hälfte funktioniert.
Der Hauptnachteil wäre viel mehr, dass die Hälfte der Sensorfläche damit sehr viel weniger lichtempfindlich wird, ba bleiben bei 3 Blenden ja nur noch 12.5% übrig. Oder von beiden Hälften zusammen gemittelt nur noch ca. 56%, womit fast eine Blende Licht verloren geht.

Ein D810 Sensor in der Technik (2x 36 längliche MP) hätte also Basis ISO 32, pullbar bis 16, und würde eben eine ganze Blende vorher schlapp machen in den Lichtern. Dafür hätte das Gerät 17 Blenden Dynamik. Wäre also eine Landschaftskamera vorzugsweise ab Stativ. Im Sutdio kann man das Licht gut kontrollieren, da reichen die heute 14 Blenden eigentlich auch schon dicke. Und universellere Einsätze brauchen eben auch mal hohe ISO, da könnte der Verlust einer Blende schwerer wiegen als 2 oder 3 Blneden noch mehr Dynamik, und die nur in den Lichtern. Denn das kommt noch dazu: Will man die 3 Blenden mehr nutzen, muss man 8mal länger belichten als heute, um auch die abgedunkelten Pixel grade so eben zu sättigen (expose to the right). D.h. zur Grundempfindlichkeit von ISO 32 statt 64 kommt noch 8mal länger belichten drauf, wenn man de 17 statt 14 Blneden will, dann ist man zwar immer noch bei ISO 32, aber bei der Belichtugszeit von ISO 4!
 
Vorallem würden die "weißen" Sensel ja auch deutlich schneller volllaufen...oder sie müssten eine zur höheren Quantenausbeute proportional höhere Kapazität haben. :o

Und wie gesagt mit dem häßlichen Überbelichtungsproblem für das W-Pixel.

Einfaches Beispiel: Rot, Grün, Grün, Blau, Weiss, Grau. Wir wissen von der Leica, dass Farbfilter etwas mehr als 1 Blende kosten. Der weisse Pixel würde also ein bisschen mehr bei wenig Licht bringen. Der graue Pixel hääte einen 3 bis 4 Bleden starken Graufilter, um die Lichter zu holen.
Oder wenn man nicht nur Helligkeitswerte für diese hellsten Lichter will, dann den W weg, und Rot, Rot-3, Grün, Grün-3, Blau, Blau -3, wobei die -3 für Blenden steht. Bringt dann etwas weniger High ISO als heutige Senoren, aber mehr Dynamik.

Meiner Meinung nach ist RGBW der völlig falsche Ansatz. Ich zumindest brauche keine noch höheren Empfindlichkeiten und eine noch bessere Lichtausbeute. Ich wäre glücklich, wenn die Hersteller sich zusammentun würden, sodass wir einerseits Kameras mit noch höherer Dynamik und Farbtiefe und andererseits Anzeigegeräte bekommen, die diese Aufnahmen in all ihrer Pracht wiedergeben können.

Ich denke wir dürfen die vermeintliche Problematik des zu empfindlichen weißen Pixels nicht überschätzen oder verteufeln. Aus zwei Gründen:

Das physikalische Volllaufen eines Pixels findet nur dann statt, wenn man in der nativen physikalischen Empfindlichkeit (also je nach Sensor irgendwas um ISO200 herum) einen tatsächlich (in RAW) überbelichteten Punkt hat. Und dann haben wir ohnehin ein so ein gutes SNR, dass man auch etwas weniger belichten kann, um so den weißen Pixel vor Überbelichtung zu retten, ohne dass insgesamt Rauschen auftritt. Überbelichtete Bildpunkte bei allen höheren Empfindlichkeiten als die native rühren aber nicht mehr vom eigentlichen Überlaufen des Pixels mit Photonen her, sondern von der zu intensiven Verstärkung des Pixelsignals, entweder physikalisch vom Verstärker oder softwareseitig im Bildprozessor.

Zum Anderen ähnelt ein solcher Aufbau (unterschiedlich Empfindliche Subpixel) dem SR-Sensor von Fuji (die sowohl vom Bildrauschen als auch dem Dynamikumfang her seiner Zeit ausgezeichnet waren). Der helle W-Subpixel sorgt für eine stärkere Helligkeitsinformation bei schwächerer Belichtetung (weniger Rauschen), die „dunkleren“ RGB-Subpixel für genug Dynamik nach oben hin, wenn es zu hell wird und der weiße Pixel überläuft. Also hätte man theoretisch beide Vorteile (Rauschen und Dynamikumfang).

Die Hersteller sollten sich daher lieber darauf konzentrieren, eine Variante der Foveon X3 Technologie herzustellen, welche die Photonen tatsächlich pro Pixel in 3 verschiedene Töpfe verteilt, die sich dann ohne Rauschprobleme auslesen lassen (*). Z.B. durch dichroitische Microspiegel auf dem Sensor. Das ergäbe dann einen Leistungssprung von ca 40% auf 100% - das Zweieinhalbfache. Das wäre ein sehr viel deutlicherer Sprung als RGBW oder X-Trans oder CYYM.

Sobald wir das Licht auf irgendeine Weise aufteilen, ob mit Prismen (3CCD-Ansatz bei bspw. Camcordern von Panasonic), Mikrospiegeln oder Farbfiltern (also eben Bayer), so erhält jeder Pixel so oder so nur seinen einfarbigen, folglich abgeschwächten Lichtanteil und wir haben keinen Dazugewinn. Der eigentliche Vorteil bei 3CCD oder dem Foveon X3 ist das bessere Auflösungsvermögen, da man pro Bildpunkt 3 Subpixel hat statt eines und kein Demosaicing nötig ist, man verrechnet die jeweiligen R-, G- und B-Subpixel einfach miteinander.
 
Sobald wir das Licht auf irgendeine Weise aufteilen, ob mit Prismen (3CCD-Ansatz bei bspw. Camcordern von Panasonic), Mikrospiegeln oder Farbfiltern (also eben Bayer), so erhält jeder Pixel so oder so nur seinen einfarbigen, folglich abgeschwächten Lichtanteil und wir haben keinen Dazugewinn. Der eigentliche Vorteil bei 3CCD oder dem Foveon X3 ist das bessere Auflösungsvermögen, da man pro Bildpunkt 3 Subpixel hat statt eines und kein Demosaicing nötig ist, man verrechnet die jeweiligen R-, G- und B-Subpixel einfach miteinander.

Nicht ganz richtig. Beim Bayer oder X trans wird das Blaue Licht welches auf die Rot und Grünflächen fällt reflektiert oder in Wärme umgewandelt. Bei 3CCD und Schichtansätzen passiert das nicht. Ergo 4x höhere Lichtmenge für RB und doppelte für G. Durch den Mehrschichtaufbau geht dieser Vorteil leider wieder verloren.
 
@donesteban und e-Pawel
Ihr beide seid also der Ansicht, dass aktuelle Kameras in Sachen Dynamik und Farbtiefe gut genug sind? Falls ja, dann muss ich euch klar widersprechen. Auch die D810, als eine der Kameras mit der höchsten Dynamik, hinkt sehr weit dem menschlichen Auge hinterher. Man muss sich so mancher Bildbearbeitungstricks bedienen, damit die Fotos so aussehen, wie die Situation zum Zeitpunk der Aufnahme. Sicherlich liegt das auch an den Monitoren, die nur einen kleinen Teil der aufgenommenen Bildinformation anzeigen können.

P.S. M.M.n. gibt es kein "gut genug". Die Hersteller sollten das Ziel verfolgen, die Fototechnik und die Anzeigegeräte zu verbessern, sodass man beim Blick auf den Bildschirm meint aus dem Fenster zu schauen. Soweit ist die Technik noch lange nicht.
 
Zuletzt bearbeitet:
@donesteban und e-Pawel
Ihr beide seid also der Ansicht, dass aktuelle Kameras in Sachen Dynamik und Farbtiefe gut genug sind? Falls ja, dann muss ich euch klar widersprechen. Auch die D810, als eine der Kameras mit der höchsten Dynamik, hinkt sehr weit dem menschlichen Auge hinterher. Man muss sich so mancher Bildbearbeitungstricks bedienen, damit die Fotos so aussehen, wie die Situation zum Zeitpunk der Aufnahme. Sicherlich liegt das auch an den Monitoren, die nur einen kleinen Teil der aufgenommenen Bildinformation anzeigen können.

P.S. M.M.n. gibt es kein "gut genug". Die Hersteller sollten das Ziel verfolgen, die Fototechnik und die Anzeigegeräte zu verbessern, sodass man beim Blick auf den Bildschirm meint aus dem Fenster zu schauen. Soweit ist die Technik noch lange nicht.


Je mehr Dynamik eine Kamera kann, desto mehr Szenen gehen ohne HDR aus mehreren Auslöungen. was ja bei bewegten Motiven nicht geht. Jedoch ist bei der anchträglichen Bearbeitung dann der gleiche Aufwand wie heute nötig.16 Blneden ohne irgendwelche HDR Technik (Pseudo HDR aus einemRAW) auf's Blatt oder den Bildschirm bannen, wird furchtbar flau. Papier hat ca. 7 bis 8 Blenden, Bildschrme (gute) 9 bis maximal 10 (statischer Kontrast). Also bis maximal 12 Blenden lasse ich da einen einfachen elektronischen Grauverlauf noch gelten, darüber muss man auch heute mit D810 etc schon zu intensiver Nachbearbeitung greifen. Nur weil es in einem Klick geht heisst nicht es wird einfacher zu bearbeitenn!

Natürlich ist mehr Dynamik immer schön. Aber auch, wenn sie was kostet? Mit den "Halbpixeln", davon einer mit 3 Blenden Graufilter davor, sind dies die Nachteile: 1 Blende ISO ist futsch, bleibt in den Filtern hängen. Und willman die Dynamik voll nutzen muss man ganze 3 Blneden länger belichten als bei der D810. Also ISO 32, aber mit der Bleichtungszeit von ISO 8,für maximale Dynamik. Kürzer belichten füllt dann das Histogramm nicht mehr nach rechts bei Basis ISO. Und ISO rauf drehen ist ja bekanntlich bei allen Sony Sensoren, die so schön Dynamik haben, tüdlich für die Dynamik, es kostet pro ISO Stufe fast eine ganze Blende Dynamik die Sensoren sind ja praktisch ISO los.

Wegen dieser Nachteile ist das keine Univeralkamera mehr, sondern ein Spezialgerät für Einsätze in Landschaft und abends in der Stadt, wo tendenziell hohe Kontraste sind und auch mit der D810 evtl HDR aus mehreren Bildern noch nötig ist. ALso so wie die D810A ein Spezialgerät it besonderen Stärken, die man aber nicht ohne gleichzeitige spürbare Nachteile bekommt.
 
Zuletzt bearbeitet:
Meiner Meinung nach ist RGBW der völlig falsche Ansatz. Ich zumindest brauche keine noch höheren Empfindlichkeiten und eine noch bessere Lichtausbeute. Ich wäre glücklich, wenn die Hersteller sich zusammentun würden, sodass wir einerseits Kameras mit noch höherer Dynamik und Farbtiefe und andererseits Anzeigegeräte bekommen, die diese Aufnahmen in all ihrer Pracht wiedergeben können.
RGBW kommt ja auch (erstmal?) nicht in Wechselobjektiv-Kameras, sondern landet dort, wo jedes bißchen mehr an Lichtausbeute Unterschiede machen kann: Smartphones. Die kleben momentan an der 1µm pixel pitch Marke (A7s ca. 8,4µm, 5Ds ca. 4,14µm). Da machen derartige Entwicklungen also durchaus Sinn, weil man bei vergleichbarer Farbtrennung mehr Licht auf den Sensor bekommt.

Bzgl. Bildqualität würde ich einfach mal empfehlen, sich z.B. den Artikel durchzulesen und einwirken zu lassen. Aber das nur am Rande.
 
Nicht ganz richtig. Beim Bayer oder X trans wird das Blaue Licht welches auf die Rot und Grünflächen fällt reflektiert oder in Wärme umgewandelt.

Richtig (vom Filter absorbiert, folglich in Wärme umgewandelt).

Bei 3CCD und Schichtansätzen passiert das nicht.

Richtig, dort (3CCD) wird das Licht nicht gefiltert, sondern vom Prisma gebrochen, also in 3 Lichtstrahlen aufgeteilt.

Ergo 4x höhere Lichtmenge für RB und doppelte für G. Durch den Mehrschichtaufbau geht dieser Vorteil leider wieder verloren.

Nein. Wie soll das physikalisch gehen? Das wäre eine wundersame Vermehrung der Photonenmenge. Ein Prisma teilt (teilen ist das Schlüsselwort) den Strahl in mehrere "kleinere", die Photonenmenge bleibt gleich, die Summe der Teilstrahlen gleicht dem Ausgangsstrahl.

Als Beispiel der rote Pixel: für das auf ihn treffende Licht spielt es keine Rolle, was mit dem Grün- und Blauanteil des Photonenstroms geschieht. Ob dieser nun vom Farbfilter absorbiert oder am Prisma woandershin umgelenkt wird, der rote Pixel bekommt nur seinen roten Anteil. Im Anhang eine Illustration, die das darstellt (Quelle: http://www.infaimon.com/content/images/thumbs/0002927.jpeg), wäre das ein Farbfilter, so würden der grüne und der blaue "Pfeil" absorbiert werden, ohne aber die Intensität des roten zu beeinträchtigen. Dass beim Prismaansatz der Blau- und Grünanteil nicht "verschwendet" werden, sondern zu den anderen Sensoren umgelenkt werden ist wahr, doch der besagte rote Pixel selbst kriegt davon nichts mit.

@donesteban und e-Pawel
Ihr beide seid also der Ansicht, dass aktuelle Kameras in Sachen Dynamik und Farbtiefe gut genug sind?

Nein, ganz und gar nicht. Habe dies ich auch an keiner Stelle zum Ausdruck gebracht. Stattdessen eher geäußert, der RGBW-Sensor könnte theoretisch analog zur Funktionsweise eines SR-Sensors von Fuji für gar noch mehr Dynamik sorgen.
 

Anhänge

Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten