• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Warum immer noch Bayer statt "true RGB"?

Gast_458304

Guest
Hi!

Wenn ich das rech tin Erinnerung habe, war doch das Bayer-Pattern seinerzeit eher eine "Notlösung", um aus den damals doch arg kleinen auf einem Chip realisierbaren Pixelmengen möglichst viel (nominelle) Auflösung rauszukitzeln.

Könnte man da jetzt nicht mal einen Sensor bauen, der einfach "echte" RGB-Tupel pro auszugebendem Bildpunkt hat, und damit auf die Interpolation verzichten?

Also ich meine jetzt nicht sowas wie Foveon oder so, sondern einfach immer drei nebeneinanderliegende Punkte, einer pro Farbe, und die werden für jeden Ausgabe-Pixel gemeinsam ausgelesen, ohne sich da (wie es ja beim Bayer-Muster geschieht) RGB-Information von den danebenliegenden Pixeln "auszuleihen".

Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.

OK, 7MP, noch dazu bei einer "großen" Kamera, klingen halt weniger hip als 21, aber da können sich ja die Marketingfritzen gerne was einfallen lassen, von wegen " FullRes HyperTrue Super RGB" oder so, macht man ja sonst auch bei jeder passenden oder unpassenden Gelegenheit.

Oder ein RGBI-Muster (also RGB plus ein ungefilterter Subpixel pro Ausgabepunkt), und dann könnte die Cam ja wahlweise die Sensordaten "Echt-RGB" (evtl. unter Mitnutzung des "Helligkeits-Subpixels" zur Dynamikverbesserung) verarbeiten oder eben falls gewünscht in einem "Bayer-ähnlichen" Interpolationsmodus aus demselben RAW ein Bild mit höherer nomineller Auflösung draus machen.

Oder liege ich da irgendwo falsch?
 
Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.
Und trotzdem unterm Strich keine Mehrinformation (sondern weniger).
 
... einfach immer drei nebeneinanderliegende Punkte, einer pro Farbe, und die werden für jeden Ausgabe-Pixel gemeinsam ausgelesen, ohne sich da (wie es ja beim Bayer-Muster geschieht) RGB-Information von den danebenliegenden Pixeln "auszuleihen".
Was ist denn gar so schlimm an Bayer?

Wer sich nicht über die Nachbarpixel informiert, rennt in noch größere Probleme hinein, denn Aliasing gibt es dann immer noch bzw. sogar noch ausgeprägter.

Übrigens: unsere eigenen Augen haben auch keine "Echtfarbsensoren", sondern sie arbeiten mit einem (unregelmäßigeren) Farbmosaik.

Eine *echte* Farbseparation würde dichroitische Farbteiler (Spiegel oder Prismen) erfordern. Das würde entweder ein echtes 3-Sensor-System bedingen oder im Fall einer Miniaturisierung der Farbteiler würden *im Sensor* mehrere Ladungstöpfe arrangiert werden müssen. Auf einer gemeinsam mit allen Pixeln zu teilenden Sensorfläche wäre das kein Vorteil. Könnte man das Design in der Sensortiefe ("stacked sensors", ...) realisieren, dann könnte es attraktiv sein. Derzeit ist da aber nach meinem Kenntnisstand noch nichts in Sicht.

Was echte 3-Sensor-Systeme angeht, gibt es das bei 3-CCD-Videokameras aber nicht im hoch auflösenden Kamerasegment. Technisch dürfte dies im Hinblick auf die (bestehenden) Objektivdesigns und die Winkelabhängigkeit der Farbteilerschichten schwierig werden.
 
Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.

Leider nicht, denn drei (oder bei RGBG vier) nebeneinander liegende Subpixel sind kein vollwertiges Farbpixel.

Aber selbst wenn das funktionieren würde: Toll, der angenommene 21MP-Sensor liefert mir ein scharfes 7MP-Bild. Die Bayer-Interpolation dagegen liefert etwa doppelt so viel Netto-Bildauflösung.

Wurde alles in dem in #2 verlinkten Thread ausgiebig diskutiert. Läßt sich mit dcraw auch selbst nachvollziehen.
 
Re: Warum immer noch Bayer statt "True RGB"?

Könnte man da jetzt nicht mal einen Sensor bauen, der einfach "echte" RGB-Tupel pro auszugebendem Bildpunkt hat, und damit auf die Interpolation verzichten?
Klar könnte man. Aber warum sollte man so etwas dummes tun?


Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDES dieser sieben Millionen Pixel.
Ja ... und eine schlechtere Bildqualität als mit 21 Mio. Bayer-Pixel.

Sicher sind N Bayer-Pixel ein Kompromiß ... aber immer noch besser als N/3 oder gar N/4 RGB-Pixel.
 
Hi!
Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.
Oder liege ich da irgendwo falsch?

Das wären gerade mal 5 Megapixel. Du brauchst nämlich immer 4 Pixel (1 X rot R, 2 X grün G und 1 X blau B) um eimal die gesamte Farb-Information für einen Pixel interpolationsfrei auszulesen.
Etwas ähnliches gibt es schon seit 2012 im Nokia Handy Lumia 808 ab 2013 Nokia Lumia 1020.
41 Megapixel werden zu 5 Megapixeln mit höherer Farbinformation zusammengerechnet.
 
Das wären gerade mal 5 Megapixel. Du brauchst nämlich immer 4 Pixel (1 X rot R, 2 X grün G und 1 X blau B) um eimal die gesamte Farb-Information für einen Pixel interpolationsfrei auszulesen.

Du "brauchst" nur 3 Sensel für die Farbinformation eines Pixels.

Etwas ähnliches gibt es schon seit 2012 im Nokia Handy Lumia 808 ab 2013 Nokia Lumia 1020. 41 Megapixel werden zu 5 Megapixeln mit höherer Farbinformation zusammengerechnet.

Ja, aber das machen die nicht auf die hier vorgeschlagene Methode, sondern mit ganz normaler Bayer-Interpolation und Skalierung.
 
Ich finde den Vorschlag "true RGB" statt Bayer gut, würde ihn aber noch ausbauen. Statt 3x7 Mio Pixel, die dann zu 7 Mio Pixel verrechnet werden, würde ich nur 3 Pixel einbauen, die dann zu einem verrechnet werden. Das hätte gleich mehrere Vorteile:

1. Die Bilder würden selbst auf Pixelebene praktisch nicht rauschen.

2. Die Bilder wären alle pixelscharf.

3. Man müsste bei weitem nicht so genau arbeiten wie bei den Megapixelmonstern, die ja bekanntlich ein sehr genaues Arbeiten voraussetzen. Immer wäre alles pixelscharf (siehe 2.)

4. Alle meine billigen Objektive könnten die Auflösung des Sensors ohne Weiteres bedienen.
 
Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.
Die Frage ist doch, wie man es technisch realisieren kann, 3 Farbsignale aus der gleichen Pixelfläche zu erzeugen. Das ist technisch viel komplizierter als eine Bayer-Filtermatrix. Wenn man die Subpixel nebeneinander setzt wie beim Monitor hat man ähnliche Probleme wie mit der Bayer-Matrix, weil die Farbinformation jeweils für einen Teil der Fläche fehlt und muss wiederum interpolieren.

Abgesehen davon gibt es durch die größeren Pixel eher mehr Moiré-Anfälligkeit bei niedrigeren Frequenzen.

L.G.

Burkhard.
 
Eine *echte* Farbseparation würde dichroitische Farbteiler (Spiegel oder Prismen) erfordern. Das würde entweder ein echtes 3-Sensor-System bedingen oder im Fall einer Miniaturisierung der Farbteiler würden *im Sensor* mehrere Ladungstöpfe arrangiert werden müssen. Auf einer gemeinsam mit allen Pixeln zu teilenden Sensorfläche wäre das kein Vorteil. Könnte man das Design in der Sensortiefe ("stacked sensors", ...) realisieren, dann könnte es attraktiv sein. Derzeit ist da aber nach meinem Kenntnisstand noch nichts in Sicht.
Das hier von Samsung könnte Dich interessieren.
 
Mal geschwinde mit einem Zeichenstift ein theoretisches Konzept hinzupinseln - das hätte ich auch geschafft. Nein im Ernst: real interessieren würde mich das allenfalls dann, wenn die technische Realisierung gelingt und dabei die Ladungstöpfe größer oder/und die Quanteneffizienz höher würden.

In der Skizze liegen die Ladungstöpfe doch wieder nebeneinander. Das bringt gegenüber einer absorptiven Maske (aka: Bayer) kaum Vorteile - auch wenn die Farbseparation mit dichroitischen Spiegeln angedeutet wird. Im Gegenteil: das Objektiv würde an den dichroitischen Flächen Licht in unterschiedlichen Auftreffwinkeln anliefern, so dass die apparenten Farben von der Blendeneinstellung und der Sensor-seitigen Telezentrizität des Strahlenganges abhängig würden. Ob das eine so clevere Idee ist?
 
Mal geschwinde mit einem Zeichenstift ein theoretisches Konzept hinzupinseln ...
Welches theoretisches Konzept?

Die Zeichnungen haben nichts gemein mit dem, was sich in Chips so abspielt.
Das, was da hingekritzelt wurde, mag zumindest noch für Pixel der Größenklasse 24 µm x 24 µm und größer was mit Theorie zu tun haben.

Aktuelle Sensoren sind Hochhäuser.
Frontfläche 1...4 µm ins Quadrat, Höhe 8...20 µm.
Das sieht so was wie http://3.bp.blogspot.com/-RG4ayvnVK...FbIrA_43ZQU/s400/Samsung+Color+Splitter-1.JPG einfach nur albern aus.

Typische Feldverteilungen in Sensoren mit 2 µm Pixeln sehen etwa so aus:
http://imagebank.osa.org/getImage.xqy?img=cCF6ekAubGFyZ2Usb2UtMTUtOS01NDk0LWcwMDc.
Bei schrägen Einfall http://imagebank.osa.org/getImage.xqy?img=LmxhcmdlLG9lLTE1LTktNTQ5NC1nMDA4.

Es gibt mittlerweile Sensoren mit der 3,2fachen Flächendichte.

Suche bei Google: https://www.google.de/search?q=poynting+vector+cmos+sensor&newwindow=1&source=lnms&tbm=isch
 
Hi!

Wenn ich das rech tin Erinnerung habe, war doch das Bayer-Pattern seinerzeit eher eine "Notlösung", um aus den damals doch arg kleinen auf einem Chip realisierbaren Pixelmengen möglichst viel (nominelle) Auflösung rauszukitzeln.

Könnte man da jetzt nicht mal einen Sensor bauen, der einfach "echte" RGB-Tupel pro auszugebendem Bildpunkt hat, und damit auf die Interpolation verzichten?

Also ich meine jetzt nicht sowas wie Foveon oder so, sondern einfach immer drei nebeneinanderliegende Punkte, einer pro Farbe, und die werden für jeden Ausgabe-Pixel gemeinsam ausgelesen, ohne sich da (wie es ja beim Bayer-Muster geschieht) RGB-Information von den danebenliegenden Pixeln "auszuleihen".

Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.

OK, 7MP, noch dazu bei einer "großen" Kamera, klingen halt weniger hip als 21, aber da können sich ja die Marketingfritzen gerne was einfallen lassen, von wegen " FullRes HyperTrue Super RGB" oder so, macht man ja sonst auch bei jeder passenden oder unpassenden Gelegenheit.

Oder ein RGBI-Muster (also RGB plus ein ungefilterter Subpixel pro Ausgabepunkt), und dann könnte die Cam ja wahlweise die Sensordaten "Echt-RGB" (evtl. unter Mitnutzung des "Helligkeits-Subpixels" zur Dynamikverbesserung) verarbeiten oder eben falls gewünscht in einem "Bayer-ähnlichen" Interpolationsmodus aus demselben RAW ein Bild mit höherer nomineller Auflösung draus machen.

Oder liege ich da irgendwo falsch?

Solange sich Elektronikschrott gut verkauft, wird kaum ein Hersteller mit einem nativen RGB-Sonsor ein Wagnis eingehen, der Schuss kan ja schließlich auch nach hinten losgehen.

Es ist eben wie mit der Sony A7S/A7SII, ca 90 % der (potenziellen) Kunden haben kein Verständnis, weshalb eine nur 12 MP Kamera 2K€/3,6K€ kosten soll.

Wenn sich ein überholter Schrott-Bayer-Filter-Sensor die letzten 20 Jahre (oder mehr) gut verkauft hat (indem man dem Kunden die 4 Fache Auflösung von der tatsächlich vorhandenen per Hokus-Pokus-Müll-Interpolationsalgorithmen hochskaliert), wird er sich auch die nächsten 200 Jahre weiterhin gut verkaufen (wir erinnern uns an Nokia...), es sei denn, da kommt ein Hersteller mit einem reinen nativen RGB-Follvormat-Sensor (ohne Antialiasing-Filter) mit 31,5 Megapixeln. Das native RGB hätte dann genau 31,5 / 3 = 10,5 Millionen RGB-Pixel, also perfekt für Ultra HD Bildschirme mit ein bisschen mehr oben und unten.
Im übrigen sind auf dem Vollformatsensor ohne AA-Filter bis zu 100 MP mit Bayer-Filter unbedenklich möglich (ein Zeiss FE 55 mm oder Sigma ART ist natürlich Voraussetzung, sollte jedem klar sein).

Mit Interpolations berechnete Bilder sind übrigens nichts anderes als Pixelbrei in der 1:1 Ansicht. Die Problematik besteht darin, dass die meisten Kunden mit eben diesem Pixelbrei arbeiten, weil sie es inzwischen gewohnt sind. Zum schärfen werden billige Softwarealgorithmen eingesetzt, anstatt mit qualitativ hochwerigen Objektiven auf Software-Interpolation,Schärfen,Entrauschen und und und gänzlich zu verzichten.

Die moderne Fotografie ist gänzlich zu einer Fotomontagie verkommen. Die reine Fotografie gibt es fast nicht mehr.

Stellt man hier im Fotoforum eine Frage in den Raum um Bild ohne Interpolation zu erhalten, wird einem die Tür von 1000 Interpolations-Fanboys eingerannt.

Alle meine Bilder jage ich durch originalraw mit dcraw zero mod, was dabei rauskommt ist zu 100 % reine Fotografie.

Dir sollte klar sein, dass homogenge Bilder in nativer RGB-Auflösung auf beschissenen Vollformat-Bayer-Filter-Sensoren nur auf 639 mm2 entstehen können anstatt bei einem RGB-Sensor auf 852 mm2.

Weitere Infos darüber findest du unter:

http://www.zeeshan.de/fotografie_pixelgroesse/Pixeldichte_Digitalkamera.html


http://www.zeeshan.de/fotografie_interpolation/0_fotografie_interpolation.htm

Vielleicht traut sich mal ein Hersteller mit einem reinen RGB-Sensor (ohne AA-Filter), its a day-one-buy.
 
Bei den Beispielbildern sieht man sehr schön das Problem mit den Farbsäumen, die dadurch entstehen, dass die Farbpixel nicht deckungsgleich sind. Das ist nicht das, was auf dem Sensor ankam. Was du erzeugst, sind ja nicht echte RGB-Bilder, sondern du interpolierst die fehlenden Farbflächen durch ein benachbartes Pixel der entsprechenden Farbe. Solange man das Problem nicht löst, liefert ein AHD-interpoliertes und mit Lanczos 3 auf 50% herunterskaliertes Bild das qualitativ bessere Ergebnis. (Der Vergleich mit der 6 MPx-Kamera ist schon wegen des vermutlich stärkeren AA-Filters unfair.)

L.G.

Burkhard.
 
Nicht die Trolle füttern, bitte.

(Wer will überhaupt einzelne Pixel sehen? Ist ein "pixelscharfes" Bild mit 7 Mio. scharfen Pixeln besser als ein im Ganzen und bei gleicher Ausgabegröße betrachtet mindestens genauso hoch auflösendes Bild mit 21 Mio. weniger scharfen Pixeln?)
 
WERBUNG
Zurück
Oben Unten