Gast_458304
Guest
Hi!
Wenn ich das rech tin Erinnerung habe, war doch das Bayer-Pattern seinerzeit eher eine "Notlösung", um aus den damals doch arg kleinen auf einem Chip realisierbaren Pixelmengen möglichst viel (nominelle) Auflösung rauszukitzeln.
Könnte man da jetzt nicht mal einen Sensor bauen, der einfach "echte" RGB-Tupel pro auszugebendem Bildpunkt hat, und damit auf die Interpolation verzichten?
Also ich meine jetzt nicht sowas wie Foveon oder so, sondern einfach immer drei nebeneinanderliegende Punkte, einer pro Farbe, und die werden für jeden Ausgabe-Pixel gemeinsam ausgelesen, ohne sich da (wie es ja beim Bayer-Muster geschieht) RGB-Information von den danebenliegenden Pixeln "auszuleihen".
Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.
OK, 7MP, noch dazu bei einer "großen" Kamera, klingen halt weniger hip als 21, aber da können sich ja die Marketingfritzen gerne was einfallen lassen, von wegen " FullRes HyperTrue Super RGB" oder so, macht man ja sonst auch bei jeder passenden oder unpassenden Gelegenheit.
Oder ein RGBI-Muster (also RGB plus ein ungefilterter Subpixel pro Ausgabepunkt), und dann könnte die Cam ja wahlweise die Sensordaten "Echt-RGB" (evtl. unter Mitnutzung des "Helligkeits-Subpixels" zur Dynamikverbesserung) verarbeiten oder eben falls gewünscht in einem "Bayer-ähnlichen" Interpolationsmodus aus demselben RAW ein Bild mit höherer nomineller Auflösung draus machen.
Oder liege ich da irgendwo falsch?
Wenn ich das rech tin Erinnerung habe, war doch das Bayer-Pattern seinerzeit eher eine "Notlösung", um aus den damals doch arg kleinen auf einem Chip realisierbaren Pixelmengen möglichst viel (nominelle) Auflösung rauszukitzeln.
Könnte man da jetzt nicht mal einen Sensor bauen, der einfach "echte" RGB-Tupel pro auszugebendem Bildpunkt hat, und damit auf die Interpolation verzichten?
Also ich meine jetzt nicht sowas wie Foveon oder so, sondern einfach immer drei nebeneinanderliegende Punkte, einer pro Farbe, und die werden für jeden Ausgabe-Pixel gemeinsam ausgelesen, ohne sich da (wie es ja beim Bayer-Muster geschieht) RGB-Information von den danebenliegenden Pixeln "auszuleihen".
Dann hätte zwar ein jetzt mit "21 Megapixel" bezeichneter Sensor nur noch deren (weniger marketingtauglicher) sieben, aber die dafür ohne Wenn und Aber, mit VOLLER Helligkeits- UND Farbinformation für JEDEN dieser 7 Millionen Pixel.
OK, 7MP, noch dazu bei einer "großen" Kamera, klingen halt weniger hip als 21, aber da können sich ja die Marketingfritzen gerne was einfallen lassen, von wegen " FullRes HyperTrue Super RGB" oder so, macht man ja sonst auch bei jeder passenden oder unpassenden Gelegenheit.
Oder ein RGBI-Muster (also RGB plus ein ungefilterter Subpixel pro Ausgabepunkt), und dann könnte die Cam ja wahlweise die Sensordaten "Echt-RGB" (evtl. unter Mitnutzung des "Helligkeits-Subpixels" zur Dynamikverbesserung) verarbeiten oder eben falls gewünscht in einem "Bayer-ähnlichen" Interpolationsmodus aus demselben RAW ein Bild mit höherer nomineller Auflösung draus machen.
Oder liege ich da irgendwo falsch?