AW: Neuer Kodak Sensor, sowas für die neue E-3?
bei "klassischen" Bayer-Sensoren ist das Verhältnis R:G:B 25%:50%:25:, da aus den grünen Pixeln die Luminanz ausgelesen wird (warum das so gemacht wird, hab ich irgendwann mal irgendwo gelesen, weiss ich aber nicht mehr)
beim neuen Kodak-Sensor dagegen sind für Luminanz nur die p-Pixel zuständig [panchromatic heisst ja "alle Farben", entspricht Luminanz], und da die alle Wellenlängen sammeln, können die auch keine Farbinformation liefern: dafür gibt es dann die RGB-Pixel, deren Verhältnis untereinander ist offenbar 1:1:1, während das Verhältnis p-Pixel zu RGB ebenfalls 1:1 sein wird, also:
50% p-Pixel
je 16,67% R+G+B
die Farben werden offenbar bei diesem neuen Sensor aus den RGB-Pixeln auf das ganze Bild hochgerechnet, also auf die Luminanzpixel interpoliert (im Prinzip wird das ja jetzt auch schon so gemacht, lediglich mit anderer Technik)
beim Fuji-Sensor hingegen sind bei HR (High Resolution) lediglich die Pixel achteckig & haben so mehr Fläche; nur beim SR-Sensor (verbaut aktuell nur mehr in Fuji-DSLRs, früher auch in Kompakten) gibt's doppelte Pixel, nämlich kleine Pixel (r-Pixel, die vor allem Luminanz "unterstützen") und grosse Pixel (s-Pixel: die Auflösung wird eigentlich durch diese limitiert) - ein interpoliertes Fuji-SR-Bild (also aus 6 MP der S5 ein 12 MP-Bild) liefert somit nicht dieselbe Detailmenge wie ein "echtes" 12-MP-Bild; davon abgesehen gibt es beim Fuji SuperCCD auch Bayer-RGB-Flächenfilter, lediglich in anderer Anordnung (rautenförmig)
Farbinterpolation gibt es bei allen diesen "Bayer-Type" oder auch neuem "Kodak-Type"-Sensoren; nur bei einem Dreischichtsensor wie dem Fovoen ist die nicht nötig
jedenfalls, was auch kommen mag: doch ein gutes Gefühl, dass Kodak im FourThirds-Konsortium drin ist & hoffentlich auch drinzubleiben gedenkt
EDIT: ach ja, zu ergänzen wäre noch was eigentlich recht wichtiges, die Antwort auf die Frage "warum bringen die p-pixel was?" easy: ein RGB-Filter filtert einen grossen Teil des sichtbaren Lichts aus, es kommt weniger Licht am Sensor an; ein p-Pixel ohne diese Vorfilterung nimmt mehr Licht auf, daher auch das bessere Rauschverhalten; das bisher übliche Bayer-Pattern "verschwendet" sozusagen Photonen
Nachteil könnte sein, dass durch die Farbinterpolation von lediglich 50% der Pixelfläche auf den Rest (davor 75% mit je 25% RGB - 25% G sind ja bisher schon für Luminanz zuständig) mehr Farbinformation verloren geht: andrerseits, dieser Sensor würde sich deswegen vermutlich besser für s/w eignen als "normale" Bayer-Sensoren
Hört sich gut an. Die panchromatischen Pixel erhöhen die Empfindlichkeit des Sensors. Sie erkennen alle Wellenlängen. Die color-pixels sammeln die Farbinformationen- Heißt also, wenn ich das richtig verstehe, dass die p-Pixel reine Helligkeitsinformationen sammeln. Oder doch Helligkeit und Farbe? Aber warum werden dann nicht nur p-Pixel eingesetzt. Und können fehlende Farbinformationen tatsächlich einfach so errechnet werden?
bei "klassischen" Bayer-Sensoren ist das Verhältnis R:G:B 25%:50%:25:, da aus den grünen Pixeln die Luminanz ausgelesen wird (warum das so gemacht wird, hab ich irgendwann mal irgendwo gelesen, weiss ich aber nicht mehr)
beim neuen Kodak-Sensor dagegen sind für Luminanz nur die p-Pixel zuständig [panchromatic heisst ja "alle Farben", entspricht Luminanz], und da die alle Wellenlängen sammeln, können die auch keine Farbinformation liefern: dafür gibt es dann die RGB-Pixel, deren Verhältnis untereinander ist offenbar 1:1:1, während das Verhältnis p-Pixel zu RGB ebenfalls 1:1 sein wird, also:
50% p-Pixel
je 16,67% R+G+B
die Farben werden offenbar bei diesem neuen Sensor aus den RGB-Pixeln auf das ganze Bild hochgerechnet, also auf die Luminanzpixel interpoliert (im Prinzip wird das ja jetzt auch schon so gemacht, lediglich mit anderer Technik)
beim Fuji-Sensor hingegen sind bei HR (High Resolution) lediglich die Pixel achteckig & haben so mehr Fläche; nur beim SR-Sensor (verbaut aktuell nur mehr in Fuji-DSLRs, früher auch in Kompakten) gibt's doppelte Pixel, nämlich kleine Pixel (r-Pixel, die vor allem Luminanz "unterstützen") und grosse Pixel (s-Pixel: die Auflösung wird eigentlich durch diese limitiert) - ein interpoliertes Fuji-SR-Bild (also aus 6 MP der S5 ein 12 MP-Bild) liefert somit nicht dieselbe Detailmenge wie ein "echtes" 12-MP-Bild; davon abgesehen gibt es beim Fuji SuperCCD auch Bayer-RGB-Flächenfilter, lediglich in anderer Anordnung (rautenförmig)
Farbinterpolation gibt es bei allen diesen "Bayer-Type" oder auch neuem "Kodak-Type"-Sensoren; nur bei einem Dreischichtsensor wie dem Fovoen ist die nicht nötig
jedenfalls, was auch kommen mag: doch ein gutes Gefühl, dass Kodak im FourThirds-Konsortium drin ist & hoffentlich auch drinzubleiben gedenkt

EDIT: ach ja, zu ergänzen wäre noch was eigentlich recht wichtiges, die Antwort auf die Frage "warum bringen die p-pixel was?" easy: ein RGB-Filter filtert einen grossen Teil des sichtbaren Lichts aus, es kommt weniger Licht am Sensor an; ein p-Pixel ohne diese Vorfilterung nimmt mehr Licht auf, daher auch das bessere Rauschverhalten; das bisher übliche Bayer-Pattern "verschwendet" sozusagen Photonen
Nachteil könnte sein, dass durch die Farbinterpolation von lediglich 50% der Pixelfläche auf den Rest (davor 75% mit je 25% RGB - 25% G sind ja bisher schon für Luminanz zuständig) mehr Farbinformation verloren geht: andrerseits, dieser Sensor würde sich deswegen vermutlich besser für s/w eignen als "normale" Bayer-Sensoren
Zuletzt bearbeitet: