beiti
Themenersteller
Es gibt Kamerasensoren, die laut Werbung 48 oder 64 Megapixel Auflösung haben, aber die dazugehörigen Kameras geben standardmäßig nur 12 bzw. 16 Megapixel aus. Das wird erklärt mit einem Pixelbinning von jeweils 2 x 2 Pixeln, das für höhere Qualität bzw. höhere Lichtempfindlichkeit sorgen soll.
Ich selber kenne das Prinzip neuerdings von meinem Moto G30, aber der gleiche Sensor kommt bestimmt auch in anderen Kameras vor. Irgendwo im Netz gab es Hinweise, es sei ein Sony-Sensor.
Solange es sich auf die JPEG-Ausgabe bezieht, kann ich mir das Binning gut vorstellen. Im Grunde braucht man dazu nicht mal eine spezielle Technik: Einfach runterskalieren auf halbe Auflösung und gut. Ich sehe nicht, wozu der Sensor da etwas Spezielles können müsste.
Nun gibt mein Moto G30 aber auch Rohdateien (DNG) in 16 MP Größe aus, und das kann ich mir nicht so wirklich erklären. Wenn man vier Pixel zusammenfasst, hat man doch keine separaten Pixel für Rot, Grün und Blau mehr. Also jedes Pixelpaket hat bereits volle Farbinformationen (in grün sogar doppelt). Wie schaffen die es, daraus wieder eine "rohe" Bilddatei zu machen?
Lustigerweise bietet das G30 auch einen HighRes-Modus an, in dem tatsächlich die vollen 64 MP ausgegeben werden – dann aber nur in JPEG. Also an 64-MP-Rohdaten kommt man nicht ran.
Hat jemand eine Erklärung?
PS: Für den Fall, dass jemand eine Analyse anstellen will, habe ich hier eine solche DNG-Datei (30,7 MB) hochgeladen.
Ich selber kenne das Prinzip neuerdings von meinem Moto G30, aber der gleiche Sensor kommt bestimmt auch in anderen Kameras vor. Irgendwo im Netz gab es Hinweise, es sei ein Sony-Sensor.
Solange es sich auf die JPEG-Ausgabe bezieht, kann ich mir das Binning gut vorstellen. Im Grunde braucht man dazu nicht mal eine spezielle Technik: Einfach runterskalieren auf halbe Auflösung und gut. Ich sehe nicht, wozu der Sensor da etwas Spezielles können müsste.
Nun gibt mein Moto G30 aber auch Rohdateien (DNG) in 16 MP Größe aus, und das kann ich mir nicht so wirklich erklären. Wenn man vier Pixel zusammenfasst, hat man doch keine separaten Pixel für Rot, Grün und Blau mehr. Also jedes Pixelpaket hat bereits volle Farbinformationen (in grün sogar doppelt). Wie schaffen die es, daraus wieder eine "rohe" Bilddatei zu machen?
Lustigerweise bietet das G30 auch einen HighRes-Modus an, in dem tatsächlich die vollen 64 MP ausgegeben werden – dann aber nur in JPEG. Also an 64-MP-Rohdaten kommt man nicht ran.
Hat jemand eine Erklärung?
PS: Für den Fall, dass jemand eine Analyse anstellen will, habe ich hier eine solche DNG-Datei (30,7 MB) hochgeladen.