Ein einfaches Beispiel.
Eine ganz einfache Kamera mit 4 Pixel (2 in der Höhe, 2 in der Breite)
- Das erste Pixel links oben hat ein rotes Filter und kann das rote Licht mit 14bit Genauigkeit aufnehmen.
- Das zweite Pixel, rechts oben, hat ein grünes Filter und ebenfalls 14bit
- Das dritte Pixel, links unten ist ebenfalls mit einem grünen Filter versehen und auch 14bit
- Das vierte und letzte Pixel rechts unten hat ein blaues Filter mit 14bit.
Egal was nach der Erzeugung des JPEG's oder eines TIFF für ein Datenformat zum abspeichern verwendet wird (3x8bit, 3x16bit oder gar 3x256bit), die in den 4 Pixeln jeweils abgelegte tatsächliche Farbinformation ist in keinem Fall 3x14bit (oder 3x12bit).
LG,
Andy
Hallo,
ist das wirklich so ? Dann könnte ja jedes Pixel nur eine Farbinformation aufnehmen (also nur einen Helligkeitswert von Rot, Grün oder Blau) ?
Ich bin bisher davon ausgegangen, dass jedes einzelne Pixel auf dem Sensor so aufgebaut ist, dass die Helligkeitswerte von Rot, Grün und Blau (also das Lichtwellenspektrum, das für uns Rot, Grün und Blau darstellt) aufnimmt. Bei 8 Bit wären das 256 verschiedene Helligkeitsstufen (bzw. 0 für kein Anteil im entsprechenden Spektrum, 255 für die max. durch den Sensor messbare Intensität) und bei 14 Bit 16384. Damit kann dann im Foto jedes Pixel in der entsprechenden Mischfarbe aus den Anteilen R, G und B dargestellt werden.
Die Auflösung kann nun als Wert für die Anzahl der Pixel eines Fotos (z.B 4000x3000 = 12MPixel) angegeben werden und mit der Info der Farbtiefe pro Pixel (also zB 8 Bit, 12Bit oder 14 Bit).
Oder man könnte jede Farbe eines Pixels mitzählen (also R, G und B), damit verdreifacht man zwar den Wert, aber ich wüsste nicht wofür, das sinnvoll wäre (ausser bei Kameras, die zusätzlich Bildinfos in den Subpixeln liefern -echte Monochromkameras ?)
So hab ich jedenfalls bisher verstanden
Edit: stimmt aber nicht - hab mir gerade den Aufbau des Bayer-Sensors angeschaut, das ist es ja ausführlich beschrieben (es gibt allerdings auch noch Direktbild- oder Three-Shot-Sensoren, die für jedes Pixel wie oben beschrieben die Helligkeitswerte der einzelnen Grundfarben aufnehmen, da ist dann kein Demosaicing notwendig)
Viele Grüsse