Wir sind ja bei der D800. Allerdings bei einem Detail
Jede Fotozelle erfasst NUR Helligkeitsinformation. Die Farben entsehen dadurch, dass die Fotozellen jeweils einen Filter erhalten der nur R, G oder B durchlässt und somit jeweils die Helligkeitsinformation für eine Teil-Farbe gespeichert wird. Auf der Bayermatrix einmal R zweimal G einmal B.
Wir haben also 4 Helligkeitsinformationen und 3 Teilfarbinformationen und können damit für 4 Pixel 4 mal etwas über die Helligkeitsverteilung und 1 mal etwas über die reale Farbe sagen.
Nein, wir können für die Matrix aus 2x2 Pixeln nur etwas zu den Intensitäten den 3 Teilfarben etwas sagen. Ich benutze absichtlich noch nicht den Begriff Helligkeit.
Ansatz 1: keine Interpolation -> echte Auflösung = 1/4 der Sensor- MP- Zahl
Ich kann die R- G- und B- Werte der Farb- Pixel nehmen und daraus für die
gesamte 2x2 Matrix eine Aussage zu einem Farbpunkt ableiten. Meinetwegen im HSL- Modell, deren einer Parameter die Helligkeit ist.
- aber nur eine Helligkeit für diese 2x2 Matrix und keinen Verlauf!
- für diese 2x2 Matrix sind die gewonnenen Werte genau bestimmt und es ist die maximal erreichbare Genauigkeit
Ansatz 2: Interpolation -> interpolierte Auflösung des Sensor- MP- Zahl
Ich schau mir jetzt nicht die 2x2 Matrix an, denn die liefert 3 verschiedene Informationen zu verschiedenen Farben, die ich nicht interpolieren kann (ich kann zwar 4 Äpfel und 3 Birnen zusammen wiegen und erhalte x kg Obst. Ich kann aber aus dem Gewicht allein nicht auf die Anzahl der Äpfel oder Birnen schließen).
Ich vergleiche jetzt benachbarte Pixel gleicher Farben. Gemäß der Bayer- Matrix liegt zwischen den Pixeln gleicher Farbe immer ein Pixel einer anderen Farbe.
Ich kann nun aus den Intensitäten zweier gleichfarbiger Pixel die Intensität für das dazwischenliegende,
nicht vorhandenes gleichfarbiges Pixel
interpolieren.
Ich bekomme so für eine Matrix aus
mindestens 3x3 Pixeln = 9 Pixeln für jede der Farben 2 richtige Intensitäten und eine interpolierte Intensität.
- ich kann für die schrittweise Berechnung der Interpolation z.B. den betrachteten 3x3 Ausschnitt gleitend verschieben und bekommen den Verlauf der Intensität für die Farbwerte jeweils aus 2 echten und einem interpolierten Wert
- nach der Interpolation habe ich für jedes "im Sinne der MP- Angabe zählende) Pixel einen echten Wert der Intensität, nämlich die gemessene Intensität für die Filterfarbe dieses Pixels und 2 interpolierte Intensitäten der beiden anderen Farben
Aus diesem kann ich dann je nach Farbmodell z.B. die Helligkeit berechnen.
Aber wie auch immer: pro Pixel erhalte ich nur
eine echte Information für eine Farbe. Die beiden anderen werden interpoliert.
Ich hoffe, dass war wieder nicht zu weit weg von der D800
Gruß
ewm
Hier der gewünschte Link:
http://www.heise.de/foto/artikel/Echte-und-bunte-Pixel-228562.html