Da haben wir uns missverstanden. Das mit der Sensorgröße stimmt im gewissen Rahmen, wenn man nicht weis was die Basiseinheit ist, sprich der Durchmesser des Glaskolbens (nicht die aktive Fläche) der ersten Aufnahmeröhren (1 Zoll) und das die Werte darauf bezogen werden und somit zu der falschen Berechnungen kommt, Gott sei dank sind bei den mich interessierenden Sensoren die Angaben immer in mm 36,8*49,1mm z.B oder APS-C.... Übrigens ist das Verfahren nicht ungewöhnlich. Röhrenfernseher werden nach dem gleichen Verfahren bemessen, deswegen wundern sich viele wie groß ein LCD-Fernseher im Vergleich zu einem ''gleich großen" Röhrenfernseher wirkt.
Ich weiss, woher die bekloppten Zahlen kommen, Du weisst es. Aber bei größeren Sensoren wird es dann wieder anders gemacht. TFT-Fernseher und -Monitore geben ihre Diagonale ja auch ehrlich an und nicht auf irgendwelche virtuellen Röhren bezogen. Die CCD-Röhren-Geschichte mag bei Videokameras anfangs noch sinnvoll gewesen sein, bei Fotoapparaten ist sie es nicht mehr.
Aber mit deiner Aussage ''Nein, aus vier einfarbigen Pixeln im Sensor (RGBG) werden vier vollfarbige errechnet'' bin ich nicht einverstanden. Aus den 4 Zahlen von den 4 Pixeln eines Bayer-Sensors läßt sich genau ein Wert rechnen nicht mehr
Es lassen sich schon mehr Werte daraus errechnen, denn sonst hätten ja die Bilder, die wir betrachten, nur ein Viertel der Pixel auf dem Sensor (oder ganz schreckliche Treppenartefakte).
Aber ich glaube, wir meinen das gleiche. Ich hatte Deine ursprüngliche Aussage so verstanden, dass eine 10-Megapixel-Kamera 4*10 Photosites besitzt, was sie natürlich nicht tut (SuperCCDs lassen wir jetzt mal außen vor).
Sensor:
A1 A2 A3 A4 A5 A6 A7 A8
B1 B2 B3 B4 B5 B6 B7 B8
C1 C2 C3 C4 C5 C6 C7 C8
D1 D2 D3 D4 D5 D6 D7 D8
So, wenn wir daraus jetzt das Bildpixel an Position 3,3 (von links oben) konstruieren wollen, nehmen wir:
C3 für den Blauwert,
(
B3 +
C2 +
C4 +
D3) / 4 für den Grünwert und
(
B4 +
D4 +
C1 +
C5) / 4 für den Rotwert.
Das ist natürlich vereinfacht, aber man sieht, dass in diesem Beispiel die Rotauflösung nicht besonders gut ist, die für rot empfindlichen Photosites sind alle ganz schön weit weg.
Deswegen wird meiner Ansicht nach folgendes Auswertemuster benutzt.
Pixel 1
GRGRGRGRGRGRG
*BG*BGBGBGBGBGB
*GR*GRGRGRGRGRG
BGBGBGBGBGBGB
GRGRGRGRGRGRG
Pixel 2
GRGRGRGRGRGRG
B*GB*GBGBGBGBGB
G*RG*RGRGRGRGRG
BGBGBGBGBGBGB
GRGRGRGRGRGRG
Pixel n+1
GRGRGRGRGRGRG
BGBGBGBGBGBGB
*GR*GRGRGRGRGRG
*BG*BGBGBGBGBGB
GRGRGRGRGRGRG
und für ein Bild (4672 * 3104 ) werden 14.501.888 * 14 Bit technisch (Leistungsgrenze des Wandlers), aber damit der Prozesser und der Speicher besser zu Rande kommen wahrscheinlich 14.501.888*16 Bit benötigt. Also 27,660 MByte (1024 Basis) unkomprimiert. Wenn des PEF Format diese 16 Bit-Information auf 14 Bit verkürzt würde das Roh-Bild in 12,101 MByte auf 12 Bit verkürzt in 10,372 MByte passen. Dies Art der Zusammfassung ist eine übliche Form der verlustfreien Datenkomprimierung.
Absolut richtig! Wahrscheinlich wird sogar noch ZIP-komprimiert oder etwas in der Art; der Größenunterschied zwischen PEF und DNG ist ja bei der K20D doch deutlicher.
Die Idee des Foveonsensors finde ich gut, schade ist nur das er nicht richtig aus den Puschen kommt. Eine Verbesserung der Ortsauflösung um den Faktor 2 ist ja nicht zu verachten.
Ja. Ich füchte, die Kooperation mit der kleinen Sigma war für die Foveon-Leute ein "
weißer Elefant". Wenn jemand mal richtig Geld reinstecken und dem Foveon mehr Auflösung und vor Allem Rauscharmut beibringen könnte, wäre der genial. Man stelle sich nur eine Kooperation von Fuji und Foveon vor...