28 was? Megapixel? Wie soll man aus 12MP Ausgangsmaterial 28MP rausbringen? Wer erfindet die Details dazu die im 12MP-Ausgangsmaterial nicht vorhanden sind?
Wie ich schonmal geschrieben hab: Warum soll bei der D2x
Nyquist nicht gelten wonach man für ein Signal mit bestimmter Frequenz eine doppelt so große Abtastfrequenz benötigt. Das interpretier ich nunmal so dass man für ein hochfrequentes Lichtsignal (z.B. ein Zebramuster - das Standard-Beispiel um die "Ineffizienz" von Foveon zu demonstrieren) eine doppelt so hohe Auflösung benötigt um dieses abzubilden.
Bei Foveon hätte man diese Einschränkung nicht da jedes Pixel tatsächlich aus 3 Bildpunkten berechnet wird. Somit müsste eine DP1 theoretisch mit einer perfekten 9MP-Bayer-Kamera bei jedem denkbaren Motiv mithalten können (außer natürlich das Objektiv wäre zu schlecht oder die Frequenz des Bildsignals entspricht zufällig genau der Auflösung des Bayer-Sensors).
Oder wo ist da mein Denkfehler?
Nicht 28 MP. Sondern 28 im Chart von Dpreview. Das sind 2800 Linien (nicht paare) auf die Bildhöhe.
Der Foveon hat bei reinen s/W Mustern keine Vorteile. Es zählt nur die Grundpixelzahl.
Und Nyquist sagt: Mit 2800 Pixelreihen kann man 2800 Linien (oder 1400 Linienpaare) trennen, wenn sie parallel zu den Pixelreihen sind. Auf der Diagonalen ginge sogar noch mehr.
Bei reinen s/W Muster sind die 3 verschieden fabrenen Bildpunkten der Sigma Kameras nur einer, weil sie am gleich Ort übereinadner liegen. Wenn der rotempfindliche Teil schwarze Linie sieht, sieht der grüne und der blaue dieselbe Linie. Jetzt mach die Linien doppelt so fein, dann sieht der rote halb schwarz und halb weiss = einfach grau. Und der grüne und der blaue auch.
Die Beyer Matrix hat an derselben Stelle vier Subpixel (2 grüne, ein rotes und ein blaues). Die sind entsprechend viel kleiner als die Sigma Pixel bei gleicher Gesamtzahl (weil sie ja alle nebeneinandner sind, nicht in mehreren lagen üebreinander). Mit den doppelt so feinen Linien sehen jetzt z.B. der rote und ein grüner schwarz, und der zweite grüne und der blaue weiss. Ohne Korrektur gibt das jetzt lustige Falschfarben, aber aufgelöste Linien (Also auf dem roten udn dem grünen Subpixel schwarz, dann draüber abwechseld knatch blau und knatsch grün statt der weissen Linie in Wirklichkeit).
Jetzt kommen die Alorithmen der Hersteller, die sagen: Vermutlich war das nicht eine schwarze Linie und darüber eine die abwechselnd grün und balue Pixel hat. Sondern eine weisse Linie über der schwarzen. Bei vielen alltäglichen Motiven geht das ähnlich gut auf und das, was der Algortihmus rausbringt, ist ziemlich wirklichkeitsnah oder zumindest plausibel.
Manchmal sieht man bei Beyer DSLR aber diese farblichen Moires. Grade wenn kein AA Filter die feinste Auflösung wegnimmt. Das sind dann genau die Stellen, wo die Kamera auflöst, aber der Frabkorrektur Algorithmus voll daneben liegt.
So, und jetzt klinke ich mich hier aus. Ich kenne diese Art Vergleiche zur Genüge, wenn es um DSLR vs. Filmscan geht. 8 MP eines Filmscans sind in Wirklichkeit auch 3x8MP wie beim Foveon. All die Effekte gab es da schon.