MirkoMaty
Themenersteller
Da es immer wieder Diskussionen darüber gibt, ob der S5-Sensor nun mehr oder weniger auflöst als ein normaler 6 MP (8MP-/10MP-/12MP)-Sensor und in welcher Richtung man nun Auflösung gewinnt oder verliert, will ich hierzu ein paar anschauliche Zahlen und Grafiken beisteuern. Damit man sich das ganze etwas besser vorstellen kann, habe ich Beispielzahlen herangezogen. Sorry, dass die Beispielzahlen nicht exakt den Ausmaßen des S5-Sensors entsprechen, aber die Zahlen liegen sehr nahe an der Realität und haben den Vorteil, einigermaßen gerade Werte in µm bei den Pixelabständen zu erreichen.
Man nehme 3013 x 2009 Pixel. Das sind zusammen 6053117 Pixel, also etwas mehr, als 6 Mio. Diese ordnet man dann auf konventionelle Weise so an, dass sie jeweils 8,46 µm Abstand haben. Damit füllt man eine Sensorfläche von 25,5 x 17,0 mm (=exakt die halbe Fläche von 24x36, also etwa APS-C).
Damit hat man in der Horizontalen / Vertikalen eine theoretische Auflösung von ~ 17µm (2*8,46) der Information, die auf dem Sensor anliegt (alle 17µm eine Linie). Der Abstand zwischen zwei Pixeln im 45°-Winkel ist um Wurzel(2) größer, also ca. 12 µm. Betrachtet man aber die Linien, die sich in 45°-Richtung ergeben (siehe Grafik SensorNormal.gif), dann sieht man, dass sich doppelt so viele Pixellinien ergeben, die im Abstand von 6µm liegen. Die theoretische Auflösung liegt also bei einer Linie pro 12µm.
Die praktische Auflösung wird ein wenig darunter liegen, da durch die Bayer-Interpolation die Information ein wenig verschmiert.
Nun dreht man das ganze Muster um 45° und erhält dadurch einen Fuji-CCD-Sensor.
Was vorher der Abstand der Diagonalen war, wird nun der Abstand in der horizontalen/vertikalen. Dieser Abstand ist 8,46 * Wurzel(2), also etwa 12 µm. Betrachten wir die erste Pixelreihe. Wir werden etwa um den Faktor Wurzel(2) weniger Pixel in der Reihe haben, also ca. 2131 statt 3013.
Nun kommt die zweite Reihe. Diese ist um die Hälfte des Abstandes (also 8,46µm * Wurzel(2) / 2 ~ 6 µm ) jeweils nach unten und nach rechts versetzt.
Die dritte Reihe folgt weitere ca. 6µm weiter unten und ist nun wieder so ausgerichtet, wie die erste Reihe. Wir haben also jeweils in Abständen von ca. 6µm eine neue Reihe oder anders ausgedrückt: 2009 * Wurzel(2) Reihen, das sind 2841 Reihen. Gegenprobe: 2131 Spalten * 2841 Reihen = 6054171, also ziemlich genau die 6 MP von vorhin, wobei man eigentlich nicht von "Spalten" sprechen kann, weil ja jede zweite Reihe versetzt ist.
Die Auflösung im 45°-Winkel lässt sich nun sehr leicht bestimmen. Der Pixelabstand beträgt besagte 8,46 µm, die theoretische Auflösung ist also ca. 17µm, der gleiche Wert, wie wir ihn vorhin beim 6 MP-Sensor in horizontaler / vertikaler Richtung hatten. Im Vergleich zu einem normalen 6 MP-Sensor verliert der CCD-Sensor also in diagonaler Richtung.
Wie hoch ist dann die Auflösung in horizontaler/vertikaler Richtung? Im Prinzip haben wir zwei Teilbilder á 3 MP, mit Pixelabständen von ca. 12µm horizontal/vertikal und diese Teilbilder sind um jeweils 6µm horizontal und vertikal verschoben. Die Teilbilder haben je ca. 2131 Spalten und 1421 Reihen, wenn wir die oben genannten Zahlen übernehmen. Tatsache ist: Wir haben alle 6 µm eine Spalte oder eine Reihe, das macht 4262 Reihen und 2841 Spalten. Bitte steinigt mich nicht wegen der unvermeidlichen Rundungsfehler.
Die Interpolation geht so, dass man eine Raute aus den vorhandenen Pixeln nimmt und aus diesen vier Werten das Pixel berechnet, das in der Mitte der Raute liegt -- dabei kann man auch gleich die Bayer-Interpolation erledigen. Auf diese Weise geht man durch alle 4262 Reihen und 2841 Spalten und schon hat man ein 12 MP-Bild. Durch die Interpolation wird das Bild jedoch etwas "verschmiert".
Aber man kann (horizontal/vertikal) alle 12µm (= 6µm * 2) eine Linie auflösen und das ist besser, als die 17µm eines normalen 6 MP-Sensors. Die Linie wird verschwommen sein, aber erkennbar.
Die Zahlen hier sind reine Beispielzahlen. Der S5-Sensor weicht leicht davon ab. Er produziert 4256 * 2848 Ausgabe-Pixel.
Jetzt fehlt noch das Fazit. Gewinnt der Super-CCD durch die "Magie der 45°" irgendwie an Auflösung? Natürlich nicht. Wenn man eine parallele Linienschar nimmt und diese, sagen wir, in 5°-Schritten rotieren lässt, dann hat mal der eine Sensor und mal der andere Sensor die Nase vorn.
Der einzige Vorteil, den ich für den Super-CCD erkennen kann, liegt in der Interpolation. Während herkömmliche 12 MP-Sensoren brav ihre Pixel im rechtwinkligen Ausgabeformat übereinanderschlichten um sie dann bei der Bayer-Interpolation zu verschmieren, profitiert der Super-CCD davon, dass er zwar wesentlich stärker verschmiert, aber sich auch nur mit einem verschmierten Bild der herkömmlichen Sensoren vergleichen muss. In der Analogie zu Musiksignalen ist das wie ein Tiefpass-Filter. Das Filter bei der Fuji dämpft die Höhen mehr, als bei einem herkömmlichen 12 MP-Sensor, aber die Information (sprich: Linien horizontal und vertikal) ist immer noch da (was bei herkömmlichen 6 MP-Sensoren nicht der Fall ist). Schaut man aber an, was in der Diagonalen passiert, hängen die 12 MP-Sensoren den Fuji-Sensor weit ab und auch die 6 MP-Sensoren sollten noch leichte Vorteile gewinnen.
Grüße
Mirko
Man nehme 3013 x 2009 Pixel. Das sind zusammen 6053117 Pixel, also etwas mehr, als 6 Mio. Diese ordnet man dann auf konventionelle Weise so an, dass sie jeweils 8,46 µm Abstand haben. Damit füllt man eine Sensorfläche von 25,5 x 17,0 mm (=exakt die halbe Fläche von 24x36, also etwa APS-C).
Damit hat man in der Horizontalen / Vertikalen eine theoretische Auflösung von ~ 17µm (2*8,46) der Information, die auf dem Sensor anliegt (alle 17µm eine Linie). Der Abstand zwischen zwei Pixeln im 45°-Winkel ist um Wurzel(2) größer, also ca. 12 µm. Betrachtet man aber die Linien, die sich in 45°-Richtung ergeben (siehe Grafik SensorNormal.gif), dann sieht man, dass sich doppelt so viele Pixellinien ergeben, die im Abstand von 6µm liegen. Die theoretische Auflösung liegt also bei einer Linie pro 12µm.
Die praktische Auflösung wird ein wenig darunter liegen, da durch die Bayer-Interpolation die Information ein wenig verschmiert.
Nun dreht man das ganze Muster um 45° und erhält dadurch einen Fuji-CCD-Sensor.
Was vorher der Abstand der Diagonalen war, wird nun der Abstand in der horizontalen/vertikalen. Dieser Abstand ist 8,46 * Wurzel(2), also etwa 12 µm. Betrachten wir die erste Pixelreihe. Wir werden etwa um den Faktor Wurzel(2) weniger Pixel in der Reihe haben, also ca. 2131 statt 3013.
Nun kommt die zweite Reihe. Diese ist um die Hälfte des Abstandes (also 8,46µm * Wurzel(2) / 2 ~ 6 µm ) jeweils nach unten und nach rechts versetzt.
Die dritte Reihe folgt weitere ca. 6µm weiter unten und ist nun wieder so ausgerichtet, wie die erste Reihe. Wir haben also jeweils in Abständen von ca. 6µm eine neue Reihe oder anders ausgedrückt: 2009 * Wurzel(2) Reihen, das sind 2841 Reihen. Gegenprobe: 2131 Spalten * 2841 Reihen = 6054171, also ziemlich genau die 6 MP von vorhin, wobei man eigentlich nicht von "Spalten" sprechen kann, weil ja jede zweite Reihe versetzt ist.
Die Auflösung im 45°-Winkel lässt sich nun sehr leicht bestimmen. Der Pixelabstand beträgt besagte 8,46 µm, die theoretische Auflösung ist also ca. 17µm, der gleiche Wert, wie wir ihn vorhin beim 6 MP-Sensor in horizontaler / vertikaler Richtung hatten. Im Vergleich zu einem normalen 6 MP-Sensor verliert der CCD-Sensor also in diagonaler Richtung.
Wie hoch ist dann die Auflösung in horizontaler/vertikaler Richtung? Im Prinzip haben wir zwei Teilbilder á 3 MP, mit Pixelabständen von ca. 12µm horizontal/vertikal und diese Teilbilder sind um jeweils 6µm horizontal und vertikal verschoben. Die Teilbilder haben je ca. 2131 Spalten und 1421 Reihen, wenn wir die oben genannten Zahlen übernehmen. Tatsache ist: Wir haben alle 6 µm eine Spalte oder eine Reihe, das macht 4262 Reihen und 2841 Spalten. Bitte steinigt mich nicht wegen der unvermeidlichen Rundungsfehler.
Die Interpolation geht so, dass man eine Raute aus den vorhandenen Pixeln nimmt und aus diesen vier Werten das Pixel berechnet, das in der Mitte der Raute liegt -- dabei kann man auch gleich die Bayer-Interpolation erledigen. Auf diese Weise geht man durch alle 4262 Reihen und 2841 Spalten und schon hat man ein 12 MP-Bild. Durch die Interpolation wird das Bild jedoch etwas "verschmiert".
Aber man kann (horizontal/vertikal) alle 12µm (= 6µm * 2) eine Linie auflösen und das ist besser, als die 17µm eines normalen 6 MP-Sensors. Die Linie wird verschwommen sein, aber erkennbar.
Die Zahlen hier sind reine Beispielzahlen. Der S5-Sensor weicht leicht davon ab. Er produziert 4256 * 2848 Ausgabe-Pixel.
Jetzt fehlt noch das Fazit. Gewinnt der Super-CCD durch die "Magie der 45°" irgendwie an Auflösung? Natürlich nicht. Wenn man eine parallele Linienschar nimmt und diese, sagen wir, in 5°-Schritten rotieren lässt, dann hat mal der eine Sensor und mal der andere Sensor die Nase vorn.
Der einzige Vorteil, den ich für den Super-CCD erkennen kann, liegt in der Interpolation. Während herkömmliche 12 MP-Sensoren brav ihre Pixel im rechtwinkligen Ausgabeformat übereinanderschlichten um sie dann bei der Bayer-Interpolation zu verschmieren, profitiert der Super-CCD davon, dass er zwar wesentlich stärker verschmiert, aber sich auch nur mit einem verschmierten Bild der herkömmlichen Sensoren vergleichen muss. In der Analogie zu Musiksignalen ist das wie ein Tiefpass-Filter. Das Filter bei der Fuji dämpft die Höhen mehr, als bei einem herkömmlichen 12 MP-Sensor, aber die Information (sprich: Linien horizontal und vertikal) ist immer noch da (was bei herkömmlichen 6 MP-Sensoren nicht der Fall ist). Schaut man aber an, was in der Diagonalen passiert, hängen die 12 MP-Sensoren den Fuji-Sensor weit ab und auch die 6 MP-Sensoren sollten noch leichte Vorteile gewinnen.
Grüße
Mirko
Zuletzt bearbeitet: