Daydreamer
Themenersteller
Hallo,
hier mal eine kleine Überlegung zum Thema der Detailgenauigkeit usw. von Bayer- /Foveon-Sensoren, die Suche hatte nichts in die Richtung ausgespuckt.
Nehmen wir mal als Beispiel eine Sigma SD10 gegen eine EOS 20D:
Die EOS hat 8 Millionen Pixel, davon 25% rotempfindliche, 25% blaue und 50% grüne:
Die Sigma hat ja ihre 3,4 Millionen Pixel, von denen jeder aber dreischichtig ist und auf jede Farbe empfindlich ist.
(die Bilder sind von dpreview.com)
Die Konsequenzen sind den meisten ja sicher klar:
1. Die Canon interpoliert aus den umliegenden Pixeln eines einfarbigen Pixels einene dreifarbigen Wert.
2. Die Sigma hat physikalisch gesehen das höhere Auflösungsotential, weshalb sie sich auch in vielen (Labor-)Tests durchgesetzt hat.
Nun frage ich mich allerdings, ob, wie es (besonders von Sigma-Benutzern
) oft gesagt wird, diese Unterschiede eine allgemeine praktische Relevanz haben.
Aus der Interpolation von Bayer-Sensoren ergibt sich ja ein allgemein etwas weicheres Bild, dafür werden Pixeltreppen an kontrastreichen Kanten reduziert. Diese sind allerdings so oder so erst bei starker Vergrößerung oder im Ausschnitt zu erkennen.
Dann ist es ja so, dass hinter der ungleichen Farbpixelverteilung des Bayer-Sensors unter Anderem ein Eingehen auf die Menschliche Anatomie steht: grün können wir besonders gut wahrnehmen, weshalb es Sinn macht, hier die Detailauflösung gegenüber rot und blau zu erhöhen (obwohl der Mensch in seiner frühen Stammesgeschichte wohl v.A. blau gesehen hat, aber das tut ja nichts zur Sache). Es stellt sich mir also die Frage, ob die Details, die vom Bayer-Sensor "verschluckt" werden von uns überhaupt wahrgenommen worden wären und damit natürlich auch der Umkehrschluss, nämlich ob wir von der überragenden Detailtreue und der damit einhergehenden Farbechtheit (nur auf ein Pixel bezogen, im Gesamteindruck nimmt es sich sicher nicht viel) unter "normalen" Bedingungen überhaupt viel merken würden. Stellt sich noch die Frage, ob der Schärfeverlust durch die Interpolation nennenswert ist, da es auch genug knackscharfe Bilder von Bayer-Sensoren gibt, würde ich das verneinen.
Durch diese Überlegungen komme ich zu dem Schluss, dass ein Foveon-Sensor bei den Bildern keine für uns Menschen relevanten Vorteile gegenüber anderen Sensoren hat. Dies verkehrt sich natürlich unter Bedingungen bei denen viel Monochromatisches Licht, also Licht einer bestimmten Wellenlänge, zum Einsatz kommt. Beim Foto einer blauen LED wird aus ner 20D ganz schnell eine 2-Mpix Kamera was die relevanten Farbinformationen betrifft und die Sigma hat immernoch 3,4. Dann ist es sicherlich so, dass die übereinanderliegenden Farbpixel immer ein bisschen Licht schlucken, ob das eine praktische Relevanz hat, entzieht sich aber meinem Urteilsvermögen.
Das sind leider alles theoretische Überlegungen, wäre nett, wenn ihr dazu praktische Bezüge herstellen könntet. Sollte ich irgendwo Denkfehler haben, berichtigt mich bitte. Man lernt ja gerne dazu
hier mal eine kleine Überlegung zum Thema der Detailgenauigkeit usw. von Bayer- /Foveon-Sensoren, die Suche hatte nichts in die Richtung ausgespuckt.
Nehmen wir mal als Beispiel eine Sigma SD10 gegen eine EOS 20D:
Die EOS hat 8 Millionen Pixel, davon 25% rotempfindliche, 25% blaue und 50% grüne:

Die Sigma hat ja ihre 3,4 Millionen Pixel, von denen jeder aber dreischichtig ist und auf jede Farbe empfindlich ist.

(die Bilder sind von dpreview.com)
Die Konsequenzen sind den meisten ja sicher klar:
1. Die Canon interpoliert aus den umliegenden Pixeln eines einfarbigen Pixels einene dreifarbigen Wert.
2. Die Sigma hat physikalisch gesehen das höhere Auflösungsotential, weshalb sie sich auch in vielen (Labor-)Tests durchgesetzt hat.
Nun frage ich mich allerdings, ob, wie es (besonders von Sigma-Benutzern

Aus der Interpolation von Bayer-Sensoren ergibt sich ja ein allgemein etwas weicheres Bild, dafür werden Pixeltreppen an kontrastreichen Kanten reduziert. Diese sind allerdings so oder so erst bei starker Vergrößerung oder im Ausschnitt zu erkennen.
Dann ist es ja so, dass hinter der ungleichen Farbpixelverteilung des Bayer-Sensors unter Anderem ein Eingehen auf die Menschliche Anatomie steht: grün können wir besonders gut wahrnehmen, weshalb es Sinn macht, hier die Detailauflösung gegenüber rot und blau zu erhöhen (obwohl der Mensch in seiner frühen Stammesgeschichte wohl v.A. blau gesehen hat, aber das tut ja nichts zur Sache). Es stellt sich mir also die Frage, ob die Details, die vom Bayer-Sensor "verschluckt" werden von uns überhaupt wahrgenommen worden wären und damit natürlich auch der Umkehrschluss, nämlich ob wir von der überragenden Detailtreue und der damit einhergehenden Farbechtheit (nur auf ein Pixel bezogen, im Gesamteindruck nimmt es sich sicher nicht viel) unter "normalen" Bedingungen überhaupt viel merken würden. Stellt sich noch die Frage, ob der Schärfeverlust durch die Interpolation nennenswert ist, da es auch genug knackscharfe Bilder von Bayer-Sensoren gibt, würde ich das verneinen.
Durch diese Überlegungen komme ich zu dem Schluss, dass ein Foveon-Sensor bei den Bildern keine für uns Menschen relevanten Vorteile gegenüber anderen Sensoren hat. Dies verkehrt sich natürlich unter Bedingungen bei denen viel Monochromatisches Licht, also Licht einer bestimmten Wellenlänge, zum Einsatz kommt. Beim Foto einer blauen LED wird aus ner 20D ganz schnell eine 2-Mpix Kamera was die relevanten Farbinformationen betrifft und die Sigma hat immernoch 3,4. Dann ist es sicherlich so, dass die übereinanderliegenden Farbpixel immer ein bisschen Licht schlucken, ob das eine praktische Relevanz hat, entzieht sich aber meinem Urteilsvermögen.
Das sind leider alles theoretische Überlegungen, wäre nett, wenn ihr dazu praktische Bezüge herstellen könntet. Sollte ich irgendwo Denkfehler haben, berichtigt mich bitte. Man lernt ja gerne dazu
