• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

SD10 vs. 20D

  • Themenersteller Themenersteller Gast_10873
  • Erstellt am Erstellt am
Nightstalker schrieb:
Onlineredakteur schrieb:
...
Und anstatt ich mir noch 10 Wiederholungen Deiner bereits bekannten 3 Statements reinziehe,...;-)
hat es doch noch einer gemerkt ;)

Warum soll ich neue Argumente suchen, solange keines meiner bisherigen Argumente widerlegt wurde? Ihr solltet diesen Thread nicht mit einem Kreativ-Wettbewerb verwechseln...
 
hmuenx schrieb:
Durch den AA-Filter und die jeweils um einen Pixel verschobene Betrachtung der Matrizen enthält jeder Bildpunkt in der resultierenden Aufnahme so etwas wie den Durchschnitt der in diesen Bildpunkt eingehenden (winzigen!) Teile des Motivs. Deshalb zeigt ja eine Aufnahme aus einem Bayer-Sensor eine eigentlich scharfe Kante immer mit einer leichten Unschärfe, selbst wenn diese Kante genau entlang einer Reihe von Pixeln verläuft.

Wie systemgebunden ist denn die AA-Filterei eigentlich? Ist die Notwendigkeit oder eines AA-Filters nicht für Bayer und Foveon in gleichem Ausmaß gegeben bzw. nicht gegeben? Wenn der Foveon darauf verzichtet (mal vorausgesetzt, ich hab das so richtig verstanden), hat das was mit seinen relativ großen Pixeln zu tun? D. h. sind z. B. die Sensoren einer Canon D30 und Sigma SD10 gleichermaßen moireanfällig?

Skater schrieb:
Naja, ich würde mal so ansetzen, dass der 4-Pixel=1 Farbpixel = 100% ist.
Mit dem Deskreenibg-Algo will man jetzt zusätzliche Information rausquetschen.

Dieser Monsterpixel enthält aber mehr als ein entsprechender Foveonsensor gleicher Größe. Er hat farbabhängige Helligkeitsinformationen für jeden Quadranten. Ohne die Auswertungsverfahren zu kennen, kann ich mir nicht vorstellen, dass diese Informationen ignoriert würden. Der Foveon hat diese Informationen gar nicht.

Skater schrieb:
Es geht mir nur um den Prinzipienvergleich.
Meinetwegen kannst Du auch einen 8-MP Foveon mit einer 8-MP Bayer vergleichen. Wie sähe da die Wertung aus?

Bei gleicher Pixelanzahl ist natürlich der Foveon-Sensor klar im Vorteil, weil er volle Farbinformationen hat. Dieser Vergleich ist aber faktisch irrelevant, weil es keine Foveon-Sensoren gibt, die die gleiche Pixelanzahl wie zeitgemäße Bayer-Sensoren haben.
 
Der Junge mit der Nikon schrieb:
Ist die Notwendigkeit oder eines AA-Filters nicht für Bayer und Foveon in gleichem Ausmaß gegeben bzw. nicht gegeben?

sicher nicht in gleichem Ausmaß, beim Foveon würde ein recht schwacher Filter schon reichen, sogar der schwache Antialiasing Effekt der Mikrolinsen in der SD10 macht sich mess- und sichtbar bemerkbar und ist schon mehr als manche Leute wollen. Ich halte ihn für recht optimal.

Wenn der Foveon darauf verzichtet (mal vorausgesetzt, ich hab das so richtig verstanden), hat das was mit seinen relativ großen Pixeln zu tun?

hat nichts damit zu tun.

D. h. sind z. B. die Sensoren einer Canon D30 und Sigma SD10 gleichermaßen moireanfällig?

ein CFA ist logischerweise viel anfälliger wenn er keinen AA Filter hat.
 
Der Junge mit der Nikon schrieb:
Dieser Monsterpixel enthält aber mehr als ein entsprechender Foveonsensor gleicher Größe. Er hat farbabhängige Helligkeitsinformationen für jeden Quadranten.

Ohne Interpolation liefert es streng genommen nur eine einzige Helligkeitsinformation. Mit dem Trick Grün erstmal als quasi Helligkeitsinformation anzusetzen, hat man zumindest 2 räumlich getrennte Luma samples, die zudem ohne AA Filter nicht für die gesamte Fläche der 4 Pixel gültig wären, mit ausreichend starkem AA Filter sind sie es dann, es sind aber immernoch nur 2 und nicht 4. Im übrigen hat man egal wie man es dreht nur ein vollständiges chroma sample aus 4 Pixeln. Jetzt stellt sich die Frage wie man das gewichtet, da die chroma Auflösung ja nicht so wichtig ist, aber im Endeffekt zeigt das schon sehr deutlich die Grenzen dessen auf was man aus so einer 4er Gruppe noch herausinterpolieren kann.
 
Der Junge mit der Nikon schrieb:
.....
Dieser Monsterpixel enthält aber mehr als ein entsprechender Foveonsensor gleicher Größe. Er hat farbabhängige Helligkeitsinformationen für jeden Quadranten.
Das stimmt so nicht:
Es sind nur 1/3-Infos (für den monochromen Idealfall!)
Im Grunde hat man nur 4 inkompatible Teilinformationen.

Der Junge mit der Nikon schrieb:
Ohne die Auswertungsverfahren zu kennen, kann ich mir nicht vorstellen, dass diese Informationen ignoriert würden. Der Foveon hat diese Informationen gar nicht.
Der Foveon mißt sowohl Helligkeit, als auch Farbe zu 100%

Diese könnte man, mit dem gleichen Interpolationsalgorythmus, auch genauso aufblasen
wie die Bayerpixel. Allerdings entsteht dabei keine zusätzliche Information.

Das Bayer-Bild ist zwar in Bezug auf seine Monochromauflösung höher aufgelöst,
basiert aber trotzdem eben nur aus 1/3 der Helligkeitsinfo und 1/3 der Farbinfo .

Die ganzen Deskreening-Algorythmen können überhaupt nur deshalb
zusätzliche Informationen jenseits der 2x2-Pixelmatrix generieren, weil
das ganze Verfahren ohnehin schon nur noch auf Wahrscheinlichkeitsrechnung
basiert.

Der Junge mit der Nikon schrieb:
Bei gleicher Pixelanzahl ist natürlich der Foveon-Sensor klar im Vorteil, weil er volle Farbinformationen hat. Dieser Vergleich ist aber faktisch irrelevant, weil es keine Foveon-Sensoren gibt, die die gleiche Pixelanzahl wie zeitgemäße Bayer-Sensoren haben.

Ja da hast Du zwar recht, aber es geht mir ja gerade darum herauszufinden
wie sich die beiden Prinzipien im direkten Vergleich theoretisch, aber
eben möglichst auch berechenbar, zu einander verhalten.

Die realisierten Foveon-Chips holen auch jetzt noch keine 100% der
messbaren Information.
(Lichtabsorbtion im Silizium, Sensormaterialien, Bauart und so weiter!)

Die verbauten Bayersensoren genausowenig!
(Filterabsorptionsverhalte, AA-Filter und so weiter)

Außerdem gibt es da auch noch so Sachen wie z.B. die Abstandflächen
zwischen den Einzel-Sensoren, da diese sich ja nicht berühren dürfen
und so weiter.
(Da dürfte noch mal allerhand an Info verloren gehen.)

Ich finde, das da so viel unwägbarer Kram hereinspielt, dass man sich
vermutlich nicht mal in Bezug auf den Vergleich zweier Kameras des
selben Fabrikats einigen würde, wenn man das nur penibel genug ins
Extrem übertreibt.

Unterhalten wir uns doch einfach ein bischen über die nachvollziehbare
Theorie der Verfahren. Die kann man illustrieren oder abwägen oder
auch überhaupt erst mal richtig verstehen. :D :cool:

Aber dabei kommt vielleicht eher was heraus als bei so einer
"nein"/"doch"/"nein"/"doch"-Diskussion weiter oben. :cool:

Außerdem ist es genau das, was mich halt gerade interessiert. ;)

Schönen Gruß
Pitt
 
Zuletzt bearbeitet:
Wie wenig Ahnung von dem über was er da schreibt hat kannst du weiter unten in dem Thread nachlesen. Es erscheint alles so einfach, und doch ist es sehr komplex. Und wieviel Insiderwissen hier jemand hat kannst du wohl kaum beurteilen, also spar dir deine Polemik für nen Moment wo du sie Wirkungsvoller platzieren kannst :P
 
Tja Mythos, ist ja clever zu zeigen das du immernoch nicht verstanden hast wieso es wichtig ist wieviele Linien das Gitter gebildet haben... zeugt von großem Sachverstand, schönes leben noch...
 
DominicGroß schrieb:
Ohne Interpolation liefert es streng genommen nur eine einzige Helligkeitsinformation. Mit dem Trick Grün erstmal als quasi Helligkeitsinformation anzusetzen, hat man zumindest 2 räumlich getrennte Luma samples, die zudem ohne AA Filter nicht für die gesamte Fläche der 4 Pixel gültig wären, mit ausreichend starkem AA Filter sind sie es dann, es sind aber immernoch nur 2 und nicht 4. Im übrigen hat man egal wie man es dreht nur ein vollständiges chroma sample aus 4 Pixeln. Jetzt stellt sich die Frage wie man das gewichtet, da die chroma Auflösung ja nicht so wichtig ist, aber im Endeffekt zeigt das schon sehr deutlich die Grenzen dessen auf was man aus so einer 4er Gruppe noch herausinterpolieren kann.

Da muss ich jetzt zugeben, dass ich den Einfluss des AA-Filters nicht ganz einschätzen kann. Immerhin ist er ja nicht essentieller Bestandteil eines Bayer-Sensors (siehe die Kodaks) und wenn ich das richtig verstanden habe, wird in der RAW-Datei der AA-Filter auch gar nicht wieder rausgerechnet, sondern erst bei der Umwandlung in JPG, wo auch immer das erfolgt. Aber so richtig kenne ich mich mit den internen und externen Bearbeitungsverfahren auch nicht aus.

skater schrieb:
Das stimmt so nicht:
Es sind nur 1/3-Infos (für den monochromen Idealfall!)
Im Grunde hat man nur 4 inkompatible Teilinformationen.

skater schrieb:
Der Foveon mißt sowohl Helligkeit, als auch Farbe zu 100%

Die Teilinformationen des Bayer sind doch nicht inkompatibel. Es sind Teilinformationen, deren Position innerhalb des Vierer-Pixels festgelegt ist. Der Foveon hat bei angenommener gleicher Größe (d. h. 2 MP Foveon gegen 8 MP Bayer) nur Informationen über die Gesamtfläche. Innerhalb dieser kann er gar nicht differenzieren. Die Informationen, die ein solcher Foveon-Pixel hat, hat ein Bayer auch, da er ja einfach die gemessenen Daten auf den Gesamt-Vierer-Pixel hochrechnen kann. Das hat auch noch nix mit Interpolieren zu tun, das ist sozusagen reines Dreisatzrechnen. Interpolieren muss der Bayer erst, wenn er aus den zusätzlich vorhandenen Informationsbruchstücken (die der Foveon gar nicht erst hat) noch was machen will.

Praxisrelevant sind diese Vergleiche 2 MP Foveon gegen 8 MP Bayer sicher nicht, ebensowenig wie 8 MP Foveon gegen 8 MP Bayer. Schließlich erwartet niemand von einer SD10, dass sie mit einer D2X mithalten kann (außer vielleicht den Sigma-Fanatikern, die einem hier mit irrealen Argumenten und Rechtschreibdiskussionen auflauern).

mythos schrieb:
Immerhin habe ich lernen können, daß man einer sehr intensiven, hochspezialisierten Ausbildung bedarf, bis man nicht mehr weiß, wie ein simples Gitter auszusehen hat...

Kann es sein, dass Du immer noch nicht mitgekriegt hast, dass es nicht darum geht, wie ein Gitter aussieht, sondern welches Gitter exakt den Bildern zugrundeliegt? Man muss doch wissen, welche Abstände die Linien haben. Und das geht nur, wenn die Bilder den gleichen Abbildungsmaßstab haben wie das Ausgangsbild. Es ist ja schließlich nicht sicher, dass das schöne Sigma-Gitter das Gitter des Vorbilds ist. Wenn da nicht wirklich Linie auf Linie passt, sind das nur wunderschöne Artefakte.
 
...zustimmung! ich will das orginal gitter (und zwar welches fotografiert wurde) im 1:1 vergleich neben den bildern der 20d und der sd10 sehen. ohne diese referenz sind die ergebnisse frei jeglicher aussage. das sollte eigentlich auch den selbsternannten it-experten und den standhaften vertretern der sd10 klar sein.

gruss
 
Der Junge mit der Nikon schrieb:
Immerhin ist er ja nicht essentieller Bestandteil eines Bayer-Sensors (siehe die Kodaks) und wenn ich das richtig verstanden habe, wird in der RAW-Datei der AA-Filter auch gar nicht wieder rausgerechnet, sondern erst bei der Umwandlung in JPG, wo auch immer das erfolgt.

kommt drauf an was du mit rausrechnen meinst... eigentlich wird der gar nicht rausgerechnet, wenn überhaupt könnte man schärfen als Umkehrung dessen was der AA Filter macht verstehen, aber das ist schon nicht so ganz korrekt.
Und was bei Kodak passiert weil der AA Filter fehlt kann ja jeder sehen:

http://www.dpreview.com/reviews/canoneos1dsmkii/page25.asp

Der Junge mit der Nikon schrieb:
Die Teilinformationen des Bayer sind doch nicht inkompatibel. Es sind Teilinformationen, deren Position innerhalb des Vierer-Pixels festgelegt ist.

Mit denen du aber genau aus dem Grund weil sie nur Teilinformationen sind auch nicht viel Anfangen kannst. Du hast keine Helligkeitsinformation in jedem Pixel und erst recht keine Farbinformation, es bleibt also nur dafür zu sorgen das jeder Lichtstrahl in etwa ein Grünes Pixel trifft, damit du ein sauberes Helligkeitsignal interpolieren kannst und dann viel geringer Aufgelöse Farbsignale aus den Roten / Blauen Pixeln. Da der AA Filter mit seinem auf die grünen Pixel ausgerichteten blur radius nicht sicherstellen kann das auch immer ein rotes / blaues Pixel getroffen wird, kommt es zu solch netten Effekten wie Chroma Moire (Farbschlieren).

Der Junge mit der Nikon schrieb:
Der Foveon hat bei angenommener gleicher Größe (d. h. 2 MP Foveon gegen 8 MP Bayer) nur Informationen über die Gesamtfläche.

Dieser Vergleich ist mit den Zahlen absurd, aber im Grunde ist das Ziel des AA Filters das du die Lichstrahlen beim Bayer auch über eine größere Fläche verteilst um sie mit mehr Pixeln abzutasten, weil ein Pixel eben nicht reicht um eine brauchbare Information zu erhalten.

Der Junge mit der Nikon schrieb:
Innerhalb dieser kann er gar nicht differenzieren. Die Informationen, die ein solcher Foveon-Pixel hat, hat ein Bayer auch, da er ja einfach die gemessenen Daten auf den Gesamt-Vierer-Pixel hochrechnen kann.

eben nicht, das ginge nur wenn der AA Filter alles über so einen vierer Block verteilt, du damit ein gültiges R, G und B Sample für die _ganze_ Fläche der 4 Pixel hast und damit aber dein Vorteil weg wäre. Also macht man es so das man je ein R und B sample hat das aber nicht für die ganze Fläche gilt und zwei G samples.

Der Junge mit der Nikon schrieb:
Das hat auch noch nix mit Interpolieren zu tun, das ist sozusagen reines Dreisatzrechnen.

Nur wenn der AA Filter so stark ist das der Bayer überhaupt keinen Vorteil mehr hätte.


Der Junge mit der Nikon schrieb:
Es ist ja schließlich nicht sicher, dass das schöne Sigma-Gitter das Gitter des Vorbilds ist. Wenn da nicht wirklich Linie auf Linie passt, sind das nur wunderschöne Artefakte.

theoretisch ja, wie ich es hier die ganze Zeit anpranger da es hier um den Begriff "Auflösung" geht. Praktisch ist es teilweise anders. Nehmen wir zum Beispiel eine Rasenfläche, der Abstand der Grashalme ist zu klein um von einem 8mp CFA oder 3.4mp X3 wahrgenommen zu werden, was passiert?
Der X3 ohne (AA Filter) wird Aliasing zeigen und scharfe Kanten und "Grashalme" produzieren wo keine waren. Der 8mp CFA eine grüne Fläche.
Was hättest du lieber? Also ich hab lieber die Grashalme die so gar nicht da waren aber so aussehen als ob.

Es gibt auch Situationen wo sich der Spieß rumdreht, wo die gefilterte Version
besser wäre, aber in der Praxis sind die eher selten, wenn man nicht gerade Gitter Reproduzieren will.

Das ganze zählt nicht unter Auflösung, weil die Kamera hat es dann ja nicht aufgelöst, aber es ist die in meinen Augen bessere Reproduktion, aber das ist Geschmackssache und darüber kann man trefflich streiten.
 
DominicGroß schrieb:
kommt drauf an was du mit rausrechnen meinst... eigentlich wird der gar nicht rausgerechnet, wenn überhaupt könnte man schärfen als Umkehrung dessen was der AA Filter macht verstehen, aber das ist schon nicht so ganz korrekt.

Das Schärfen meinte ich auch. Den AA-Filter an sich kann man wohl nicht exakt rausrechnen.

DominicGroß schrieb:
Und was bei Kodak passiert weil der AA Filter fehlt kann ja jeder sehen:

http://www.dpreview.com/reviews/canoneos1dsmkii/page25.asp

Ich denke bei den Kodaks generell eher an die ruhmreichere Vorgängergeneration (720x und 760). Bei den 14-MP-Kodaks deute ich die Berichte so, dass die Kamera die problematischen Eigenschaften des Sensors nicht beherrscht. Da wird offensichtlich das massive Rauschen in rabiater Weise eliminert (ich lass mich da auch gern berichtigen) und dann kommt so was raus wie auf dem Bild. Die hohe Auflösung geht dabei auch großenteils verschütt. Auf den fehlenden AA-Filter würde ich das nicht zwingenderweise schieben.

DominicGroß schrieb:
theoretisch ja, wie ich es hier die ganze Zeit anpranger da es hier um den Begriff "Auflösung" geht. Praktisch ist es teilweise anders. Nehmen wir zum Beispiel eine Rasenfläche, der Abstand der Grashalme ist zu klein um von einem 8mp CFA oder 3.4mp X3 wahrgenommen zu werden, was passiert?
Der X3 ohne (AA Filter) wird Aliasing zeigen und scharfe Kanten und "Grashalme" produzieren wo keine waren. Der 8mp CFA eine grüne Fläche.
Was hättest du lieber? Also ich hab lieber die Grashalme die so gar nicht da waren aber so aussehen als ob.

Bevor ich hier gleich wieder von den Fanatikern erschlagen werde, möchte ich noch mal betonen, dass das Sigma-Gitter ein Artefakt sein könnte. Ich hab nicht gesagt, dass es eins ist. Zu den Grashalmen: Das ist Geschmackssache und kommt auf den konkreten Fall an. Ich neige eher dazu, die einheitliche Fläche besser zu finden. Das kommt dem Eindruck des Auges näher, denn dessen Auflsöungsvermögen ist auch begrenzt, und da ist dann auch nur noch grüne Fläche. Fiktive Details, die nur stellvertretend für reale Details stehen, würde man u. U. als unnatürlich empfinden. Das sind die Dinge, die einen möglicherweise an einem Bild stören, ohne das man weiß warum.
 
Der Junge mit der Nikon schrieb:
Das Schärfen meinte ich auch. Den AA-Filter an sich kann man wohl nicht exakt rausrechnen.

Mit nem darauf zugeschnittenen Deconvolution Kernel würde man jedenfalls besser fahren.


Der Junge mit der Nikon schrieb:
Auf den fehlenden AA-Filter würde ich das nicht zwingenderweise schieben.

genau daran liegt es aber und an nix anderem. Kein AA Filter, Elektronik kann die Farbe nicht erraten = murks.

Der Junge mit der Nikon schrieb:
Bevor ich hier gleich wieder von den Fanatikern erschlagen werde, möchte ich noch mal betonen, dass das Sigma-Gitter ein Artefakt sein könnte.

Das sagte ich ja bereits mehrmals

Der Junge mit der Nikon schrieb:
Das kommt dem Eindruck des Auges näher, denn dessen Auflsöungsvermögen ist auch begrenzt, und da ist dann auch nur noch grüne Fläche.

Dann brauchst du aber ne Brille... polemik beiseite, soweit sind wir noch lange nicht und zu dem Punkt wo es Grashalme da zeigen würde wo das Auge keine sieht werden wir aufgrund der begrenzten Auflösung der Objektive auch nie kommen.
 
DominicGroß schrieb:
genau daran liegt es aber und an nix anderem. Kein AA Filter, Elektronik kann die Farbe nicht erraten = murks.

Kodak und die Kodak-Anwender sind so ziemlich die einzigen, die bei ein und der selben Kamera die Wirkung eines AA-Filters ausprobieren können. Für die Reihe 620 bis 760 kann man ja schließlich wahlweise AA-Filter, IR-Filter oder gar nix einsetzen. Daher wird sich Kodak der Wirksamkeit des AA-Filters voll bewusst gewesen sein. Da man außerdem die 14n zur SLR/n modellgepflegt hat, hätte man spätestens dann mit einem AA-Filter das Übel beseitigen können. Hat man aber nicht. Das lässt darauf schließen, dass da entweder der fehlende AA-Filter doch nicht die entscheidende Ursache ist oder aber der Einbau eines AA-Filters im labilen 14-MP-System andere Katastrophen ausgelöst hätte.

DominicGroß schrieb:
Dann brauchst du aber ne Brille...

Hab ich ja auch.

DominicGroß schrieb:
polemik beiseite, soweit sind wir noch lange nicht und zu dem Punkt wo es Grashalme da zeigen würde wo das Auge keine sieht werden wir aufgrund der begrenzten Auflösung der Objektive auch nie kommen.

Das könnte man wirklich nur an realen Bildern ausprobieren, was besser aussieht.
 
man wollte bei der Kodak einfach die extreme Auflösung behalten...der Ruf in Bezug auf Moire war eh schon ruiniert, so what ;)
 
Der Junge mit der Nikon schrieb:
dass da entweder der fehlende AA-Filter doch nicht die entscheidende Ursache ist oder aber der Einbau eines AA-Filters im labilen 14-MP-System andere Katastrophen ausgelöst hätte.

So pass auf, du weichst meinen Erklärungen zum Thema AA Filter und Demosaicing in deinen Antworten recht konsequent aus, wir könnten das Spielchen jetzt weiter spielen, dass du ohne Argumente auf diesem Standpunkt bleibst, aber ich habe eigentlich keine Lust mehr. Du kannst wenn dir eine logische Erklärung nicht reicht beim Leica Modul R oder Kameras mit schwachen AA Filtern genau die gleichen Effekte beobachten, wenn du es gerne empirisch bewiesen haben willst.


Der Junge mit der Nikon schrieb:
Das könnte man wirklich nur an realen Bildern ausprobieren, was besser aussieht.

Das mache ich seit ich die SD9 habe...
 
Der Junge mit der Nikon schrieb:
...
Die Teilinformationen des Bayer sind doch nicht inkompatibel. Es sind Teilinformationen, deren Position innerhalb des Vierer-Pixels festgelegt ist. Der Foveon hat bei angenommener gleicher Größe (d. h. 2 MP Foveon gegen 8 MP Bayer) nur Informationen über die Gesamtfläche. Innerhalb dieser kann er gar nicht differenzieren. Die Informationen, die ein solcher Foveon-Pixel hat, hat ein Bayer auch, da er ja einfach die gemessenen Daten auf den Gesamt-Vierer-Pixel hochrechnen kann. Das hat auch noch nix mit Interpolieren zu tun, das ist sozusagen reines Dreisatzrechnen. Interpolieren muss der Bayer erst, wenn er aus den zusätzlich vorhandenen Informationsbruchstücken (die der Foveon gar nicht erst hat) noch was machen will.

Nimm doch einmal an, dass Du ein Hyper-Super-Duper 1/1-Makro hast,
dass verlustfrei alle Infos auf Deinen Sensor bringt.
Mit dem lichtest Du jetzt ein Bayer-Pattern ab, welches exakt mit dem
des Bayersensors in Deiner Kamera übereinstimmt.

Du hast obendrein Glück und jeder Pixel landet auf seinem Pendent im Sensor.
Also jeder blauer Pixel landet auf einem blauem Sensor, jeder grüne ... jeder rote.

Was ist Deiner Meinung nach das Ergebnis?

Soviel zur Auflösung eines Bayer-Sensors.

Klar, das Beispiel ist konstruiert, aber es sagt Dir, das der Bayer eben nur mit 1/3 Infos handelt.
Und das sowohl bei der Farbe, als auch bei der Helligkeit.

Der Junge mit der Nikon schrieb:
Praxisrelevant sind diese Vergleiche 2 MP Foveon gegen 8 MP Bayer sicher nicht, ebensowenig wie 8 MP Foveon gegen 8 MP Bayer. Schließlich erwartet niemand von einer SD10, dass sie mit einer D2X mithalten kann (außer vielleicht den Sigma-Fanatikern, die einem hier mit irrealen Argumenten und Rechtschreibdiskussionen auflauern)...

Die Praxisrelevanz hatte ich ja weiter oben schon hinten angestellt.
Klären wir erst einmal die Theorie.

Schnen Gruß
Pitt
 
Skater :)

Den negativen Fall davon habe ich vorhin gedacht und das hier erstellt ;)
Um mal zu zeigen worin der Sinn des AA Filters in so einem Fall besteht...

50600533.bayer.png


Mehr dazu, mit realitätsnaherem Eingangsbild später oder morgen...

und man sollte sich jetzt nicht der Illusion hingeben das man aus dem Resultat mit Filter das Original ohne Filter interpolieren könnte nur weil es so ähnlich aussieht. Die Grünen fehlen immernoch gänzlich und damit werden demosaicing Algos sehr Effektiv lahmgelegt wie ein Test von Outbackphoto zeigt.

http://www.outbackphoto.com/artofraw/raw_05/essay.html
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten