hmuenx schrieb:
Bei Deiner Anordnung ("modified (diagonal) Bayer pattern") werden zumindest lt.
...
Schritt n+2
G --- R --- G --- R --- ...
B --- G --- B --- G --- ...
G --- R --- G --- R --- ...
...
...
Hallo, da bin ich wieder.
Da ist in der Zwischenzeit hier ja ganz schön die Post abgegangen.
Eigendlich haben jetzt wohl die wenigsten wirklich noch Lust den Thread
weiter
fortzusetzen, aber bitte trotzdem nicht stöhnen...
Für mich war das bis hier nämlich wirklich recht informativ.
Allerdings komme ich kaum mit dem Lesen neuer Beiträge nach,
daher klinke ich mich halt einfach mal on topic wieder ein.
Unabhängig von den real existierenden Sensoren geht es mir jetzt
aber nur um die Einordnung der Sensor-Prinzipien.
Holgers Algorythmus zur Auswertung des Bayer-Pattern ist sowohl einfacher,
als auch eleganter, als der von mir vorher skizzierte.
Aber alleine die Tatsache, das es anscheinend unzählige Varianten solcher
Deskreening-Algos gibt, sagt was zu ihrem Wert.
Holgers Algo erzeugt jedenfalls für jeden physikalischen Sensor auch einen gleichmäßig
interpolierten Farbpixel. Dabei wird durch die Überlappung von jeweils 50% mit den
Nachbar-Matrize auf etwas elegantere Art interpoliert, als wenn man nur jeweils nur
nebeneinanderliegende Werte verrechnen würde.
Erhöht sich dadurch aber die Auflösung? Naja:, ich finde eher Nein!
Auch wenn ich den trolligen Diskussionsstil von Onlineredakteur her nicht sonderlich schätze,
in diesem einen Punkt hat er, wie ich finde, recht.
Wenn man behauptet "der Sensor hat die und die Auflösung", dann erwartet man doch eigendlich,
dass der kleinste erfaßbare Pixel eben genau so groß ist.
Gerade das aber kann auch der beste Interpolationsalgorythmus
nicht leisten.
Um also wirklich sicher zu sein, dass eine bestimmter Pixel farblich erfaßt wird,
muß dieser Pixel eben doch die Größe von 4 Bayerpixeln haben.
Allerdings, und ab da liegt Onlineredakteur meiner neuen Einschätzung nach falsch,
nicht alle kleineren Pixel gehen deshalb gleich verloren.
Es sinkt nur nur einfach die Wahrscheinlichkeit, das sie tatsächlich noch erfaßt werden.
Die Schancenverteilung, dass ein sensorpixelgroßer Pixel trotzdem noch erfaßt wird ist:
Rot-Pixel ==> 1/3
Blau-Pixel ==> 1/3
Grün-Pixel ==> 1/1
Die Wahrscheinlichkeit das ein Pixel komplett zu 100% übersehen wird ist allerdings nur
unter den folgenden Bedingungen vorhanden:
1)
der Pixel muß tatsächlich gleich oder kleiner sein als der Einzelsensorpixel.
2)
Der Pixel muß einem reinen RGB-Farbton entsprechen, ohne Anteile die auch
von anderen Filtern durchgelassen werden.
3)
Der Pixel muß auf einen falschen Sensor fallen. (s.o.)
Nur wenn alle drei Bedingungen erfüllt sind, wird der Pixel komplett ignoriert.
Aber, und da hakt die Behauptung alle Bayer-MPs müßten als Auflösung gesehen werden,
dass Verfahren stellt solche kleinen Details trotzdem nicht mehr dar.
Es wird nur der Farbwert der berechneten Pixels ein bischen korrigiert.
Da ist ein blauer Einzel-Pixel? Klar das Gelb ist jetzt ein bischen grün!
Wie Dominik schon erwähnt hat ist das bestenfalls etwas Aliasing.
Um die "Qualität" der so erzeugten Farbwerte einzurschätzen muß man schon die Wahrscheinlichkeitsrechnung bemühen.
Ich bin aber kein Mathematiker, und ich habe mich auch noch nie wirklich
damit Wahrscheinlichkeit beschäftigt.
Aber da mich die Sache jetzt interessiert, wage ich mich mal an so eine Formel:
1/3=Rot ------------------------------------------- 1/3=Grün
----------------> 4x1 Pixelinfo/3/4=1/5,33
---------------------> Interpolierte Pixel
1/3=Grün ------------------------------------------ 1/3=Blau
Ich habe also 4 Werte, die jeweils aber nur 1/3.tel einer vorhandenen Info erfassen (RGB).
Die addiere ich und teile sie durch 4 um den Durchschnittswert zu erhalten.
Das Ergebnis besagt, wenn es denn stimmt, dass der Infogehalt des Ergebnisses ca 20% der Realinformation enthält.
Ist das so richtig?
Ist vielleicht alles Blödsinn, aber ich würde das wirklich gerne mal wissen.
Vielleicht meldet sich ja hier jemand mit mehr Ahnung als ich und korrigiert mich.
Schönen Gruß
Pitt