Ein Monitor benötigt früher wie heute 3 "Pixel" um eine Information darzustellen, bestehend aus R G B.
Ein Bayersensor benötigt vier Pixel R G G B für eine Farbinformation aber jedes Pixel hat die volle Helligkeitsinformation, was hier bislang vergessen wurde.
Das führt zu einem durchaus gemäß der Megapixelangabe aufgelösten Bild bei nicht exakter Farbverteilung wenn man es so ausdrücken möchte.
Eine reine SW-Kamera wie die Leica kann deshalb pro Pixel praktisch die volle Information liefern, ein SW-konvertiertes Bild sollte damit differenziertere Informationen liefern.
Da aber auch die Farbinformation mit unterschiedlichen Helligkeitswerten für jedes Pixel belegt ist und die Farbe normal nicht pixelscharf im Bild wechselt, sondern eher auch langsam übergeht, kann man davon ausgehen, dass ein Bayersensor durchaus in der Lage ist annähernd Inforamtionen gemäß seiner angegebenen Auflösung zu bringen, wohingegen zurecht bei Monitoren drei Piexel als eines gezählt werden müssen.
Ein Bayersensor rechnet also aus vier Pixeln "R G G B" eine Farbe aber diese hat dann pro "Wiedergabepixel" eine eigene Helligkeitsinformation, was bei einer Wiedergabe durchaus ein sehr differenziertes und informationshaltiges Bild ergibt, gleiche Farbe aber in vier Helligkeiten. Ein jedes Sensorpixel kann also auf einem Monitor durchaus 3 Wiedergabepixel mit differenzierten Informationen versorgen! Bei der Reduktion von vier Seinsorpixeln auf nur drei Wiedergabepixel eines Monitors würde die Infomationsmöglichkeit auf ein Viertel reduziert.
Noch komplizierter wird es bei Tintenstrahldruckern wo bis zu 12 Farbtinten zu einer Farbinformation zusammenge"gespritzt" werden.
Bin da auch noch etwas an rätseln wie die Druckerhersteller die Informtion eines einzigen Pixels zu Papier bringen würden. Sollte man sich mal unter dem Mikroskop ansehen.
Grüße
Alexander
Ein Bayersensor benötigt vier Pixel R G G B für eine Farbinformation aber jedes Pixel hat die volle Helligkeitsinformation, was hier bislang vergessen wurde.
Das führt zu einem durchaus gemäß der Megapixelangabe aufgelösten Bild bei nicht exakter Farbverteilung wenn man es so ausdrücken möchte.
Eine reine SW-Kamera wie die Leica kann deshalb pro Pixel praktisch die volle Information liefern, ein SW-konvertiertes Bild sollte damit differenziertere Informationen liefern.
Da aber auch die Farbinformation mit unterschiedlichen Helligkeitswerten für jedes Pixel belegt ist und die Farbe normal nicht pixelscharf im Bild wechselt, sondern eher auch langsam übergeht, kann man davon ausgehen, dass ein Bayersensor durchaus in der Lage ist annähernd Inforamtionen gemäß seiner angegebenen Auflösung zu bringen, wohingegen zurecht bei Monitoren drei Piexel als eines gezählt werden müssen.
Ein Bayersensor rechnet also aus vier Pixeln "R G G B" eine Farbe aber diese hat dann pro "Wiedergabepixel" eine eigene Helligkeitsinformation, was bei einer Wiedergabe durchaus ein sehr differenziertes und informationshaltiges Bild ergibt, gleiche Farbe aber in vier Helligkeiten. Ein jedes Sensorpixel kann also auf einem Monitor durchaus 3 Wiedergabepixel mit differenzierten Informationen versorgen! Bei der Reduktion von vier Seinsorpixeln auf nur drei Wiedergabepixel eines Monitors würde die Infomationsmöglichkeit auf ein Viertel reduziert.
Noch komplizierter wird es bei Tintenstrahldruckern wo bis zu 12 Farbtinten zu einer Farbinformation zusammenge"gespritzt" werden.
Bin da auch noch etwas an rätseln wie die Druckerhersteller die Informtion eines einzigen Pixels zu Papier bringen würden. Sollte man sich mal unter dem Mikroskop ansehen.
Grüße
Alexander
Zuletzt bearbeitet: