• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Wie viel Megapixel braucht man wirklich?

Ein Monitor benötigt früher wie heute 3 "Pixel" um eine Information darzustellen, bestehend aus R G B.

Ein Bayersensor benötigt vier Pixel R G G B für eine Farbinformation aber jedes Pixel hat die volle Helligkeitsinformation, was hier bislang vergessen wurde.

Das führt zu einem durchaus gemäß der Megapixelangabe aufgelösten Bild bei nicht exakter Farbverteilung wenn man es so ausdrücken möchte.

Eine reine SW-Kamera wie die Leica kann deshalb pro Pixel praktisch die volle Information liefern, ein SW-konvertiertes Bild sollte damit differenziertere Informationen liefern.

Da aber auch die Farbinformation mit unterschiedlichen Helligkeitswerten für jedes Pixel belegt ist und die Farbe normal nicht pixelscharf im Bild wechselt, sondern eher auch langsam übergeht, kann man davon ausgehen, dass ein Bayersensor durchaus in der Lage ist annähernd Inforamtionen gemäß seiner angegebenen Auflösung zu bringen, wohingegen zurecht bei Monitoren drei Piexel als eines gezählt werden müssen.

Ein Bayersensor rechnet also aus vier Pixeln "R G G B" eine Farbe aber diese hat dann pro "Wiedergabepixel" eine eigene Helligkeitsinformation, was bei einer Wiedergabe durchaus ein sehr differenziertes und informationshaltiges Bild ergibt, gleiche Farbe aber in vier Helligkeiten. Ein jedes Sensorpixel kann also auf einem Monitor durchaus 3 Wiedergabepixel mit differenzierten Informationen versorgen! Bei der Reduktion von vier Seinsorpixeln auf nur drei Wiedergabepixel eines Monitors würde die Infomationsmöglichkeit auf ein Viertel reduziert.

Noch komplizierter wird es bei Tintenstrahldruckern wo bis zu 12 Farbtinten zu einer Farbinformation zusammenge"gespritzt" werden.

Bin da auch noch etwas an rätseln wie die Druckerhersteller die Informtion eines einzigen Pixels zu Papier bringen würden. Sollte man sich mal unter dem Mikroskop ansehen.

Grüße
Alexander
 
Zuletzt bearbeitet:
Ein Bayersensor rechnet also aus vier Pixeln "R G G B" eine Farbe aber diese hat dann pro "Wiedergabepixel" eine eigene Helligkeitsinformation, was bei einer Wiedergabe durchaus ein sehr differenziertes und informationshaltiges Bild ergibt, gleiche Farbe aber in vier Helligkeiten.

Die Wahrheit ist dann doch etwas komplizierter, und die Verfahren zum de-Bayering eines Bayer-Sensors fuellen inzwischen vermutlich halbe Buecherregale. Definitiv falsch ist jedenfalls, dass die vier Pixel im fertigen Bild dann die gleiche Farbe haetten.
 
Die Wahrheit ist dann doch etwas komplizierter, und die Verfahren zum de-Bayering eines Bayer-Sensors fuellen inzwischen vermutlich halbe Buecherregale. Definitiv falsch ist jedenfalls, dass die vier Pixel im fertigen Bild dann die gleiche Farbe haetten.

Das stimmt, das Demosaicing ist wesentlich komplizierter. Aber die gleiche Farbe haben sie ja auch in meiner stark vereinfachten Beschreibung nicht. Die gleiche Grundfarbe wird in vier Helligkeitsstufen durchaus zu vier unterschiedlichen Farben.

Je nach verwendetem Algorithmus zur Decodierung geht das natürlich noch viel besser weil zwischen den Pixeln auch noch Farben interpoliert werden.

Im Grunde handelt es sich beim Bayersensor um einen SW-Sensor, wo je eine Gruppe von 4 SW-Sensorpunkten mit Farbfiltern RGGB versehen wird. Je nach Intensität des dann gefilterten Lichts lässt sich die Stäre der RGB Anteile bestimmen und in Verhältnis dazu auch die Helligkeit an dem Punkt. Je nach Decodierung und Interpolation entstehen dann in jedem Fall vier unterschiedliche Farb-Helligkeitsinformationen.

Wichtig war mir kurz zu beschreiben, dass (und wie ungefähr) mit dem Verfahren durchaus ein auf Pixelebene differenziertes sinnvolles, an die Wirklichkeit angelehntes Bild entsteht, wohingegen bei einem Monitor oder einem Drucker ein Pixel oder Bildpunkt alleine absolut nichts ist.
 
Zuletzt bearbeitet:
Da aber auch die Farbinformation mit unterschiedlichen Helligkeitswerten für jedes Pixel belegt ist und die Farbe normal nicht pixelscharf im Bild wechselt, sondern eher auch langsam übergeht, kann man davon ausgehen, dass ein Bayersensor durchaus in der Lage ist annähernd Inforamtionen gemäß seiner angegebenen Auflösung zu bringen, wohingegen zurecht bei Monitoren drei Piexel als eines gezählt werden müssen.

Es ist eben nur dann richtig, wenn die Farbe nicht pixelscharf im Bild wechselt. Daher ist die volle Auflösung auch bei Schwarzweiß bei einem Sensor mit Bayer-Filter nicht möglich und daher die Schwarzweiß-Aufnahme einer Schwarzweiß-Leica detailgenauer als einer Leica mit Bayer-Filter.

Wenn der Übergang zwischen einem Pixel mit Blaufiter zu einem mit Grünfilter verläuft kann man nur raten, welche Helligkeit in Schwarzweiß dieser hat. Der Unterschied ist freilich geringfügig, aber er ist da. Beim Vergleich zwischen Scharzweiß- und Farb-Leica kann man das feststellen.
 
Das stimmt, das Demosaicing ist wesentlich komplizierter. Aber die gleiche Farbe haben sie ja auch in meiner stark vereinfachten Beschreibung nicht. Die gleiche Grundfarbe wird in vier Helligkeitsstufen durchaus zu vier unterschiedlichen Farben.

Die beiden ueblichsten Methoden, Farbe und Helligkeit darzustellen:

RGB - Rot-, Gruen- und Blau-Kanal
Lab - Luminanz- und zwei Farbvektorkanaele

Mit "Helligkeit" ist vermutlich Luminanz gemeint. Die bekommst Du mit dem Bayer-Pattern aber nicht. Du bekommst genau eines: Einen der Farbkanaele (rot, blau oder gruen). Den Rest musst Du errechnen. Wie gesagt: Es ist komplizierter als Du es beschreibst.

Ein Sensor mit Foveon-Technologie hat also bei gleicher Pixelzahl des Bildes mehr Aufloesung. Einfach die dreifache Pixelzahl anzugeben (weil man ja jeweils ein rot- gruen- und blau-Sensel pro Ausgabepixel hat) ist aber auch irgendwie Humbug. In der Praxis bekommst Du damit nicht ein Viertel, nicht ein Drittel, aber auch nicht die volle Aufloesung. Der Grund ist, dass es gewisse Strukturen in der realen Welt gibt, die vorkommen, und andere eher nicht. Je nach Bildinhalt geht das mal mehr und mal weniger gut.

In der Praxis ist die Frage "wie viele Megapixel brauche ich" aber doch nicht ganz so bloed. Die meisten Sensoren haben ein Bayer-Pattern, und angenommen, man hat ein brauchbares Objektiv, liefern die bei gleicher Megapixelzahl etwa eine vergleichbare Aufloesung - etwa, nicht exakt.
 
[...]

Ein Bayersensor benötigt vier Pixel R G G B für eine Farbinformation aber jedes Pixel hat die volle Helligkeitsinformation, was hier bislang vergessen wurde.
[...]


Grüße
Alexander

Das verstehe ich nicht Alexander, wie sollte der pixel die richtige helligkeitsinformation haben, wenn er doch vom (meisten/vielem) licht abgeschirmt ist?
Er schielt auf die nachbarpixel und interpoliert, aber genau dadurch ist das was er weiss ein mischmasch aus meheren pixel, daher vermanschen details, wie sollte es anderes sein? Das kann ich nicht verstehen.

w
 
Das verstehe ich nicht Alexander, wie sollte der pixel die richtige helligkeitsinformation haben, wenn er doch vom (meisten/vielem) licht abgeschirmt ist?
Er schielt auf die nachbarpixel und interpoliert, aber genau dadurch ist das was er weiss ein mischmasch aus meheren pixel, daher vermanschen details, wie sollte es anderes sein? Das kann ich nicht verstehen.

w

Hast Du auch von Google unter dem Forum diesen hornalten Thread präsentiert bekommen? Keine Ahnung, warum Google gerade den wieder aus der Versenkung holt.
 
Das verstehe ich nicht Alexander, wie sollte der pixel die richtige helligkeitsinformation haben, wenn er doch vom (meisten/vielem) licht abgeschirmt ist?

Wie bei jedem anderen fotografischen Farbfilter auch: Der Verlängerungsfaktor ist bekannt. Grob vereinfacht muss man nur die pro Sensel gemessene Lichtmenge mit dem Verlängerungsfaktor hochrechnen, dann hat man den richtigen Wert für jede Ortskoordinate.
 
Wie bei jedem anderen fotografischen Farbfilter auch: Der Verlängerungsfaktor ist bekannt. Grob vereinfacht muss man nur die pro Sensel gemessene Lichtmenge mit dem Verlängerungsfaktor hochrechnen, dann hat man den richtigen Wert für jede Ortskoordinate.

Auch ein farbfilter verschlechtert die lichtempfindlichkeit. Deswegen macht man ihn ja drauf. Manchmal fuer einzelne farben, manchmal fuer alle farben (graufilter). Das kann gewollt sein, aber meistens ist das nix, deswegen macht man sie auch wieder runter :)

Man muss es sich einfach vorstellen, das ist immer das beste.
Wir wollen viele pixel, weil wir so viele details erfassen koennen.
Wir gehen dabei davon aus das nachbarpixel unterschiedliche farben*1 und helligkeiten haben koennen aufgrund der struktur (des motivs) das wir fotografieren. Es kann natuerlich sein das nachbapixel sich gleichen, aber wenn es eine aenderung gibt, eine kannte, dann wollen wir sie erkennen.

Das koennen wir nicht wenn wir unseren pixel mit den nachbar pixeln verwaessern. Es wird matschig dadurch. Die kannte wird nicht mehr klar erkannt, die aufloesung ist fuer die katz.

w

*1 genau diese unterschiedliche farbe der angrenzenden einheit ist ganz wichtig, obwohl es um SW fotos geht. So koennte der nachbarpunkt 10 mal heller sein, in rot, aber der sensor ist auf dem auge blind und wuerde nur gruen sehen. Dann pech, die helligeitsveraenderung wird komplett uebersehen von der kamera, das detail ist weg. Ein SW sensor haette das problem nicht, der koennte dieses detail erfassen.
 
Klar, jeder einzelne Sensel liefert immer nur einen Luminanzwert.

Das Lichtspektrum kann man ja aus den Nachbarpixeln ermitteln. Sonst würde ja die AWB nicht funktionieren.
Nicht wenn es zum nachbarpixel anders ist.
Weil wir genau das wissen wollen haben wir die hohen aufloesungen.
Das bayer pattern verspielt das und gibt uns farbe, wenn wir jedoch sowieso auf SW reduzieren wollen verschenkt es details/aufloesung.
Wie gesagt, der nachbarpixel koennte heller sein, das wird nicht erkannt wenn der pixel blind ist fuer die farbe in der er "leuchtet". (natuerlich leuchtet das motiv, nicht der sesorpixel, schon klar ;) )

w
 
Wenn sich das optische Signal (die Projektion auf den Sensor) an 2 benachbarten Pixelpositionen signifikant unterscheidet, sind die Pixel zu groß (oder das Objektiv zu gut).

Immerhin ist es unser ziel diese unterschiede zu finden und "zu zeigen" im bild. Das sind die strukturen und details. Mittelwerte verstecken strukturen und details, man spricht auch von "glaetten".
Es ist offensichtlich das die filter ueber den sensorpunkten information daempfen. (Was nicht heisst das ich fuer farbfotos einen bessere idee haette, aber dennoch muss man das eingestehen.)

w
 
Ja, aber nicht mit dem Unterschied zwischen zwei benachbarten Pixeln.

Ich weiss nicht ob klar ist das ich von den nachteilen eines bayer sensors spreche, wenn man als ergebnis SW moechte. (graustufen natuerlich)
Fuer farbe habe ich einfach keine bessere loesung/idee. Bei SW jedoch nimmt der bayer sensor licht und schaerfe/details.
Und falls mich die unterschiede zum nachbarpixel nicht interessieren, dann waere es einfacher grosse pixel zu nehmen, das hat dann auch grosse vorteile. :) Ich glaube jedoch aufloesung ist wichtig, solange sie nicht uebertrieben ist. (es die objektive nicht mehr schaffen) "Zu kleine" pixel haben grosse nachteile, klar.

w
 
Ich weiß nicht, ob klar ist, dass ich von den Nachteilen eines Bayer-Sensors spreche, wenn man als Ergebnis SW möchte. (Graustufen natürlich)

Das ist trivial. Dann nimm einen S/W-Sensor, den gibt's bei Leica. Der Auflösungsverlust wegen des Bayer-Filters ist aber längst nicht so groß, wie er auf dem Papier klingt (aber das wurde ja auch schon längst gesagt).

Und falls mich die Unterschiede zum Nachbarpixel nicht interessieren, dann waere es einfacher große Pixel zu nehmen, das hat dann auch große Vorteile. :)

Das hat fast nur (s.u.) Nachteile. Aber es geht nicht darum, ob die Unterschiede mich interessieren, sondern ob sie korrekt und vollständig erfasst werden. Ein Übergang hell-dunkel in der Projektion auf den Sensor ist nie abrupt, sondern immer stetig. Wenn der dann nur als abrupter Sprung erfasst wird, sind die Pixel zu groß.

Ich glaube jedoch Auflösung ist wichtig, solange sie nicht übertrieben ist. (es die Objektive nicht mehr schaffen) "Zu kleine" Pixel haben große Nachteile, klar.

Warum muss immer das Objektiv das "schwächste Glied" in der Übertragungskette sein? Nur weil das bisher immer so war? Zu kleine Pixel haben vielleicht Probleme mit der Geschwindigkeit, der Datenmenge, ggfs. mit dem Rauschen u.dgl., aber die bloße Sensorauflösung hat davon abgesehen nie einen Nachteil, auch nicht, wenn sie um Größenordnungen größer ist als die des Objektivs.
 
Das ist trivial. Dann nimm einen S/W-Sensor, den gibt's bei Leica.
Den gibt es nicht nur bei Leica, ich gebe auch zu ich haette gerne einen, aber man kann nicht alles haben. Das ist kein grund die nachteile zu bestreiten nur weil man es selbst nicht besser kann. Es ist jedoch ein ziel.
Der Auflösungsverlust wegen des Bayer-Filters ist aber längst nicht so groß, wie er auf dem Papier klingt (aber das wurde ja auch schon längst gesagt).
Du meinst er betraegt nicht genau ein drittel, wie man erstmal vermuten muesste? Mag sein, man verliert allerdings nicht nur aufloesug, sondern auch licht. Ich sehe schon grosse nachteile.
Das hat fast nur (s.u.) Nachteile. Aber es geht nicht darum, ob die Unterschiede mich interessieren, sondern ob sie korrekt und vollständig erfasst werden. Ein Übergang hell-dunkel in der Projektion auf den Sensor ist nie abrupt, sondern immer stetig. Wenn der dann nur als abrupter Sprung erfasst wird, sind die Pixel zu groß.
Nie - ausser... klar :D
Warum muss immer das Objektiv das "schwächste Glied" in der Übertragungskette sein? Nur weil das bisher immer so war? Zu kleine Pixel haben vielleicht Probleme mit der Geschwindigkeit, der Datenmenge,
Es gibt unterschiedliche grosse pixel und sensoren.
Geschwindigkeitsprobleme, oder datenmenge haengt an der anzahl der pixel, nicht an der groesse, aber das nur nebenbei. Wir reden ja ueber was anderes.
ggfs. mit dem Rauschen u.dgl., aber die bloße Sensorauflösung hat davon abgesehen nie einen Nachteil, auch nicht, wenn sie um Größenordnungen größer ist als die des Objektivs.
Rauschen, bzw lichtmenge sind ja schon grund genug.
Ich habe jedoch die erfahrung gemacht das ich mit "schlechten" objektiven gute bilder machen kann, wenn die pixel gross sind. Die gleichen objektive bei hoher pixeldichte "schlechtere bilder" machen. Irgendwas machen "zu kleine" pixel (fuer das jeweilige objektiv) offenbar doch kaputt.
Das kann ich nicht belegen, aber es scheint mir so. Das koennte was mit beugung zu tun haben, das ist aber nur geraten...

w
 
Du meinst, er beträgt nicht genau ein Drittel, wie man erstmal vermuten müsste? Mag sein, man verliert allerdings nicht nur Auflösug, sondern auch Licht. Ich sehe schon große Nachteile.

Dein Auge "verliert" auch Licht, weil es ein ausgeprägtes Empfindlichkeitsspektrum hat.

Nie - ausser... klar :D

Erst lesen und verstehen, dann lachen.

Rauschen, bzw Lichtmenge sind ja schon Grund genug.

An der Lichtmenge ändert sich überhaupt nichts, ob man nun einen großen oder auf der gleichen Fläche viele kleine Pixel belichtet. Es ändert sich allenfalls, aber auch das nicht zwangsläufig (deshalb schrieb ich "ggfs.") das über die gleiche Fläche kumulierte Ausleserauschen.
 
WERBUNG
Zurück
Oben Unten