• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RGBW-Sensoren?

Nein. Wie soll das physikalisch gehen? Das wäre eine wundersame Vermehrung der Photonenmenge.
Du mußt das auf die Fläche betrachten. Bei einem Bayer-Pattern (oder generell flächigen Farbfiltern) geht z.B. beim roten Pixel alles verloren, was nicht rot ist (mehr oder weniger). Bei einem Prismen-Ansatz kommt an der Stelle eben auch noch grün + blau an, d.h. man bekommt für jeden Punkt auf der Fläche immer alle Farben. Je nach Energieverlust durch die Signalauftrennung kann da also durchaus mehr Licht übrigbleiben, welches bei einem Bayer-Sensor einfach durch den Filter vernichtet wird.

Problem beim Foveon-Prinzip ist die Farbtrennung. Die nachträgliche Rückrechnung in Farben ist komplex und einer der Gründe, warum bei steigenden ISOs diese Sensoren einfach mal in sich zusammenbrechen.
 
Vorallem würden die "weißen" Sensel ja auch deutlich schneller volllaufen...oder sie müssten eine zur höheren Quantenausbeute proportional höhere Kapazität haben. :o

Das wäre nicht tragisch.

Würde man dieses RGBW Bild auf die halbe Auflösung (1/4 der Pixel ) zurück rechnen hätte man gewonnen:

Deutlich höhere Lichtempfindlichkeit (Graustufen), also weniger Helligkeitsrauschen

Verloren hätte man in diesem Fall garnix. Bei zu viel Licht ist die Farbinformation in den RGB Pixel nach wie vor da.

Die geringer Auflösung im Grünkanal wird durch höhere Auflösung bei Rot/Blau gewonnen (die jetzt im W Pixel mit drin sind) und man könnte bei so einem Sensor auch die Pixel generell kleiner machen, da man ja den weißen Superpixel in der Matrix hat, der eh dreimal mehr Photonen aufschnappt

mfg
 
@donesteban
Deswegen schrieb ich ja auch, dass nicht nur die Kameras, sondern auch die Anzeigegeräte verbessert werden müssen. Nichts würde furchtbar flau wirken, wenn der Bildschirm das Bild so wiedergeben könnte, wie es die Kamera eingefangen hat.
 
@donesteban
Deswegen schrieb ich ja auch, dass nicht nur die Kameras, sondern auch die Anzeigegeräte verbessert werden müssen. Nichts würde furchtbar flau wirken, wenn der Bildschirm das Bild so wiedergeben könnte, wie es die Kamera eingefangen hat.

Und dann die HDR automatisch für die Abzüge? Und die Fotobücher?
Auch Beamer sind ja nicht so furchtbar kontraststark. Die Angaben sind ja immer dynmaischer Kontrast, also mit Abbelnden zwischen zwei Bildern. Statisch und mit korrigierten Farben schaffen die Geräte der 1000 bis 2000 Euro Klasse ohne die DLP Dinger mit ihrem Regenbogen Effekt etwa 1:1000 bis 1:1500. Was rund 10 Blenden sind.

Es bringt daher wenig, nur Monitore hochzuzüchten im Kontrast. Man müsste es auf der gazen Kette schaffen, also auch beim Papier.

Ich hatte bereits zweimal Kameras die 14 Blenden packen (S5 Pro, K5). So wichtig ist mir dieses Feature nicht mehr.
 
Und dann die HDR automatisch für die Abzüge? Und die Fotobücher?
Auch Beamer sind ja nicht so furchtbar kontraststark. Die Angaben sind ja immer dynmaischer Kontrast, also mit Abbelnden zwischen zwei Bildern. Statisch und mit korrigierten Farben schaffen die Geräte der 1000 bis 2000 Euro Klasse ohne die DLP Dinger mit ihrem Regenbogen Effekt etwa 1:1000 bis 1:1500. Was rund 10 Blenden sind.

Es bringt daher wenig, nur Monitore hochzuzüchten im Kontrast. Man müsste es auf der gazen Kette schaffen, also auch beim Papier.
Beamer nutze ich nicht und ich drucke auch nicht so viel, wie früher. Aber ja, du hast Recht, am besten wäre es, wenn sich die Industrie die Mühe machen würde, alle Anzeigegeräte und alle Medien in diese Richtung zu verbessern.
Ich hatte bereits zweimal Kameras die 14 Blenden packen (S5 Pro, K5). So wichtig ist mir dieses Feature nicht mehr.
Wahrscheinlich deswegen, weil man außer dem Bearbeitungsspielraum derzeit keinen Vorteil davon hat.
 
Es bringt daher wenig, nur Monitore hochzuzüchten im Kontrast. Man müsste es auf der gazen Kette schaffen, also auch beim Papier...

Kapier ich nicht. Wenn ich ein Motiv mit sehr hohen Kontrast von meinetwegen 15 Blenden abbilden möchte brauche ich nun mal einen Sensor, der diese Dynamik schafft oder ich hab wahlweise abgesoffene Schatten oder ausgelaufene Lichter.

Was ich dann mit der Datei mache ist ganz was anderes.

Ich kann die auch auf Papier drucken mit 5 Blenden Dynamikumfang.

Trotzdem macht es doch auch auf diesem Papier einen erheblichen Unterschied aus, ob die Lichter nun sichtbar sind oder alles nur weiß wurde...

Die Eingangsdynamik (also die Fähigkeit des Sensors den Kontrastumfang abzubilden) ist in der ganzen Kette doch die entscheidende.

Was jetzt "gut genug" ist muss jeder für sich entscheiden.
 
Auch die D810, als eine der Kameras mit der höchsten Dynamik, hinkt sehr weit dem menschlichen Auge hinterher.
Nun, diese Aussage ist natürlich falsch.

Das menschliche Auge schafft maximal 14 Stufen Dynamik.

Genauso wie die D810. Und D750/D610/D7200/D5500. Und viele Vorgänger. Nur in der D3x00 Serie werden die billigsten Sensoren verbaut, die Nikon finden kann - daher schaffen die dann weniger.

Das Auge ist nur dann der D810 noch überlegen, wenn man eine Szene länger betrachtet. Nur dann kann das Auge nämlich etwas, das die D810 nicht kann: dynamisches ISO, d.h. ein Teil des Sichtfeldes wird lichtempfindlicher als andere Teile.

Wenn man dem Auge etwa 30 Minuten Zeit gibt, maximiert sich dieser Effekt und man kann ca 24 Stufen Dynamik erreichen. Wohlgemerkt gesunde junge Augen vorausgesetzt und optimale Lichtverhältnisse - die hellen Partien dürfen ja nicht ZU hell sein (Irgendwann findet eine Übersteuerung und später sogar Zerstörung des Auges statt) und die dunklen Partien nicht ZU dunkel (Umschalten von Farbsehen auf Schwarzweiß).

Wenn man danach die Augen schließt, ergibt sich ein Nachbild.

Und für dynamische Szenen ist diese Anpassung nicht möglich.

Da die D810 heutzutage de facto ISOless funktioniert, sehe ich da auch keine einfache Möglichkeit, das zu verbessern. Andere Kameras wie z.B. die Sony A7s, die sich nicht ISOless verhalten, hätten da andere Möglichkeiten.

Grundsätzlich kann das Auge aber ohne diesen Trick auch nicht mehr als aktuelle DSLR. Und die halbe Stunde Anpassung an eine feste Szene - das geht bei der Kamera über HDR sogar viel schneller. Und das geht dann ja sogar aus der Hand, wenn man sich mit JPEG zufriedengibt und die Kamera sehr still halten kann.



[...] Bei einem Bayer-Pattern (oder generell flächigen Farbfiltern) geht z.B. beim roten Pixel alles verloren, was nicht rot ist (mehr oder weniger). Bei einem Prismen-Ansatz kommt an der Stelle eben auch noch grün + blau an, d.h. man bekommt für jeden Punkt auf der Fläche immer alle Farben. [...]
Wie ich oben schon ausgeführt habe, und es donesteban bestätigt hat, ist der Lichtverlust durch einen Bayer-Farbfilter etwas mehr als ein Schritt, und nicht etwa zwei Schritte. Du bekommst ca 2.5 Mal soviel Licht, nicht 4 Mal.
 
Nun, diese Aussage ist natürlich falsch.

Das menschliche Auge schafft maximal 14 Stufen Dynamik.

keine Ahnung wie man von Blenden-Stufen auf Kontrast umrechnet :confused:

Bei Bildschirmen spricht man ja vom Kontrastumfang und der entspricht dem Verhältnis zwischen dem Hellsten und dem Dunkelsten noch erkennbaren Zustand. 14 Blendenstufen entspricht 2 hoch 14 = 16'400 Helligkeitsunterschiede.

Beim menschlichen Auge unterscheidet man 2 Kontrastumfänge: mit sowie ohne Anpassung an das vorherrschende Licht. Der Unterschied ist gewaltig:

http://www.itwissen.info/definition/lexikon/high-dynamic-range-HDR.html
 
Wie ich oben schon ausgeführt habe, und es donesteban bestätigt hat, ist der Lichtverlust durch einen Bayer-Farbfilter etwas mehr als ein Schritt, und nicht etwa zwei Schritte. Du bekommst ca 2.5 Mal soviel Licht, nicht 4 Mal.
Ich hatte keine Faktoren genannt und mich auch auf einen (nicht mal theoretischen) Extremfall bezogen: Pures rotes Licht.
 
Kapier ich nicht. Wenn ich ein Motiv mit sehr hohen Kontrast von meinetwegen 15 Blenden abbilden möchte brauche ich nun mal einen Sensor, der diese Dynamik schafft oder ich hab wahlweise abgesoffene Schatten oder ausgelaufene Lichter.

Was ich dann mit der Datei mache ist ganz was anderes.

Ich kann die auch auf Papier drucken mit 5 Blenden Dynamikumfang.

Trotzdem macht es doch auch auf diesem Papier einen erheblichen Unterschied aus, ob die Lichter nun sichtbar sind oder alles nur weiß wurde...

Die Eingangsdynamik (also die Fähigkeit des Sensors den Kontrastumfang abzubilden) ist in der ganzen Kette doch die entscheidende.

Was jetzt "gut genug" ist muss jeder für sich entscheiden.

Richtig.

Nur: Mit etwas an der Gradationskurve schrauben (für das gaze Bild, also NIX Masken etc vorher machen) ist irgendweo zwsciehn 8 und 10 Blenden im Motiv Schluss. Darunter wird es zu flau.
Mit 'nem billigen graden EBV Grauverlauf über 2 Entwicklungen aus einem RAW gehen noch ca. 2, maximal 3 mehr. Also ca. 12.

Darüber ist Schluss ist billig bei der EBV.Dann steht HDR an, Tonemapping, Exposure Fusing. Das ist genau gleich viel Arbeit ob man es nun aus 1 RAWmehrfach entwickelt macht, oder aus 3 RAW. Der Vorteil, dass es in einem geht, liegt nur bei den Motiven, die nicht 3 Bilder hintereinander erlauben. Bei statischen ist es wurst.

Mit Tone Mappings kann ich wenig anfangen der Effekt hat sich bei ir längst abgenutzt. Eine Exposure Fusion, sauber ud scharf am Rand vom Übergang gemacht ist evtl was anderes. Weicher Übergang, damit man denRand nur ungefähr treffen mus, ist auch da nichts für mich. Das sind Sachen die man mal für eine Anzahl besonderer Bilder macht, wobei diese Zahl dann genau eine Stelle hat. Aber nicht etwas was ich für 100 Bilder machen mag.

Ich hab mich ahlt mit S5 Pro und K5 immer mehr dabei erwischt, dass ich gesagt habe: Die Szene ginge, heisst aber EBV, mehr als wenige Clicks. Hmm it die zenewirklich SO extrem äussergewöhnlich interessant, dass ich das mache? Oder geht es nachher eh in die Ablage (nicht Tonne, ih hab die Bilder, die gut aber nicht super sind, jedoch solche Bearbeitung brauchen, zum guten Teil noch, bearbeitet werden sie wenn überhaupt mal, wenn ich in über 20 Jahren pensioniert bin)
 
Zuletzt bearbeitet:
Grundsätzlich kann das Auge aber ohne diesen Trick auch nicht mehr als aktuelle DSLR. Und die halbe Stunde Anpassung an eine feste Szene - das geht bei der Kamera über HDR sogar viel schneller. Und das geht dann ja sogar aus der Hand, wenn man sich mit JPEG zufriedengibt und die Kamera sehr still halten kann.

Im Grunde ist es egal, wie unsere Augen das schaffen, jedenfalls können wir einen größeren Dynamikbereich sehen, als eine Kamera imstande ist mit einer einzigen Auslösung einzufangen oder Monitore imstande sind anzuzeigen.
 
WERBUNG
Zurück
Oben Unten