• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Mai 2025.
    Thema: "Grün"

    Nur noch bis zum 31.05.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

HDR-Chiptechnologie für "one-shot" noch Zukunftsmusik?

Derzeitige Spitzenreiter in der one-shot-Dynamik sind Fuji S5pro mit an die 14 Blendenstufen aus one-shot, gefolgt von Nikon D700/D3 mit gut 12 Blendenstufen.

Die Sony Alpha 900 kommt bei dpreview in dem Punkt sehr gut weg: http://www.dpreview.com/reviews/sonydslra900/page24.asp

Man hat bei diesen "normalen" Lösungen allerdings immernoch das Problem, dass man in den Extrema an Auflösung verliert, dh in sehr hellen oder dunklen Bildteilen hat man immernoch nur relativ wenige Abstufungen verglichen zum mittleren Bereich.
 
Die Sony Alpha 900 kommt bei dpreview in dem Punkt sehr gut weg: http://www.dpreview.com/reviews/sonydslra900/page24.asp
Die "DPreview-Dynamik" ist und bleibt ohne eine quantitative Rauschbeschreibung eine reine Kontrast-Wiedergabefunktion. Eine echte Bestimmung der Sensordynamik ist dies leider nicht.

Man hat bei diesen "normalen" Lösungen allerdings immernoch das Problem, dass man in den Extrema an Auflösung verliert, dh in sehr hellen oder dunklen Bildteilen hat man immernoch nur relativ wenige Abstufungen verglichen zum mittleren Bereich.
Ist bei entsprechend angepasster Bittiefe in den RAW-Speicherformaten nicht wirklich das Problem.
 
Es gibt quietschbunte Bilder und das Vermögen eines Sensors, einen bestimmten Dynamikumfang aufzuzeichnen. Das eine hat mit dem anderen nichts zu tun, bzw. ich werde mich vermutlich nie an einem blauen Himmel sattsehen können. Ich will fotografieren können, was ich sehe, und momentan kann ich das in vielen Fällen nicht. Und das betrifft nicht nur die Innenräume von Kirchen, sondern die nicht seltene Gegenlichtsituation einer am Fenster stehenden Person, die derzeit unüberbrückbar ist.(...)

ja, das triffts auf den punkt. danke :)

mir gehts auch nicht um die ausgabemedien und deren probleme, sondern in erster linie um nen möglichst grossen informationsgehalt einer bilddatei. natürlich wegen aller option, die eine solche technik mit sich bringen: so können im nachhinein komplett neue lichtwelten geschaffen werden (denke da nur an cgi im auto bereich mit hdr-kugelpanoramen als szenerien) und um ne haargenaue belichtung wird man sich auch nich mehr kümmern müssen. das is noch geiler als iso- und mp-wahn zusammen.

von der fuiji hab ich auch schon gehört, schiele da aber mehr in den >18 blendenstufenbereich

mal so ein gedanke, verzeiht, ich bin ein ziemlicher techniknoob ... wäre es nicht möglich, neben den 'normalen' rgb-sensoren welche zu packen, die in sinnvollen stufen immer dunkler werden und diese (getrennten) daten dann intern zu nem hdr zusammenzurechnen ... damals gabs doch auch 3-shot lösungen (rgb), die später in 1-shot vereinigt wurden. müsste theoretisch doch auch mit belichtungsstufen so funzen?

freue mich übrigens, dass der thread wieder rausgeholt wurde. hat meines erachtens nen grosses potential, diese technik ...

achja ... und bitte keine weiteren diskussionen um schlecht gemappte bilder, ok? die gibts zu genüge in der galerie (bilder und diskussionen) ;)

gruss::andreas
 
von der fuiji hab ich auch schon gehört, schiele da aber mehr in den >18 blendenstufenbereich
Ups, das wird mit heutiger Technologie schwierig ... zumal auch die vorgeschaltete Optik erst mal diese Streulichtunterdrückung packen müsste.

mal so ein gedanke, verzeiht, ich bin ein ziemlicher techniknoob ... wäre es nicht möglich, neben den 'normalen' rgb-sensoren welche zu packen, die in sinnvollen stufen immer dunkler werden und diese (getrennten) daten dann intern zu nem hdr zusammenzurechnen ... damals gabs doch auch 3-shot lösungen (rgb), die später in 1-shot vereinigt wurden. müsste theoretisch doch auch mit belichtungsstufen so funzen?
Nihcts anderes macht Fuji in der S5. Dies könnte man nun noch per Diversifizierung der "abgedunkelten Pixel" perfektionieren, wobei es allerdings zu beachten gilt, dass
a) jede weitere "Flächenverschwendung" auch zu Lasten der Fläche dunkel-empfindlicher Pixel geht
b) die Abdunklung und Fläche von "Lichter-Pixeln" immer noch genügend Dynamik in diesen Pixeln belassen muss, damit eine alleinige Bildgebung über diese Pixel nicht zu groteskem Banding oder "Lichterrauschen" führt.

Dass diese Anforderungen nicht wirklich einfach zu erfüllen ist, zeigt z.B. die ISO-Abhängige Dynamik der Fuji S5pro, die nur so lange greift, wie die abgedunkelten Pixel auch für die Dynamikerweiterung einbezogen werden können. Bei höheren ISO-Werten knickt die Dynamik dann abrupt ein:
http://www.dxomark.com/index.php/eng/Image-Quality-Database/Fujifilm/FinePix-S5-Pro
-> "Dynamic Range" klicken
 
Ups, das wird mit heutiger Technologie schwierig ... zumal auch die vorgeschaltete Optik erst mal diese Streulichtunterdrückung packen müsste.

Genau.
Dazu müßte man

  • Step 1: Von Zoomobjektiven mit 18-22 Linsen zu Festbrennweiten mit 6 oder 7 Linsen übergehen.
  • Step 2: Weiterhin von lichtstarken Festbrennweiten mit Offenblende von 1,2/1,4/1,8 zu spezialisierten Festbrennweiten mit Offenblende von 3,5-4,5 und 4 Linsen übergehen.
  • Step 3: Die Entfernungseinstellbarkeit so einfach wie möglich halten (einfache Auszugsverlängerung statt IF).

Man muß sich im klaren darüber sein, daß nicht nur ein Zoomobjektiv (Objektiv mit Brennweitenverstellbarkeit) ein Kompromiß darstellt, sondern gleiches für Objektive mit Blendenverstellbarkeit und großem Einstellbereich der Entfernung (Halbmakro oder Makro) gilt. Auch diese Einstellbarkeit erfordert Aufwände, weitere Linsen, deoptimiert die interne Streulichtunterdrückung (weil alles unnötig weit gehalten werden muß) und erfordert weitere Grenzflächen.

Ein auf Blende 5,6 optimierter Tessar mit 7 Grenzflächen hat eine Auflösung, die 2 bis 3 Prozent unter der theoretischen Grenzauflösung eines idealen Objektivs liegt. So was und das ganze dann oberflächenvergütet als wenn es ein 22-Linser wäre, das erlaubt dann In-Bild-Kontraste von 1:700 nach ANSI (Hälfte 0%Schwarz + Hälfte 100%Weiß hellt das Schwarz auf 0,14% auf => Falschlichtanteil von 0,28%).

Üblich sind bei lichtstarken Festobjektiven um 2%, beim EF 50/1.4 wahrscheinlich deutlich über 5%.
 
Derzeit ist neben MP-Wahn und ISO-Wahn noch keine klare Tendenz zum Dynamik-Wahn erkennbar.

Derzeitige Spitzenreiter in der one-shot-Dynamik sind Fuji S5pro mit an die 14 Blendenstufen aus one-shot, gefolgt von Nikon D700/D3 mit gut 12 Blendenstufen.

Ich sehe zur Zeit Nachholbedarf auf Seiten der Display-Technologien und der Software.

"Normale" Sensoren machen nun schon 1:4000 (gezogen auf das Rauschen auf Pixelebene),
Displays liegen bei 1:2000 (gezogen auf das dunkelste Schwarz).

Folgende indische Kühe müßten geopfert werden:

  • Weiß ist die hellst darstellbare Farbe (#FFFFFF) => Weiß ist die Farbe, die 160 cd/m² hell ist (#xyxyxy mit xy=99...C4). Display mit genügend Kontrast und Maximalhelligkeiten von 300 cd/m² ... 1000 cd/m² kann man dann sinnvoll benutzen, ohne die Helligkeit für Büroarbeit reduzieren zu müssen.
  • sRGB-Farbraum des Monitors => Primärvalenzen des Monitors so weit wie möglich auseinander
  • Bilder in JPEG-Dateien sind optimal für ein CRT aus den frühen 90er Jahre zu rendern => Original-Bildaten abspeichern + Displayoptionen für Papier/CRT/TFT in dunkler/mittlerer/heller Umgebung
  • Bilde kann man 1:1 in den Bildschirmspeicher kopieren => Software hat Bilder sorgfältig auf das Ausgabegerät und die Umgebungsbedingungen umzurechnen
  • Bildschirme haben etwa 100 dpi => Bildschirme haben irgendwas zwischen 30 und 400 dpi. Bilder sind umzurechnen.

Derzeitige RGB-Farbräume:

sRGB: Wir richten uns nach dem schwächsten! Auch wenn das selbst ein Fernseher aus den frühen 1950er Jahren schon mal besser konnte!
542px-CIExy1931_sRGB.svg.png


AdobeRGB: Wir erinnern uns an das NTSC-Grün!
542px-CIExy1931_AdobeRGB.png


Adobe WideGamut RGB: Wir getrauen uns, drei spektral reine Primärfarben zu nutzen.
542px-CIExy1931_AdobeWGRGB.png


ProPhoto RGB: Wir getrauen uns, als Primärfarben praktisch nicht darstellbare Farben zu benutzen. Allerdings war man wieder feige genug, das Dreieck so groß zu machen, daß alle Farben darstellbar sind.
542px-CIExy1931_ProPhoto.png

Image:CIExy1931_ProPhoto.png

XYZ (das graue Dreieck, wenn auch in dieser Graphik nicht vollständig): Endlich sind alle Farben darstellbar. Eines geht aber immer noch nicht: Das Anwenden von erst 200% Farbsättigung und dann von 50% Farbsättigung clippt Farben.
543px-CIE-Normfarbtafel.png
 
Ich schlage mehr Primärvalenzen vor, und zwar Violett, Blau, Cyan, Grün, Gelb, Orange, Rot ;-). Erzeugt selbstverständlich von monochromatischen Mini-LEDs. Ausserdem wird das ganze Farbsystem nicht mehr an der Wahrnehmung von aufrecht gehenden Primaten orientiert, sondern an der Realität.

Ich verstehe aber nicht, warum Du Weiss noch unterteilen willst in Weiss und "Überweiss".
 
Nuja, aber Farben auf einem Display darzustellen, die der Betrachter nicht sehen kann, ist rein Kommunikationstheoretisch bedingt sinnlos. Das halte ich für Consumer-Displays für klar übertrieben.

Da es bereits Formate mit frei wählbaren Farbtiefen und Farbräumen gibt, wäre es für Spezialanwendungen kein Problem, auch nicht-sichtbare Farben in eine Datei zu packen, und diese auch auf einem entsprechend fähigen Display korrekt darzustellen. Dafür müssen aber nicht alle Consumer-Displays gleich Röntgenstrahlung emittieren können ;)
 
Ich schlage mehr Primärvalenzen vor, und zwar Violett, Blau, Cyan, Grün, Gelb, Orange, Rot ;-). Erzeugt selbstverständlich von monochromatischen Mini-LEDs. Ausserdem wird das ganze Farbsystem nicht mehr an der Wahrnehmung von aufrecht gehenden Primaten orientiert, sondern an der Realität.

Ich verstehe aber nicht, warum Du Weiss noch unterteilen willst in Weiss und "Überweiss".

Es gibt in der Natur deutlich hellere Farben als Weiß.
Zur Zeit wird das so gelöst, daß diese helleren Farbtöne stark komprimiert werden und ein 100% Weiß als z.B. (192,192,192) auf dem Bildschirm dargestellt wird.

Zum einen gibt es hier den Zielkonflikt, daß man zum natürlichen Darstellen von Glanzeffekten und Lichtquellen im Bild man das natürliche Weiß abdunkeln muß und damit Bilder dunkel werden. Zum anderen sind typische GUIs immer noch auf Weiß als Standardhintergrundfarbe getrimmt.

Eigentlich will ich eine Farbschnittstelle, in der:

  • bei der Weiß bei gegebener Raumhelligkeit (normales Raum-Tageslicht) auf eine feste Helligkeit (z.B. 160 cd/m²) gemappt wird (wenn der Monitor mindestens 160 cd/m² darstellen kann),
  • hellere Farben, die der Monitor darstellen kann, sind trotzdem nutzbar, egal, ob das 161 cd/m², 250 cd/m², 800 cd/m² oder 5000 cd/m² sind.
  • beim Rendern noch die Möglichkeit besteht, die Raumhelligkeit in die exakte Darstellung einfließen zu lassen.
 
Das geht mir jetzt irgendwie zu durcheinander, weil mir die Definition der Farbe "weiss" so nicht geläufig ist.

Ich würde intuitiv annehmen, dass Lichtmenge (Intensität) und Lichtfarbe nicht gekoppelt sind. Weisses Licht gibt es ja eigentlich nicht; es ist ja nur ein Farbeindruck, der durch eine bestimmte Mischung von Spektralfarben entsteht, und den unser Gehirn dann eben zu "Farbe: weiss" umbaut (genau wie bei allen anderen Mischfarben).

Ich kann nun nicht wirklich einsehen, wie etwas "heller" oder "dunkler" sein kann als weiss, weil weiss an sich gar keine Helligkeit beschreiben kann (als Farbangabe).

Lediglich als Monitoreigenschaft im RGB-Modell. Aber da stellt sich die Frage, ob man in der Dynamik-Diskussion nicht eher nach HSB (man beachte: nicht HSV!) gehen sollte, wo sofort deutlich wird, dass weiss einfach nur ein Hue=egal, S=0, B=? ist, wobei B(rightness) eben für ein mehr oder weniger "helles weiss" stehen kann.

Du sprichst eigentlich glaube ich eher von "Reinweiss", oder so.

Was ich sagen will: dem sog. "weiss" im RGB-Modell entspricht rein von der Logik her kein spezifisches "Weiss" in der Natur (Helligkeit), das ergibt sich erst am Monitor durch dessen Wiedergabemöglichkeiten; bei stupider LUT entspricht Weiss (0x0ffffff im 8-Bit-RGB) dann eben dem cd-Wert, den der Monitor maximal schaffen kann.

Erst mit komplexerer LUT ergibt sich ein Unterschied zwischen max. Helligkeit des Monitors und dem bei 0x0ffffff abgerufenen Wert.

Aber streng genommen ist der ansteuernde Wert dann ja gar nicht mehr 0x0ffffff, denn die LUT verändert ihn ja entsprechend. IMO alles nur eine Frage der korrekten Umsetzung des Farbmanagements.

Um noch mal auf die Helligkeit zu kommen: wo genau gibt es denn "hellere" Farben als weiss? In der Natur IMO höchstens wenn man sich tief in die Quantentheorie begibt, nach dem Motto, man kann auf einer konzentrierten Fläche "n" mehr Energie vereinigen, wenn man homogene Wellen verwendet, oder so. Im "normalen Wahrnehmungsbereich" ist ja jede helle Farbe durch ein wenigstens ebenso helles weiss zu ersetzen, indem man die Lichtmischung entsprechend ergänzt oder verändert.

Hat man bspw. eine rote Blume, so hat diese als Helligkeit - nicht-Fluoreszenz mal vorrausgesetzt - maximal den Anteil des roten Lichts am gesamten Beleuchtungsspektrum. Ein daneben gehaltenes weisses Blatt muss also zwangsweise heller sein.

Ich glaube du meintest das aber irgendwie anders. Erhelle uns :)
 
Das geht mir jetzt irgendwie zu durcheinander, weil mir die Definition der Farbe "weiss" so nicht geläufig ist.

Weiß auf einem (weitgehend normalen) Bild: Farbe eines diffus streuenden Objektes ohne Absorption.

Weiß in OpenGL: (1.000000, 1.000000, 1.0000000)

Maximalhelligkeit des Monitors:
5 bit = (31,31,31)
8 bit = (255, 255, 255)
10 bit = (1023, 1023, 1023)
12 bit = (4095,4095,4095)

Weiß als Farbe in einem RGB-Farbraum: R=G=B (entspricht dem Weißpunkt diese Farbraums).
Neutralweiß: x = 1/3, y=1/3, z=1/3

Weiß als Spektrum: kontinuierliches Spektrum von maximal 380 nm bis mindestens 780 nm mit konstanter spektraler Leistungsdichte

Weiß als Glühspektrum: Schwarzer Strahler mit einer Temperatur von 5000 K, 5700 K oder 6500 K.


Ich würde intuitiv annehmen, dass Lichtmenge (Intensität) und Lichtfarbe nicht gekoppelt sind. Weisses Licht gibt es ja eigentlich nicht; es ist ja nur ein Farbeindruck
Sobald ich Farbnamen benutze, handelt es sich immer um Farbeindrücke.
Naja, nicht immer. Es gibt auch die Worte Rot, Grün, Blau und Weiß als Basiskoordinaten für die Achsenlage in einem RGB-Farbraum.

Lediglich als Monitoreigenschaft im RGB-Modell. Aber da stellt sich die Frage, ob man in der Dynamik-Diskussion nicht eher nach HSB (man beachte: nicht HSV!) gehen sollte, wo sofort deutlich wird, dass weiss einfach nur ein Hue=egal, S=0, B=? ist, wobei B(rightness) eben für ein mehr oder weniger "helles weiss" stehen kann.

Man kann so ziemlich jeden Farbraum nehmen. Sogar der sRGB-Farbraum ist zur Darstellung aller Farben geeignet. Allerdings darf man dann die Werte, die in RGB-Tripeln auftreten, nicht mehr als Zahl zwischen #00 und #FF bzw. 0.000 und 1.000 begrenzen.

Du sprichst eigentlich glaube ich eher von "Reinweiss", oder so.
Ich komme nicht aus der Waschmittelbranche!

Was ich sagen will: dem sog. "weiss" im RGB-Modell entspricht rein von der Logik her kein spezifisches "Weiss" in der Natur (Helligkeit), das ergibt sich erst am Monitor durch dessen Wiedergabemöglichkeiten; bei stupider LUT entspricht Weiss (0x0ffffff im 8-Bit-RGB) dann eben dem cd-Wert, den der Monitor maximal schaffen kann.
Und wenn das 50.000 cd/m² sind?

Mit perfekter Hardware könnte die meiste Software und die mesiten Konventionen nicht umgehen und würde vollständig versagen.

Beispiele:

  • Monitor, der alles von 0,000.002 cd/m² bis 40.000 cd/m² (Über 10 Größenordnungen) darstellen könnte.
  • 36"-Monitor mit 400 dpi (12.000 x 8.000 Pixel) mit entsprechender Graphikkarte und Interconnect, die das ansteuern kann.
  • Computer mit unendlich viel RAM (der Speichertest würde auch unendlich lang dauern).
  • Computer mit unendlich viel Plattenplatz (es gibt keine Dateisysteme dafür).


Erst mit komplexerer LUT ergibt sich ein Unterschied zwischen max. Helligkeit des Monitors und dem bei 0x0ffffff abgerufenen Wert.

Aber streng genommen ist der ansteuernde Wert dann ja gar nicht mehr 0x0ffffff, denn die LUT verändert ihn ja entsprechend. IMO alles nur eine Frage der korrekten Umsetzung des Farbmanagements.

LUT-Programmierung in Graphikkarten ist großer Bockmist. Sie bewirken nur, daß man nicht mehr alle Farben darstellen kann und die Abstände nichtäquistant sind.

Um noch mal auf die Helligkeit zu kommen: wo genau gibt es denn "hellere" Farben als weiss?
Sichtbare Lichtquellen, nichtdiffus streuende Flächen + unsichtbare Lichtquellen.

In der Natur IMO höchstens wenn man sich tief in die Quantentheorie begibt, nach dem Motto, man kann auf einer konzentrierten Fläche "n" mehr Energie vereinigen, wenn man homogene Wellen verwendet, oder so.
Wozu Quantentheorie? Reine Praxis reicht aus. Oder mal eine Szene mit OpenGL rendern. Ein nicht unbeträchtlicher Teil der Entwicklung der Graphikkarten der letzten 2 Jahre beschäftig sich mit diesem Thema. Inverstitionen, die im Bereich mehrerer Milliarden USD liegen.

Im "normalen Wahrnehmungsbereich" ist ja jede helle Farbe durch ein wenigstens ebenso helles weiss zu ersetzen, indem man die Lichtmischung entsprechend ergänzt oder verändert.
Bahnhof?




Hat man bspw. eine rote Blume, so hat diese als Helligkeit - nicht-Fluoreszenz mal vorrausgesetzt - maximal den Anteil des roten Lichts am gesamten Beleuchtungsspektrum. Ein daneben gehaltenes weisses Blatt muss also zwangsweise heller sein.

Ich glaube du meintest das aber irgendwie anders. Erhelle uns :)[/quote]
 
Wozu Quantentheorie? Reine Praxis reicht aus. Oder mal eine Szene mit OpenGL rendern. Ein nicht unbeträchtlicher Teil der Entwicklung der Graphikkarten der letzten 2 Jahre beschäftig sich mit diesem Thema. Inverstitionen, die im Bereich mehrerer Milliarden USD liegen.

Das ist aber nicht "heller als weiss". Das liegt einfach daran, das Lichtquellen addiert werden.

Beispiel: zwei Lichtquellen seien auf eine bestimmte Helligkeit X definiert, nehmen wir mal an Farbton der Lichtquelle sei weiss (0x0ffffff), Lichtintensität nach OpenGL 0.8. Jetzt trifft dieses Licht auf eine Oberfläche, nehmen wir mal in sie reflektiert nach idealem Shader 100% des einfallenden Lichts (kein besonders realistisches Material, aber es vereinfacht das Beispiel). Nehmen wir weiterhin mal an, es gibt keinerlei Abnahme der Lichtintensität mit der Entfernung, was ebenfalls nur zur Vereinfachung des Beispiels dient.

Bei einer Lichtquelle ist alles OK, da bekommen wir ein Weiss mit einer Intensität von 0,8 zurück - kann man ohne Probleme darstellen, 0x0ffffff je Farbkanal *0,8 und gut ist.

Wenn man jetzt aber die zweite Lichtquelle anschaltet, fällt plötzlich die doppelte Lichtmenge auf die Fläche, und wir bekommen 0x0ffffff * 1,6 - was natürlich nicht mehr darstellbar ist, weil 0x0ff je Kanal ja schon unser Maximalwert ist - es kommt also zum Clipping.

Das liegt aber letztlich nur an der Definition der Wertebereiche für Farbkanäle. Im Grunde hat hier der Szenenbauer geschlampt, weil er "zu viel Licht" eingebracht hat.

Womit bei OpenGL und Co gekämpft wird ist, wie man diese im realen Leben tatsächlich vorkommenden Überstrahlungen realistisch in Materialien abbilden kann, wobei das m.E.n. dann eher in Effekten die man sonst von Linsensystemen her kennt, endet - beispielsweise Halos oder vor allem eben die Beeinflussung umliegender Pixel in Form von "Leuchtwolken" - so wie unser Auge solche überhellen Lichtquellen für sehr dunklem Hintergrund wahrnimmt, wenn das Auge mit der Dynamik überfordert ist.

Aber auch hier liegt's eigentlich nur an der Einschränkung des Ausgabemediums; eigentlich wird nur eine übermässige Helligkeit in der Szene simuliert, weil sie physikalisch halt nicht darstellbar ist (und weil man keine blinden Spieler/Betrachter produzieren möchte).

Letztlich ist das eben ein Weiss mit einer Intensität von >1.0, was aber im Grunde keine wesentliche Beschränkung darstellt. Will man das zeichnen, hat man die Wahl zwischen hartem Cutoff, einer wie auch immer gearteten linearen oder nichtlinearen Abbildung zwischen den beiden Farbräumen, und so weiter. Das ist aber im Grunde nur eine Wandlung zwischen Ausgabefarbraum und Bildfarbraum, was sich wie gesagt bereits heute durch die Farbraumdefinition innerhalb einer Datei technisch realisieren lassen sollte (indem man dem System halt erklärt, hallo, mein 0x0ffffff, das ist deutlich heller als dein 0x0ffffff - jetzt mach was draus).
 
Das ist aber nicht "heller als weiss". Das liegt einfach daran, das Lichtquellen addiert werden.

Beispiel: zwei Lichtquellen seien auf eine bestimmte Helligkeit X definiert, nehmen wir mal an Farbton der Lichtquelle sei weiss (0x0ffffff), Lichtintensität nach OpenGL 0.8. Jetzt trifft dieses Licht auf eine Oberfläche, nehmen wir mal in sie reflektiert nach idealem Shader 100% des einfallenden Lichts (kein besonders realistisches Material, aber es vereinfacht das Beispiel).

Übliche Lichtquellen haben so typische Helligkeiten im Bereich von 10^5. Weißes Papier hat dann um die 1, scharzes Papier um die 0,05.

Nehmen wir weiterhin mal an, es gibt keinerlei Abnahme der Lichtintensität mit der Entfernung, was ebenfalls nur zur Vereinfachung des Beispiels dient.
Dir ist der Energieerhaltungssatz bekannt? Du gehörst keiner fundamentalen Richtung an, die diesen leugnet?

Bei einer Lichtquelle ist alles OK, da bekommen wir ein Weiss mit einer Intensität von 0,8 zurück - kann man ohne Probleme darstellen, 0x0ffffff je Farbkanal *0,8 und gut ist.
Äquator, Mittag, Sonne, keine Wolken.

Vollständig weißes Blatt Papier liegt auf dem Boden: 35.000 cd/m²
Hellgraues Blatt Papier liegt auf dem Boden: 10.000 cd/m²
Dunkelgraues Blatt Papier liegt auf dem Boden: 5.000 cd/m²
Schwarzes Blatt Papier liegt auf dem Boden: 1.000 cd/m²

So, und nun kommen Materialien zum Einsatz, die nicht vollständig diffus reflektieren:
Zerknitterte Alu-Folie: 70.000 cd/m²
Metallic-lackiertes Blech: 100.000 cd/m²
Spiegel: 1.500.000.000 cd/m²

Gleiches gilt für Aufnahmen ohne Glanzeffekte, die aber Lichtquellen direkt enthalten. Teilweise ist in solchen Szenen der Maximalwert im wesentlichen durch die Auflösung bestimmt, um so höher diese ist, um so mehr entpuppen sich kleine dunkle Punkte nicht als leuchtdichtearm, sondern nur als klein. Da spielt sich z.B. gerade eine Supernova mit 5*10^25 cd/m² ab.

Der Referenzwert für Weiß und die hellste Helligkeit sind zwei völlig unterschiedliche Dinge.
 
Zuletzt bearbeitet:
Wenn wir schon heilige Kühe schlachten - es ergibt für mich keinen Sinn, für einen Renderer dann einen bestimmten Wert als "Weiss" festzulegen. Da kann man gleich mit Lumen und Lux als absoluten Einheiten arbeiten und Lichtwerte als 64bit Integer oder direkt Floats zu enkodieren. Andererseits wird man vmtl. nie in die Verlegenheit kommen, eine Supernova zusammen mit einer Kerze in einer Szene darstellen zu wollen.

Ich würde die Kuh ansonsten weiter schlachten - es gibt nur Spektralverteilung und Intensität.
 
Die "DPreview-Dynamik" ist und bleibt ohne eine quantitative Rauschbeschreibung eine reine Kontrast-Wiedergabefunktion. Eine echte Bestimmung der Sensordynamik ist dies leider nicht.

Schon, aber die lesen genausogut Kaffeesatz wie eine Menge andere Tester auch. Was die Dinger wirklich können weiss allein der Chip-Hersteller, und der wird es uns kaum sagen.

Ist bei entsprechend angepasster Bittiefe in den RAW-Speicherformaten nicht wirklich das Problem.

Doch, das Problem bleibt es, solange die Sensoren in etwa die selbe Wiedergabefunktion haben. Du hast die Rauschproblematik ja schon erwähnt. Praktisch alle in "normalen" Kameras verbauten Sensoren liefern recht wenig Auflösung in dunklen und hellen Berichen. Das ist unter Anderem bauartbedingt, weil an beiden Enden technische Limits erreicht werden. Unten läuft man in thermales Rauschen, oben in die Sättigung. Zwischendrin will man soviel Kontrast wie möglich rausholen, weil da in den meisten Fällen die interessanten Informationen liegen.

In die RAW-Dateien kann man noch soviele Bits reinstecken, man löst nur noch Artefakte auf. Das wäre dann in Ergänzung zum Megapixel-Wahn noch der Bit-Wahn :D Wenn man das technisch lösen wollte, müsste man einfach die eierlegende Wollmilchsau in Silizium ätzen, was in dem Fall ein Sensor wäre, der weder rauscht noch übersättigt.
 
Dir ist der Energieerhaltungssatz bekannt? Du gehörst keiner fundamentalen Richtung an, die diesen leugnet?

Was hat denn der Energieerhaltungssatz damit zu tun, dass ich vereinfachend für eine Lichtquelle in einem Computermodell annehme das es keinen Lichtintensitätsverlust geben soll (was man in übrigen in so ungefähr jedem Renderer genau so machen kann)?

Ich finde es ja gut dass du versuchst auf meine tendenziell Laienhaften Rückfragen einzugehen, aber mir zu unterstellen ich würde den Energieerhaltungssatz leugnen, nur weil ich mich genau in dem von dir vorgegebenen Bereich - nämlich der Computerwissenschaft und damit einem rein theoretischen Modellversuch - bewege, finde ich nicht wirklich zuträglich.

Ich habe auch noch nicht ganz verstanden, was der Unterschied zwischen deinem weissen Blatt Papier und dem Alublech sein soll, welches "mehr als diffus" reflektiert. Auch hier haben wir eine Lichtfarbe, die ausschliesslich durch die Materialeigenschaften des reflektierenden Objekts und die Lichtquelle zustandekommt, sowie eine Lichtintensität. Warum diese Eigenschaften nun dazu führen sollten, das in einem HSB-Modell "weiss" nicht die hellste Farbe sein "kann", ist mir dennoch völlig unklar.

Angenommen, das Alublech verändert die Lichtfarbe (aka spektrale Zusammensetzung) des von der Lichtquelle emittierten Lichtes ebenso wenig wie das weisse Blatt Papier, so sind beide vom Farbton (aka spektraler Farbzusammensetzung) her identisch, nur die Lichtintensität (Energiemenge) ist eben unterschiedlich. Die Differenz verpufft in Aufheizung des Papiers. So what?
 
Ich habe auch noch nicht ganz verstanden, was der Unterschied zwischen deinem weissen Blatt Papier und dem Alublech sein soll, welches "mehr als diffus" reflektiert. ...
Mal ganz einfach: Du willst doch, dass ein weisses Blatt Papier in einem Foto auch weiss dargestellt wird. Daneben könnte aber auch noch die Lichtquelle im Bild sein, die dieses weisse Blatt beleuchtet. Dass diese Lichtquelle dann im Bild ebenfalls noch heller sein sollte, als es das Blatt Papier selbst ist, dürfte verständlich sein. Der Ausweg hierzu: Das Blatt Papier wird in RGB(192,192,192) dargestellt, die Lichtquelle erhält jedoch z.B. (252,252,228).

Wenn wir ausschliesslich diffus reflektierende Dinge fotografierten, dann gäbe es nichts, was bei Belichtung per 18%-Graukarte noch mehr als 2,5 Blendenstufen heller wäre. Drößere Dynamikreserven in den Lichtern wären dann also nie erforderlich.

Da aber hie und da Lichtquellen mit im Bild sind, bzw. deren nicht diffus gestreute, sondern mehr oder weniger ungestreut reflektierte Bilder (Spiegelung einer Strassenlaterne auf Autolack, ...) mit im Bild sind und entsprechend heller ("strahlender") dargestellt werden sollen, als das weisse Blatt Papier, wird es Dinge geben, die heller als "normales Weiss" sind.
 
Schon, aber die lesen genausogut Kaffeesatz wie eine Menge andere Tester auch. Was die Dinger wirklich können weiss allein der Chip-Hersteller, und der wird es uns kaum sagen.
Widerspruch: zumindest so lange, wie wir von den Herstellern noch RAW-Dateien aus den Kameras ziehen können, kann man auch deren Dynamik experimentell testen.

Wenn man das technisch lösen wollte, müsste man einfach die eierlegende Wollmilchsau in Silizium ätzen, was in dem Fall ein Sensor wäre, der weder rauscht noch übersättigt.
Richtig. Am Rausch-Ende wird noch hart gearbeitet, ebenso wie bei Mikrolinsendesign und vielleicht auch noch ein Wenig an der Quanteneffizienz sowie der Farbmaske. Mit einem durchbrechenden Erfolg bei der Arbeit am Sättigungslimit könnte man sich sicherlich enormst verdient machen, selbst wenn dann die Zusatzdynamik mit einem geringeren ISO-Wert verbunden wäre.

Da - wie Du richtig erkennst - die Arbeit am Silizium noch nicht wirklich rasche Durchbrüche verspricht, ist der Alternativweg über "Trickpixel" wie bei der Fuji oder über Pixelfläche im Verbund mit minimiertem Ausleserauschen und perfekter Vermeidung von fixed pattern noise zu gehen.
 
... Der Referenzwert für Weiß und die hellste Helligkeit sind zwei völlig unterschiedliche Dinge.

So ist es.

Man sollte Äpfel nicht mit Birnen vergleichen.

Im Farbraum hat die Helligkeit ihren eigenen Wert und hat nichts mit der "Farbe" Weiß zu tun. :rolleyes:
Und wie schon weiter oben gesagt wurde: Weiß ist eine Mischung aus verschiedenen Farben.

Im CIE Lab- Farbraum steht "L" für die Helligkeit, "a" für die Koordinate von Grün zu Rot und "b" von Gelb zu Blau, wobei Weiß die Koordinate: "L, 0, 0" hat

Gruß, Rüdiger
 
Zuletzt bearbeitet:
Hallo allerseits.

Nach Monaten gelegentlichen Suchens bin ich erstaunt, dass das doch wohl mal irgendwann irgendwo zum Thema geworden ist.

Ich schreibe hier, weil ich ein theoretisches Konzept habe, echte HDR-Datensätze aus einer einzelnen Belichtung des Sensors zu gewinnen.
Ich habe bereits mit Spheron Kontakt aufgenommen - allerdings kam es zu keinem Treffen (was nicht mit dem Konzept zusammenhing).

Wer hier an der Materie interessiert ist und sich vorstellen kann Zeit in das Thema zu investieren, sich mit mir zu treffen und über das Konzept zu reden, kann mich gern kontaktieren.

Mir fehlen leider die richtigen Kontakte in die Industrie - und einfach so auf einen Kamerahersteller zuzugehen halte ich weiterhin für abwegig.

donal (at) wolf (minus) khosrowi (punkt) de
 
WERBUNG
Zurück
Oben Unten