Und bis sich HDR-fähige Bildschirme durchgesetzt haben, vom Smartphone über den PC-Monitor bis zum Fernseher, wird es noch lange dauern.
Das wird schneller gehen als du denkst...zumindest im TV Bereich ist schonmal FHD selbst in der Einsteigerklasse ganz klar ein auslaufender Standard...und SDR wird folgen!
Die Verbreitung von HDR ist mittlerweile eh sehr stark mit der von UHD Geräten verbunde...eben wegen der Verkoppelung auf der UHD BR von UHD + HDR + Rec.2020....und auch beim Streaming/VoD bekommt man UHD abseits von YouTube auch immer öfter nur noch im "Dreierpack" mitsamt HDR und WCG....
Wenn man sich zudem mal so anschaut was die großen TV Hersteller dieses Jahr auf den Markt bringen, wird FHD und reine SDR Geräte in absehbarer Zeit eher eine absolute Low-Cost Nische werden.
LG und Samsung sind schon dieses Jahr recht nahe dran am vollständigen aussortieren!
Bei Handys geht es ja auch schon los...zumal es bei allen Geräten mit OLED wirklich nur ein reines Verarbeitungsthema ist.
Die Displays können das in den meisten Premiumgeräten also idR zumindest heute schon rein theoretisch. OLEDs sind mit SDR ja sowieso nicht mal ansatzweise ausreizbar.
Zu allem Überfluß ist das HDR-Thema im Videobereich noch immer in einem Findungsstadium, so daß bislang unklar ist, welches Format und welches technische Niveau sich letztlich durchsetzen wird.
Das ist derzeit noch so unklar, daß nur klar ist, daß man das, was man heute kauft, in 5 Jahren nicht mehr aktuell und damit ggf. teilweise imkompatibel sein wird.
Nein...das Thema ist eigentlich komplett durch...wenn überhaupt ist die Entwicklung in bestimmten Nieschen noch offen!
Wenn du heute ein UHD Premium Gerät kaufst wird das auch in 10 Jahren noch kompatibel sein.
HDR10 und HLG sind und bleiben Baseline, weil es einfach die Standardformate für UHD BR, Streaming und Broadcasting sind!
Die stehen auch nicht in Konkurrenz zueinander sondern sind Ergänzend zu betrachten.
Beides können im Grunde 99% aller HDR fähigen Geräte und es ist schlicht der kleinste gemeinsame Nenner was HDR angeht.
UHD Premium ist zudem auch mittlerweile fest etabliert.
Für höhere Ansprüche läuft es als HDR Format zudem praktisch bisher überwiegend eher auf Dolby Vision hinaus!
Ggf. noch tw. HDR10+...wobei da bisher effektiv nur Amazon als Content Provider drauf setzt und auch entsprechendes Material liefert (parallel zu HDR10)...davon aber auch nur sehr sehr wenige Inhalte....
Netflix, die generell weitaus mehr Inhalte in UHD und auch HDR streamen bieten praktisch alles in DV und HDR10 an.
Was diese beiden Formate mit dynamischen Metadaten angeht (für Fotos natürlich vollkommen irrelevant) dürfte es natürlich in Zukunft noch interessanter werden...dort herrscht tatsächlich eine Art "Formatkrieg" (oder er zeichnet sich zumindest ab...denn HDR10+ ist in der Praxis eher noch selten anzutreffen)...aber jedes Gerät das dyn. Metadaten (DV oder halt HDR10+) verarbeitet, kann sowieso immer sowohl HDR10 oder HLG als "Fallback"!
Insofern ist das auch kein voll ausgewachsener Format"krieg" sondern eher ein kleines Scharmützel.
Einzig die Monitorhersteller und die Softwareumgebung hinken im PC Segment halt mal wieder 3-4 Jahre dem hinter her was das TV und Videosegment vorlebt!
Aber auch für PCs wird es zu 99% auf HDR10 hinauslaufen...und entsprechende VESA Standards für HDR gibt es auch schon.
Das wird sich in den nächsten Jahren durchaus an das Niveau der TVs&Co. angleichen.
denn das was da bislang an Spezifikationen erarbeitet wurde, kann noch kein Bildschirm wiedergeben.
Das war ja auch die Absicht hinter der PQ-EOTF!
Das finale Tonemapping ist da nunmal grundsätzlich Gerätespezifisch und richtet sich anhand der Metadaten auf die Fähigkeiten des Endegeräts aus.
Der Workflow ist dadurch allerdings anders als mit einer Gammkurve, weil es eher dem entspricht was man bisher als "Zwischenformat" nutzen würde! (Es ist ja mehr oder weniger ein etwas besseres "LOG" Format!)
Man ist als Contentersteller deswegen zwar fremdgesteuerter was die Endergebnisse angeht....das kann Problematisch sein...ich denke aber das es schlicht einfach nur entsprechende Erfahrungswerte braucht und sich gewisse Dinge mit der Zeit einfach von alleine erledigen.
HLG ist dagegen aber schon etwas besser "kontrollierbar" und bietet sich als Transferfunktion für Fotos vlt sogar noch eher an weil es ja mehr eine Art Gammakurve Deluxe ist!
Deswegen kann man damit auch SDR und HDR parallel übertragen und aus dem gleichen Datensatz rekonstruieren...
Aber zurück zum Fotobereich: Dort tut sich kaum etwas, weil die bisherigen Bildsensoren längst nicht dort angekommen sind wo sie sein müßten, um HDR-Ergebnisse mit einer Aufnahme zu produzieren.
Das stimmt ja nicht ganz...sonst könntest du ein RAW ohne Tonemapping auf einem beliebigen Display anzeigen oder in einem 8bit JPEG mit traditioneller Gammakurve verlustfrei speichern....und das haut ja einfach nicht hin! Sonst gäbe es die ganze bestrebungen in Richtung Pseudo HDR ja auch garnicht.
Die 15 EV einer A7RIII bekommst du ja wohl kaum verlustfrei in ein JPEG.
Die SDR Gammakurve limitiert CMOS Sensoren eigentlich schon länger...es fehlte halt lange vorallem einfach an passenden Anzeigegeräten für echtes HDR!
Ohne Local Dimming mit vielen Zonen ist HDR auf einem LCD eher dürftig und Plasmas und CRTs waren schlicht und ergreifend nie hell genug...optimaleres HDR ist sowieso eigentlich erst seit der Marktreife der OLEDs möglich.
Und auch jetzt wo es mittlerweile passendere Geräte gibt, ist allerdings leider noch kein einheitlicher breit akzeptierter Standard für HDR Fotos etabliert oder zeichnet sich überhaupt ab.