Luchs13
Themenersteller
Ich versuche gerade 16 Bit TIFF Bilder (aus Canon RAW Formaten) an einem neuen 4k UHD HDR Fernseher (Panasonic EX780 Serie) in 10 bit Technik in einer AV Show darzustellen.
Ich verwende dazu den neuen HEVC (H.265) Codec mit main10 Profil. Laut MediaInfo hat mein erzeugtes MP4-Video tatsächlich 10 Bit Farbtiefe mit dem BT.2020 Farbraum und wird an meinem Fernseher auch als HDR Video dargestellt (HDR(PQ) Anzeige).
Mein Problem: Das Bild sieht identisch aus zu einem 8 Bit JPG Bild (das ich aus dem gleichen 16 Bit TIFF Bild abgespeichert habe), ich sehe keine kräftigeren Farben, keinen zusätzlichen Tonwertumfang.
Meine Bildbearbeitung erfolgt an einem hardwarekalibirierten NEC SpectraView Bildschirm, allerdings hat mein Win7 PC noch eine alte 8 Bit Grafikkarte, d.h. ich habe keinen vollständigen 10 Bit Workflow. Bisher dachte ich, dass bei einem 16 Bit TIFF Bild (mit ausgenutztem Tonwertumfang) beim Abspeichern als JPG für eine 8 Bit Bildschirmdarstellung der Tonwertumfang entsprechend reduziert wird und dass entsprechend bei einer Reduktion auf einen 10 Bit Tonwertumfang eines HDR Videos aus dem gleichen TIFF Bild ein deutlich brillianteres Bild entstehen müsste.
Hat hier schon jemand Erfahrung mit diesem Thema?
Habe ich hier einen Gedankenfehler wenn ich meine, dass mein 16 Bit TIFF Bild als 10 Bit HDR Video brillianter sein muss als ein 8 Bit JPG?
Ich verwende dazu den neuen HEVC (H.265) Codec mit main10 Profil. Laut MediaInfo hat mein erzeugtes MP4-Video tatsächlich 10 Bit Farbtiefe mit dem BT.2020 Farbraum und wird an meinem Fernseher auch als HDR Video dargestellt (HDR(PQ) Anzeige).
Mein Problem: Das Bild sieht identisch aus zu einem 8 Bit JPG Bild (das ich aus dem gleichen 16 Bit TIFF Bild abgespeichert habe), ich sehe keine kräftigeren Farben, keinen zusätzlichen Tonwertumfang.
Meine Bildbearbeitung erfolgt an einem hardwarekalibirierten NEC SpectraView Bildschirm, allerdings hat mein Win7 PC noch eine alte 8 Bit Grafikkarte, d.h. ich habe keinen vollständigen 10 Bit Workflow. Bisher dachte ich, dass bei einem 16 Bit TIFF Bild (mit ausgenutztem Tonwertumfang) beim Abspeichern als JPG für eine 8 Bit Bildschirmdarstellung der Tonwertumfang entsprechend reduziert wird und dass entsprechend bei einer Reduktion auf einen 10 Bit Tonwertumfang eines HDR Videos aus dem gleichen TIFF Bild ein deutlich brillianteres Bild entstehen müsste.
Hat hier schon jemand Erfahrung mit diesem Thema?
Habe ich hier einen Gedankenfehler wenn ich meine, dass mein 16 Bit TIFF Bild als 10 Bit HDR Video brillianter sein muss als ein 8 Bit JPG?