• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

TIFF Bild als 10bit HDR Video

Luchs13

Themenersteller
Ich versuche gerade 16 Bit TIFF Bilder (aus Canon RAW Formaten) an einem neuen 4k UHD HDR Fernseher (Panasonic EX780 Serie) in 10 bit Technik in einer AV Show darzustellen.
Ich verwende dazu den neuen HEVC (H.265) Codec mit main10 Profil. Laut MediaInfo hat mein erzeugtes MP4-Video tatsächlich 10 Bit Farbtiefe mit dem BT.2020 Farbraum und wird an meinem Fernseher auch als HDR Video dargestellt (HDR(PQ) Anzeige).
Mein Problem: Das Bild sieht identisch aus zu einem 8 Bit JPG Bild (das ich aus dem gleichen 16 Bit TIFF Bild abgespeichert habe), ich sehe keine kräftigeren Farben, keinen zusätzlichen Tonwertumfang.
Meine Bildbearbeitung erfolgt an einem hardwarekalibirierten NEC SpectraView Bildschirm, allerdings hat mein Win7 PC noch eine alte 8 Bit Grafikkarte, d.h. ich habe keinen vollständigen 10 Bit Workflow. Bisher dachte ich, dass bei einem 16 Bit TIFF Bild (mit ausgenutztem Tonwertumfang) beim Abspeichern als JPG für eine 8 Bit Bildschirmdarstellung der Tonwertumfang entsprechend reduziert wird und dass entsprechend bei einer Reduktion auf einen 10 Bit Tonwertumfang eines HDR Videos aus dem gleichen TIFF Bild ein deutlich brillianteres Bild entstehen müsste.

Hat hier schon jemand Erfahrung mit diesem Thema?
Habe ich hier einen Gedankenfehler wenn ich meine, dass mein 16 Bit TIFF Bild als 10 Bit HDR Video brillianter sein muss als ein 8 Bit JPG?
 
8bit heißt, dass das gesamte Farbspektrum in knapp 17 Mio einzelne Farbabstufungen aufgesplittet wird, 10bit, dass es in über 1 Mrd Farbabstufungen aufgeteilt wird. Das gesunde menschliche Auge verfügt aber (vereinfacht gesagt) nur über eine Farbauflösung von 10 bis 12 Mio Farbabstufungen. Daher kann man mit dem Auge 8bit nicht von 10bit unterscheiden.

10bit eröffnet mehr Optionen bei der Bilddatenverarbeitung (es sind sozusagen mehr Rohdaten da), aber erzeugt keinen sichtbaren Unterschied bei der Farbwiedergabe am Monitor gegenüber 8bit. Den vorhandenen Farben wird nichts hinzugefügt, es gibt nur mehr Datendetail auf Pixelebene. Das ist gut für Extreme und ist sehr sinnvoll für Color Grading, Chroma Keying u.s.w. in der Nachbearbeitung, weil dort Fehler (z.B. Colorbanding) besser kontrolliert und gesteuert werden können.

Rainer
 
Ich versuche gerade 16 Bit TIFF Bilder (aus Canon RAW Formaten) an einem neuen 4k UHD HDR Fernseher (Panasonic EX780 Serie) in 10 bit Technik in einer AV Show darzustellen.
Nach dem vorherigen Beitrag ist das halt wieder ein Marketing Schachzug und kein sinnvolles Feature an einem Fernseher.
 
...ein deutlich brillianteres Bild entstehen müsste.

Zum technischen Aspekt, der schon angesprochen wurde, kommt noch etwas,
das sich bereits in der Erwartungshaltung zeigt, die ich deshalb mal zitiert habe.

Die Erwartung ist doch tatsächlich, dass eine Steigerung der Farbtiefe von
8 auf 10 bit, die ja den Wertebereich jedes Farbkanals vervierfacht, doch
eigentlich "deutlich" zu sehen sein müsste ... schliesslich ... das 8 bit Bild
hat ja gerade mal 25 % der im 10 bit Bild möglichen Information je Kanal.

Tatsächlich ist es aber so, das die Steigerung von 1bit auf 3 bit viel mehr
sichtbare Verbesserung bringt, als die Steigerung von 3 bit auf 5 bit ...
u.s.w. ... die Steigerung von 8 auf 10 liefert nur noch den Hauch einer Nuance.
Genau das Gegenteil von "deutlich" sichtbar ist der Fall.

Wenn man also überhaupt was sehen kann, dann bestenfalls in den allerfeinsten
Farbabstufungen.
 
Tatsächlich ist es aber so, das die Steigerung von 1bit auf 3 bit viel mehr
sichtbare Verbesserung bringt, als die Steigerung von 3 bit auf 5 bit ...
u.s.w. ... die Steigerung von 8 auf 10 liefert nur noch den Hauch einer Nuance.
Genau das Gegenteil von "deutlich" sichtbar ist der Fall.
Ja, weil in diesen Bereichen das menschliche Auge Farbabstufungen ja noch unterscheiden kann. Ab 8bit ist da Schluss, alles darüber kann das menschliche Auge nicht mehr wahrnehmen. Soll heißen, bis 8bit ist die Auflösung diesbezüglich nicht irrelevant, sondern erst darüber.

Rainer
 
WERBUNG
Zurück
Oben Unten