• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Welcher Vorteil bei HW-Kalibrierung

Georgius

Themenersteller
Steht eh schon alles da. Die Monitore haben eine 12-Bit LUT. Nur gibt es keine Grafikkarten mit 12-Bit LUT?
 
Nein. Grafikkarten geben Maximal 10 bit aus.

Der Vorteil liegt ja eben darin dass dir bei diesen 10 bit (oder bei normalen Grafikkarten 8 bit) während der Hardwarekalibrierung nichts verloren geht.

Würdest du eine Reine Softwarekalibrierung durchführen würden es zu Tonwertverlusten bei den angesteuerten 10 bit (oder bei normalen Grafikkarten 8 bit) kommen.
 
Du meinst wenn es eine 12 bit LUT innerhalb des Monitors gäbe wäre es egal?

Nein, das wäre nicht egal denn diese LUT benutzt du ja für die Hardwarekalibrierung. Desto mehr Reserven die LUT in deinem Monitor hat desto mehr Spielraum hast du bei der Hardwarekalibrierung bis es zu Tonwertverlusten kommt.

Die 12 bit gelten nur für die interne Elektronik des Monitors nicht dafür was herein kommt oder was heraus geht.

Ich muss an dieser Stelle aber sagen dass ich da aus der Theorie spreche, da ich noch mit keinem solchen Monitor gearbeitet habe. Vieleicht meldet sich ja Master mal, der kann das sicherlich besser erklären...

Vieleicht hilft dir ja dieser Link:
http://www.eizo.de/pool/files/de/EIZO_LCD_Kalibration_Teil3.pdf
 
Vielleicht nochmal anders herum erklärt: Es geht bei den "hochbittigen" LUTs der HW-kalibrierbaren Monitore nicht darum, eine so hohe Tonwertwertauflösung wie die LUT selbst zu erreichen, sondern die Tonwertauflösung, die die Grafikkarte bietet (also 8 Bit oder 10 Bit) nicht weiter zu verschlechtern. Edit: Grumpf... das gleiche hatte Stoker ja eigentlich auch schon gesagt - na egal, doppelt hält besser :o:o

Ich hatte mir mal ein kleines Simulationsprogramm geschrieben (siehe auch hier), mit dem man das evtl. ein bisschen besser veranschaulichen kann.

Nehmen wir mal an, wir haben ein normales System mit 8-Bit-Grafikkarte, einem Kalibrierungsziel von Gamma 2,2 und einen Monitor, dessen natives Gamma von 2,6 auf das Ziel-Gamma korrigiert werden muss. Bei einer 8-Bit-LUT bleiben dabei von den 256 Eingangstonwerten nur noch 240 Ausgangstonwerte übrig. Wenn man das Ganze nicht in der Graka, sondern im Monitor mit einer höherwertigen 10-Bit-LUT mappen würde, bleiben alle 256 Eingangstonwerte am Ausgang (d.h. intern in der Ansteuerelektronik des Panels) erhalten.

Gleiches Beispiel bei einer 10-Bit-Grafikkarte: Bei einer 10-Bit-LUT bleiben von 1024 Eingangstonwerten noch 961 Ausgangstonwerte übrig. Bei einer höherwertigen 12-Bit-LUT im Monitor bleiben wieder alle 1024 Eingangstonwerte ausgangsseitig erhalten.

Eine LUT, die eine etwas höhere Bit-Auflösung hat als die eigentliche Tonwertauflösung der Grafikkarte, kann also die Verluste der Tonwerte deutlich eindämmen bzw. auf Null reduzieren. Übrigens habe ich hier nur mit unterschiedlichen Gamma-Werten gerechnet - bei notwendigen Angleichungen zwischen den RGB-Kanälen für die Ziel-Farbtemperatur können da noch ganz andere Unterschiede auftreten. Allerdings muss man sich auch klar machen, dass 2 Bit mehr bei einer LUT theroretisch Skalierungen der Tonwerte bis Faktor 4 verlustfrei umrechnen können - das sollte in der Praxis ausreichen (oder?).

P.S. Diesen Vorteil der HW-Kalibrierung kann man teilweise auch bei "Software-Kalibrierung" (also Grafikkarten-LUT) erreichen, in dem man den Monitor manuell möglichst gut auf die Zielwerte einstellt (soweit die Kalibrierungs-Software dazu Hilfestellung gibt) - unter der Voraussetzung, dass der Monitor a) RGB-Regler hat und b) diese RGB-Regler intern auch mit einer höheren Bit-Auflösung arbeiten. Damit verteilt man die Kalibrierung quasi auf die Monitor-Hardware (Grobeinstellung) und die Grafikkarten-LUT (Feineinstellung durch die Kalibrierungssoftware), wobei die Grafikkarten-LUT dann nur noch minimale Unterschiede korrigieren muss und deswegen nur noch sehr wenig Verluste in den Tonwerten produziert.
 
Zuletzt bearbeitet:
Du kansnt auch versuchen mit einer Softwarekalibrierung den Monitor auf Natives Gamma und Farbtemperatur zu kallibieren. Ich haeb bei meinem Eizo Felxscan S2232Native Gamma und Farbtemperatur gemessen. Dann habe ich diese Werte einfach als Kalibrieungssziel im Pro Modus eingetragen. Ich habe jetzt ein Gamma von 2,19 statt 2,2 und eine Farbtemperatur von 6400K statt 6500. Da ich keine zwei Zwei Monitore direkt mit einander vergleiche ist da egal.

Effekt. Die Softwarekorrektur wird weitestgehend unterdrückt. Bei erzeugten Grauverläufen reduziert sich das Banding und der darstellbare Farbraum wird minimal größer.
 
WERBUNG
Zurück
Oben Unten