Vielleicht nochmal anders herum erklärt: Es geht bei den "hochbittigen" LUTs der HW-kalibrierbaren Monitore nicht darum, eine so hohe Tonwertwertauflösung wie die LUT selbst zu erreichen, sondern die Tonwertauflösung, die die Grafikkarte bietet (also 8 Bit oder 10 Bit)
nicht weiter zu verschlechtern. Edit: Grumpf... das gleiche hatte Stoker ja eigentlich auch schon gesagt - na egal, doppelt hält besser

Ich hatte mir mal ein kleines Simulationsprogramm geschrieben (siehe auch
hier), mit dem man das evtl. ein bisschen besser veranschaulichen kann.
Nehmen wir mal an, wir haben ein normales System mit 8-Bit-Grafikkarte, einem Kalibrierungsziel von Gamma 2,2 und einen Monitor, dessen natives Gamma von 2,6 auf das Ziel-Gamma korrigiert werden muss. Bei einer 8-Bit-LUT bleiben dabei von den 256 Eingangstonwerten nur noch 240 Ausgangstonwerte übrig. Wenn man das Ganze nicht in der Graka, sondern im Monitor mit einer höherwertigen 10-Bit-LUT mappen würde, bleiben alle 256 Eingangstonwerte am Ausgang (d.h. intern in der Ansteuerelektronik des Panels) erhalten.
Gleiches Beispiel bei einer 10-Bit-Grafikkarte: Bei einer 10-Bit-LUT bleiben von 1024 Eingangstonwerten noch 961 Ausgangstonwerte übrig. Bei einer höherwertigen 12-Bit-LUT im Monitor bleiben wieder alle 1024 Eingangstonwerte ausgangsseitig erhalten.
Eine LUT, die eine etwas höhere Bit-Auflösung hat als die eigentliche Tonwertauflösung der Grafikkarte, kann also die Verluste der Tonwerte deutlich eindämmen bzw. auf Null reduzieren. Übrigens habe ich hier nur mit unterschiedlichen Gamma-Werten gerechnet - bei notwendigen Angleichungen zwischen den RGB-Kanälen für die Ziel-Farbtemperatur können da noch ganz andere Unterschiede auftreten. Allerdings muss man sich auch klar machen, dass 2 Bit mehr bei einer LUT theroretisch Skalierungen der Tonwerte bis Faktor 4 verlustfrei umrechnen können - das sollte in der Praxis ausreichen (oder?).
P.S. Diesen Vorteil der HW-Kalibrierung kann man teilweise auch bei "Software-Kalibrierung" (also Grafikkarten-LUT) erreichen, in dem man den Monitor manuell möglichst gut auf die Zielwerte einstellt (soweit die Kalibrierungs-Software dazu Hilfestellung gibt) - unter der Voraussetzung, dass der Monitor a) RGB-Regler hat und b) diese RGB-Regler intern auch mit einer höheren Bit-Auflösung arbeiten. Damit verteilt man die Kalibrierung quasi auf die Monitor-Hardware (Grobeinstellung) und die Grafikkarten-LUT (Feineinstellung durch die Kalibrierungssoftware), wobei die Grafikkarten-LUT dann nur noch minimale Unterschiede korrigieren muss und deswegen nur noch sehr wenig Verluste in den Tonwerten produziert.