Also mir ginge es nicht so sehr um 10 oder 8 Bit sondern um den Farbraum - bessere, lebendigere Farben halt, und die Tatsache dass CMYK in AdobeRGB hineinpasst - im Gegensatz zu sRGB. Momentan habe ich ja einen sRGB-Schirm (nicht ganz genau sRGB).
AdobeRGB/sRGB/ProPhotoRGB gibt hier nur den Farbraum an, also welche reale Farbe welchem R/G/B Pixelfarbwert von (0/0/0) bis (max/max/max) zugeordnet ist. 8bit-Adobe RGB enthält dabei z.B. ein leuchtenderes Rot und ein leuchtenderes grün als sRGB bei identischen Pixelwerten. Dafür fehlen ein paar andere Farben, die es in 8-bit sRGB gibt.
Die Farbtiefe gibt dann an wie viele Stufen von 0 bis max jeweils vorhanden sind. Bei 8-bit hat man 2^8, also 256 Stufen, bei 10-bit hat man 2^10, also 1024. Damit kann der 8-Bit Monitor eben 265 verschiedene "Rot-Helligkeiten", der 10-bit Monitor 1024. Somit lassen sich im Prinzip vom Monitor her auch viel feinere Rotstufen darstellen. Wobei man für die 10-bit Ausgabe in OpenGL und damit in Photoshop und LR usw. leider eine "Profi" Karte braucht, also eine Radeon Pro oder eine Nvidia Quadro. Und die sind nicht so ganz günstig, vor allem wenn sie noch etwas 3D-Leistung haben sollen.
Damit reicht eigentlich mit einer 8-bit Grafikkarte an einem nicht-kalibrierbaren Monitor im Prinzip auch erst mal ein 8-Bit Display. Hier hat man allerdings bei der notwendigen Profilierung über ein Messgerät dann das Problem, dass man am Ende weniger Farben hat, da die GPU z.B. ein "250/0/0" ausgeben muss, damit auf dem Monitor dann ein "256/0/0" Rot dargestellt zu bekommen. Diese "Differenz" bzw. "Neuzuordnung" wird dann in der Grafikeinheit in der LUT, der "Look up Table" gespeichert. Wobei diese bei "einfachen GPU" auch nur mit 8-bit arbeitet. So dass man am Ende z.B. keine 16.7 Mio tatsächliche Farben mehr hat, sondern nur z.B. nur noch 15,6 Mio, es fehlen durch die Profillierung ein paar Farben. Das kann eventuell dazu führen, dass man am Monitor Farbabrisse sieht, die im Bild eigentlich nicht vorhanden sind. Und wenn man in der EBV 100% Farbecht arbeiten möchte (z.B. wegen Produktfotografie...), dann ist das so auch ein bisschen ein Problem. Für private Zwecke und nur hin und wieder mal ein Bild bearbeiten reicht das aber völlig. Besser ist hier natürlich ein 10-bit Monitor, hier sind die möglichen Stufen zwischen den Farben am Monitor kleiner. So dass man hier normal nicht so viel korrigieren muss, man verliert weniger Farben.
Wirklich Abhilfe bei mehr Anspruch schafft dann aber erst ein hw-kalibrierbarer Monitor - hier gibt die Grafikkarte direkt ein "256/0/0" an den Monitor, man hat alle 16.7 Mio mögliche Farben am Ausgang der Grafikkarte. Und der Monitor wird dann intern so eingestellt, dass dort dann auch ein 256/0/0" dargestellt wird. Somit können am Monitor auch alle 16.7 Mio Farben dargestellt werden. (Und mit einer 10bit-GPU hätte man 1 Mrd mögliche Farben in der Darstellung..).Das geht u.a. deswegen weil diese Monitore dann z.B. intern mit einer 16-bit Tabelle für die Farben arbeiten.
Der Nachteil ist, dass man einen guten, hardware-kalibrierbaren Monitor mit >99% AdobeRGB, 24" und 1920x1200 bzw. 1920x1080 erst ab rund 650€ kriegt (grob geschätzt). Während man einen guten nicht-kalibrierbaren 10-bit Monitor (echte 10bit) vermutlich für schon rund 400€ bis 500€ kriegt und einen guten 8-bit (16.7 Mio Farben) schon ab rund 250€ bis 350€ oder so.
Aber wie gesagt: Wer nicht 100% Farbecht arbeiten möchte oder nicht die höchsten Absprüche hat, der kann auch schon mit einem guten "nur" 8-bit Display weit kommen - das ist zumindest in meinen Augen manchmal besser als mit einem schlechten hw-kalibrieraren, der dann nicht gleichmäßig ausgeleuchtet ist oder kein homogenes Bild hat usw.und bei dem dann auch die Kalibrierungs-Software noch rum zickt. Etwa wenn man mal schnell in den sRGB-Modus wechseln will, weil man irgendwelche Software ohne Farbmanagement verwenden möchte. Was bei guten Monitoren ein Mausklick ist kann bei schlechten auch mal 2 bis 3 Minuten dauern. Oder mehr. Oder die Software hat eine Einstellung verloren...