Der Farbraum eines Monitors der den gesammten AdobeRGB Farbraum darstellen könnte wird also in einem Programm welches sRGB nutzt und Farbmanagement beherrscht virtuell auf sRGB soll beschnitten.
So ähnlich...
Der Monitor hat einen eigenen, physikalischen Farbraum, der von der Hintergrundbeleuchtung und der Farbmatrix abhängt. Dieser unterscheidet sich von sRGB, AdobeRGB und anderen Monitorfarbräumen. Sinn des Farbmanagements ist, Bilder auf allen Monitoren farbrichtig anzeigen zu lassen. Daher muss erst mal individuell für jeden Monitor ein Profil erstellt werden, das seinen Farbraum beschreibt. Sollen dann Bilder, die sRGB oder AdobeRGB vorliegen, angezeigt werden, wird an Hand des Monitorprofils berechnet, was für Werte an die Grafikkarte geschickt werden müssen. Dabei wird nicht der Farbraum des Monitors beschnitten, sondern es werden gezielt diejenigen Farben im Farbraum des Monitors gesucht, die den Bildfarben entsprechen. Bei einem sRGB-Bild kann dann natürlich nur der sRGB-Farbraum ausgenutzt werden (denn mehr gibt das Bild ja nicht her - egal was der Monitor kann), bei AdobeRGB analog. Aber der Farbraum des Monitors wird nicht beschnitten, der soll so groß wie möglich bleiben. Wird ein "nicht-farbgemanagtes" reines Rot an den Monitor geschickt, dann wird das maximale Monitor-Rot angezeigt. Wird ein sRGB-Rot angefordert, dann wird eben nur ein sRGB-Rot angezeigt.
Wird dagegen der Monitor in einem Farbraum-Emulationsmodus betrieben, dann "kann" er plötzlich nur noch beispielsweise sRGB darstellen. Bekommt er dann ein einfaches Maximal-Rot geschickt, dann wird dieses automatisch zum sRGB-Rot. Allerdings kann er dann kein AdobeRGB-Rot mehr anzeigen, da das außerhalb des nun verwendeten Monitorfarbraums liegt.
Genau diese Lösung benötige ich für meinen HTPC, kannst du mir einen Tip geben wie ich das hin bekomme?
Das ist ein Feature des Monitors - der verfügt entweder über einen (mehr oder weniger brauchbaren) Emulationsmodus oder nicht.
Also die Farbtemperatur unverändert zu lassen oder auf das Umgebungslicht anzupassen ist doch totaler Quatsch.
Gerade bei billigen Displays mit 8-bittiger LUT nicht. Beispiel: Dein Monitor hat einen nativen WP bei irgendwo über 8000 K, also eine kühle Farbgebung. Wenn Du jetzt den Monitor auf D65 trimmen willst, musst Du zwangsläufig den B-Kanal runterfahren. Wenn Du jetzt noch Pech hast, und das OSD Dir auch noch eine Skala von nur 100 Schritten zur Verfügung stellst, dann gehen Dir da beispielsweise 40 von 256 Abstufungen verloren. Anstatt Dir also einen Blauverlauf in 256 Stufen anzuzeigen, können überhaupt nur noch 206 Stufen benutzt werden. Farbabrisse und Banding sind die Folge. Es kann also sehr wohl Sinn machen, die Farbtemperatur nicht zu verändern.
Wenn man außerdem gedruckte oder ausbelichtete Bilder mit dem Monitorbild vergleichen will, steht man vor dem Problem, dass WP des Monitors und das Weiß des Papiers bei Umgebungsbeleuchtung gleich sein müssen. Wenn Du nur vor dem Monitor sitzt, ist der WP recht Banane, da sich das Auge adaptiert. Wenn Du aber vergleichen musst, dann benötigst Du auch vergleichbare Weißpunkte. Also musst Du Dein Umgebungslicht an den Monitor anpassen oder umgekehrt.
Wenn der Standard D65 vorschreibt ist dieser auch zu benutzen und nicht irgendetwas anderes.
Von welchem Standard sprichst Du bitte? Wenn Du stur D65 am Monitor einstellen willst, dann musst Du eben drauf achten, dass Deine Umgebungsbeleuchtung die gleiche Farbtemperatur hat.
Wenn Du allerdings unbedingt einen Standard haben willst, dann musst Du auf D50 gehen - das ist der ISO-genormte Industristandard in der Bildverarbeitenden Branche. AdobeRGB und sRGB sind keine Standards.