Wie läuft das ab? Beispiel: AdobeRGB in der Cam, Lr/Ps können das lesen, Monitor kann sRGB, die Geräte auf den es nach der Entwicklung angeschaut wird können sRGB.
Bei der
Ausgabe (Monitor, Drucker...) wird der größere Farbraum in den kleineren umgerechnet, wobei es da mehrere Möglichkeiten gibt (Stichwort: "rendering intent"). Bei Monitoren hat man meistens keine Wahl, hier wird ein Standard benutzt (welcher von den möglichen rendering intents das ist fällt mir gerade nicht ein). Beim Drucken kann man das meistens auswählen.
Also würde man konkret auf einem sRGB-Monitor
in etwa das sehen, was die Kamera selbst bei Einstellung auf sRGB liefern würde - natürlich kann es Abweichungen geben, weil man nicht genau wissen, kann, wie die Kamera intern auf AdobeRGB und sRGB runterrechnet - ob irgendwie direkt von der Raw-Konvertierung aus oder über einen internen Arbeitsfarbraum etc., aber in etwa müsste das gleiche herauskommen.
Wie hier schon von Vorpostern gesagt: Natürlich muss man beachten, dass wenn man z.B. in LR die Sättigung erhöht, auch den urspr. Farbraum sprengen kann. Und bei Raw wird die Farbraum-Vorgabe der Kamera sowieso ignoriert und das Bildbearbeitungsprogramm gibt dann seinen eigenen vor (z.B. in LR eben unveränderbar eine Variante von ProPhotoRGB mit linearer Tonwertkurve). An welchen Stellen man bei der Bearbeitung über einen bestimmten Farbraum hinausgeht, kann man z.B. im LR-Softproof überprüfen.
Haben bzw. sollten Jpegs standardmäßsig nicht YCbCr haben? Komme da grad ziemlich durcheinander.
Ja, stimmt - aber das ist nur eine interne Umrechnung, um besser komprimieren zu können (die Farbkanäle können z.B. mit geringerer Auflösung gespeichert werden, ohne das es auffällt). Edit: Die normalerweise anzutreffenden JPEGs speichern also ganz normale RGB-Bilddaten mt dieser Optimierung. Es gibt aber auch andere JPEG-Varianten, die direkt RGB speichern, das ist aber glaube ich etwas exotisch und kann nicht von jedem Programm gelesen werden. Wie das bei CMYK-Bilddaten aussieht, weiß ich jetzt nicht (ist hier im Thread aber glaube ich auch nicht von Belang).
Ach ja, noch dazu (Hervorhebung von mir):
Dieses gilt für die in der Kamera erzeugten jpg-Dateien.
Denn RAW Dateien haben keinen Farbraum.
Lightroom arbeitet dann mit dem ProPhoto-RGB Farbraum.
Genaugenommen arbeitet LR
immer im (modifizierten) ProPhotoRGB-Farbraum. Das ist das, was ich oben meinte: Importiert man ein sRGB-JPEG in LR, kann man z.B. durch Erhöhen der Sättigung den sRGB-Farbraum auch wieder überschreiten. Es ist im Grunde genommen LR völlig egal, in welchem Quell-Farbraum ein importiertes Bild vorliegt, oder ob es eben als Raw gar keinen definierten Farbraum hat - es wird intern immer im riesigen LR-Arbeitsfarbraum bearbeitet (wobei die Original-RGB-Werte natürlich korrekt in den LR-Arbeitsfarbraum umgerechnet werden).
Edit: Das kann man übrigens anhand einer sRGB-Datei mit Farbflächen bekannter RGB-Werte (z.B. in Photoshop erzeugt) prüfen: Wenn man die in LR importiert, sieht man in der RGB-Anzeige im Histogramm ganz andere Werte als erwartet (von der 0...255-Skala umgerechnet auf die Prozentskala 0...100). Nur bei grauen Flächen kommt das gleiche heraus, aber auch nur deshalb, weil LR für die RGB/Histogrammanzeige eine weitere ProPhotoRGB-Variante benutzt, die die gleiche Tonwertkurve wie sRGB hat (der interne Arbeitsfarbraum ist ProPhotoRGB mit linearer Tonwertkurve). Ja, ich weiß, das kann alles maximal verwirrend sein