• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Welcher Arbeitsfarbraum/Farbprofil bei sRGB-Monitor

Ok, was du schreibst ergibt viel Sinn. Aber ich hab gedacht, ein Farbraum wird in das Bild nur eingebettet. Wirklich umgerechet, d.h. die Bilddaten verändert werden nur beim Umwandeln von 8 nach 16 Bit oder umgekehrt.

Nein, um sie korrekt wiederzugeben muss man die Bilder von einem Farbraum in einen anderen konvertieren. Ein bestimmter RGB-Wert repräsentiert zum Beispiel in sRGB eine andere Farbe als in Adobe RGB.

Schöne Grüße, Robert
 
Ja, der Farbraum wird eingebettet. Allerdings wenn man zB ein Bild in AdobeRGB hat und es in sRGB exportieren will wird es umgerechnet.
 
Ok, was du schreibst ergibt viel Sinn. Aber ich hab gedacht, ein Farbraum wird in das Bild nur eingebettet. Wirklich umgerechet, d.h. die Bilddaten verändert werden nur beim Umwandeln von 8 nach 16 Bit oder umgekehrt.

Nein, die werden schon bei der Wandlung von RAW in ein nutzbares Bildformat das erste mal umgerechnet - nämlich in den Arbeitsfarbraum.
 
Grundsätzlich ist das Verwenden von Abeitsfarbräumen, die größer sind, als der Farbraum, den der Monitor darstellen kann Quatsch.
Ins Extrem interpoliert ist das so, als wenn man auf nem SW-Monitor Farbbilder bearbeitet. Wurde früher so gemacht, geht auch in Grenzen. Aber Planungssicherheit schaut anders aus.

Und wenn jemand einen Monitor hat, der nur 75% sRGB abdeckt, dann sollte der Jenige sich fragen, ob das wirklich gut ist, darauf überhaupt Bilder zu bearbeiten.

Das viel besprochene Prophoto RGB nutzt LR auch nur in der RAW Entwicklung, die anderen Bereiche des Programmes arbeiten mit Adobe RGB. Eine AUSGABE oder Übergabe an PS sollte maximal in dem Farbraum erfolgen, den man in PS auf dem System sinnvoll bearbeiten kann.

Und man sollte das Thema auch nicht zu hoch aufhängen, einem Bild tut es i.d.R. wenig Abbruch, wenn die Farben einen Hauch sparsamer ausfallen. Das Auge sieht sowieso Farben nur vergleichend und wenn ich als Druck ausgebe, bricht oft da nochmal wesentlich mehr weg.
 
Das viel besprochene Prophoto RGB nutzt LR auch nur in der RAW Entwicklung, die anderen Bereiche des Programmes arbeiten mit Adobe RGB. Eine AUSGABE oder Übergabe an PS sollte maximal in dem Farbraum erfolgen, den man in PS auf dem System sinnvoll bearbeiten kann.

Dem würde ich klar widersprechen.

Mit der Sättigung ist es wie mit ausgebrannten Lichtern, ist die Zeichnung mal weg kann man sie nicht wiederherstellen. Gerade eine Weiterbearbeitung kann Bereiche wieder in den darstellbaren Farbraum holen, und schon braucht man die Zeichnung wieder.

Dasselbe gilt für die Farbtiefe. Durch Bearbeitungen können Farbverläufe gedehnt werden, und plötzlich sieht man auch den Unterschied ob die Daten in 16 Bit oder 8 Bit verfügbar sind.

Es hat schon einen Grund warum Adobe für die Übergabe von Daten von Lightroom nach Photoshop ProPhoto und 16 Bit empfiehlt.

Und man sollte das Thema auch nicht zu hoch aufhängen, einem Bild tut es i.d.R. wenig Abbruch, wenn die Farben einen Hauch sparsamer ausfallen. Das Auge sieht sowieso Farben nur vergleichend und wenn ich als Druck ausgebe, bricht oft da nochmal wesentlich mehr weg.

Gute Drucker können einen größeren Farbraum darstellen als Monitore, wegbrechen tut beim Druck also nichts. Und feine Farbverläufe sind für größere Drucke auch wichtiger als für Monitordarstellung.

Schöne Grüße, Robert
 
Grundsätzlich ist das Verwenden von Abeitsfarbräumen, die größer sind, als der Farbraum, den der Monitor darstellen kann Quatsch.

Sorry, das ist totaler Unfug! Viele Operationen wie zum Beispiel Layerüberlagerungen oder Verlaufsfilter führen aus dem von Dir gewählten viel zu kleinen Farbraum heraus und dann hat man mit Deiner Methode das Bild geschrottet. Nicht umsonst gibt einem Lightroom oder irgendwelche der anderen RAW-Konverter da gar nicht die Wahl sondern nehmen fest Melissa- oder ProPhoto-RGB! Und auch die Defaults von PS oder Affinity sehen das anders (es sei denn ein Spezislist wie Du hat das widersinnigerweise verbogen)...
 
Also in meinem konkreten Fall ist der Farbraum des Monitors zwar grundsätzlich nicht größer als sRGB, das Farbraumvolumen jedoch schon.
Ich bilde mir auch ein, dass ich kleine Unterschiede sehe, wenn das Bild von LR nach sRGB konvertiert und dann mit einem Farbmanagement-fähigen Bildbetrachter angezeigt wird.
Den Messungen meines Kalibriergeräts zufolge hat sein Farbraum auch ein bisschen eine andere Form als sRGB, weshalb er knapp unter sRGB ist von der Größe her, dafür kann er aber andere Farben darstellen, die aus sRGB eigentlich herausfallen.
Deswegen frage ich mich ja, ob es nicht sinnvoll wäre, die Farben, die aus sRGB herausfallen, zu erhalten durch einen größeren Farbraum.
 
Deswegen frage ich mich ja, ob es nicht sinnvoll wäre, die Farben, die aus sRGB herausfallen, zu erhalten durch einen größeren Farbraum.

Ganz eindeutig ja, was passiert denn, wenn Du mal auf ein anderes Medium als Deinen Monitor ausgibst? Da gibt es ganz andere Grenzen (manche enger, andere weiter)...
 
Gute Drucker können einen größeren Farbraum darstellen als Monitore, wegbrechen tut beim Druck also nichts.
Ich bin schon lang’ aus dem Geschäft, bei Internetsuchen stelle ich mich oft ungeschickt an, und meine Neuronen feuern vermutlich auch nicht mehr so schnell wie früher: Zu obiger Aussage hätte ich gern zwei Quellen, die sich nicht gegenseitig zitieren.
 
Ich bin schon lang’ aus dem Geschäft, bei Internetsuchen stelle ich mich oft ungeschickt an, und meine Neuronen feuern vermutlich auch nicht mehr so schnell wie früher: Zu obiger Aussage hätte ich gern zwei Quellen, die sich nicht gegenseitig zitieren.

Nimm einfach die Profile für gute Drucker/Ausbelichter (die hochwertigeren Ausbelichter bieten solche Profile zum Download für den Softproof an) und überlagere die von mir aus mit Adobe-RGB... Du wirst feststellen, dass die Drucker an ein paar Ecken mehr können als Adobe-RGB...
 
Zu obiger Aussage hätte ich gern zwei Quellen, die sich nicht gegenseitig zitieren.

Wenn du den Farbraum eines NEC PA241W (grauer Block) mit dem eines Epson R285,glossy (Drahtgitter) vergleicht, ergibt sich ein Bild wie unten. Der Schirm deckt den Farbraum des Druckers zu 93% ab, umgekehrt sind es allerdings nur 46%.

Solche 3D-Modelle kannst du dir mit den Progrämmchen iccgamut und viewgam aus der Argyll-Suite auch selbst erstellen. Mit tiffgamut kannst du auch den Farbraum konkreter Bilder in das Modell einbringen.
 

Anhänge

Ja, so kenne ich das. An zweieinhalb Zipfeln können Drucker mehr abbilden, sind jedoch aufs Ganze gesehen weit unterlegen. Na ja, vielleicht zaubert mir die Lottofee mal das Geld für einen «richtigen» Drucker herbei. :eek:
 
Sorry, das ist totaler Unfug! Viele Operationen wie zum Beispiel Layerüberlagerungen oder Verlaufsfilter führen aus dem von Dir gewählten viel zu kleinen Farbraum heraus...

Und wenn man das Ganze auf einem sRGB Monitor macht, woher willst du dann wissen, was du du da tust und was dabei heraus kommt?
Ich sage ja nicht, dass mehr nicht besser wäre, doch wenn ich es erraten soll, nutzt mir das herzlich wenig zu einem planbaren Endergebnis.

…Gute Drucker können einen größeren Farbraum darstellen als Monitore, wegbrechen tut beim Druck also nichts.…
Ich werfe mal ein paar Materialien in die Runde, da nicht jedes Foto auf beschichtetem Spezialpapier mit einem Drucker, den du im Kopf hast produziert wird:
offenes Papier (Hahnemühle & Co), Alu-Dibond, Classic-Papier (Saaldigital), Softproof Fuji (Saaldigital) etc.

Gerade die Rot- und Gelborange-Töne sind da oft deutlich unterbesetzt im vergleich zum sRGB. Andere Bereiche wiederum sind deutlich größer,
allerdings muss man ehrlicherweise sagen, dass Adobe RGB da auch nur bedingt weiterhilft.

… und vom Offset will ich mal an dieser Stelle ganz schweigen.
 
Es geht bei der Verwendung eines großen Arbeitsfarbraumes eben nicht nur um den größeren darstellbaren Farbraum weil man in der EBV nicht nur kleinere Korrekturen vornimmt, man ändert ja nicht nur etwas die Helligkeit oder den Farbwert ein wenig. Es geht beim großen Arbeitsfarbraum eher darum, dass man auch komplexere Berechnungen mit den Bildern durchführen kann ohne dass man an dabei die Grenzen des Farbraumes gelangt.

Diese Vorgänge hat man etwa, wenn man manuell eine Frequenztrennung macht. Hier benutzt man mehrere Ebenen. Eine Ebene bekommt man, indem man einfach einen Weichzeichner auf eine Kopie des Originals anwendet, z.B. einen gaußschen Weichzeichner oder (in PS) den besseren "Matter machen" Filter. Das Resultat ist je nach Einstellung des Filters ein Bild, das kaum bis keine Kontrast- sondern nur noch Farbinformationen hat. Für die zweite Ebene muss man aber zum einen die Kopie des Originals mit der soeben weichgezeichneten Ebene passend skaliert invers addieren, zum anderen muss man das Resultat dann noch mit der darunter liegenden weichgezeichneten Ebene noch mit dem passenden Licht (meist linear) mischen. Anschließend hat man als Resultat ein Bild, das aus einer Ebene mit Farb- und einer Ebene mit Struktur-Informationen besteht. Und indem man z.B. die Strukturinformationen verstärkt kann man im Bild die Mikrokontraste erhöhen, das Bild wirkt "schärfer". Eine ähnliche Bildverrechnung passiert (allerdings unter der Haube..) wenn man z.B. in LR oder ACR mit dem Schärferegler spielt). Und ähnliche Bild- und Kanalberechnungen in Form mathematischer Berechnungen kann man noch in anderer Weise einsetzen bei der Bildbearbeitung.

Das ist also eben keine WYSISWG-Bearbeitung um die es hier geht, hier werden Pixel- bzw. Farbwerte mathematisch transformiert und miteinander verrechnet ohne dass man da wirklich alles sieht. Und wenn man hier in 16-bit und mit ProPhotoRGB arbeitet, dann arbeitet man eben nicht am Rand eines Farbraumes, sondern eigentlich nur in einem kleinen Bereich in der Mitte, man hat außen herum viel Spielraum. Somit kommt man eben nicht dazu, dass irgendwo bei den internen Berechnungen die Grenzen des Farbraumes erreicht werden, was zum "Abscheiden" von Informationen führen würde. Und 16-bit Bilder sind auch fein genug abgestuft und haben auch ausreichend mögliche Farbwerte um nur mit einem Teil des möglichen Farbraumes zu arbeiten.
Die Endbearbeitung nebenbei kann man dann mit Softproofs machen bzw. wenn man sein Bild am Ende dann in sRGB oder AdobeRGB umrechnet und einen Monitor hat, der z.B. 99% AdobeRGB darstellen kann, dann sieht man ja wie das Bild am Ende raus kommt.
 
aber, ich versuche mal noch ein Argument einzuwerfen: meines Wissens können die besten Monitore heute zirka AdobeRGB darstellen. Prophoto ist aber nocheinmal deutlich größer als AdobeRGB. Also sieht man wieder (trotz des guten Monitors) nicht, was man macht.
Andererseits gibt es Monitore, die Farben darstellen können, die außerhalb von ProPhoto liegen. Auch mein sog. sRGB-Monitor hat ein paar Farben, die außerhalb von ProPhoto liegen.
 
Die Videobranche hat sich für UHD-Produktionen auf den Farbraum rec2020 als Standard geeinigt. Der ragt so weit über Prophoto raus, das man ihn z.B. mit LR nicht sinnvoll bearbeiten kann. Es wird trotzdem Gründe für diese Wahl geben- möglicherweise erwarten Brancheninsider grundlegende Neuerungen im Darstellungsbereich.
 
Ich bin schon lang’ aus dem Geschäft, bei Internetsuchen stelle ich mich oft ungeschickt an, und meine Neuronen feuern vermutlich auch nicht mehr so schnell wie früher: Zu obiger Aussage hätte ich gern zwei Quellen, die sich nicht gegenseitig zitieren.

Schau dir einfach die Beispielbilder an, die ich dazu weiter oben in diesem Thread gepostet habe. Sie zeigen Anhand von konkreten Bildern die Grenzen des Gamuts von meinem Drucker, von Adobe RGB und von sRGB.

Schöne Grüße, Robert
 
Stimmt. Es gibt sogar Farben in ProPhoto die aus heutiger Sicht nie dargestellt werden können. Der Farbraum enthält virtuelle Farben. Das sind Farben mit negativen Farbanteilen. Normalerweise wird eine Rgb-Farbe zb mit (34,78,125) dargestellt. Bei virtuellen Farben schaut es zB. so aus (-17,96,44). Nur weiß keiner was negative Farben sein sollten.

Aber zum beurteilen von größeren Farbräumen gibt es eben das Farbmanagment. Da werden die Farben so umgerechnet das man alle sehen kann. Halt nicht so kräftig.
 
Diese Vorgänge hat man etwa, wenn man manuell eine Frequenztrennung macht.

hmmm ...

Das muss ich nochmal langsam durchdenken:
Bei der Frequentrennung weist ein Pixel der untersten (Low-) Ebene einen wie auch immer erreichten Mittelwert mehrerer-vieler benachbarter Pixel aus, ist also naturgemäß weniger „extrem“ als ein beliebiger Originalpixel. Ein Pixel der obersten (hi-)Ebene kodiert für den Abstand dieses Low-Pixels zum Original, ist also naturgemäß auf jeden Fall innerhalb des Originalgamuts. Da dieser Abstand in beide Richtungen sein kann (der Grund, warum man den Abstand bei Bildberechnung um 128 verschieben muss) verliert man hier natürlich die Hälfte der Bittiefe, weshalb Frequenztrennung in 8bit etwas heikel werden kann. Also größere Bittiefe, klar, aber warum profitiert man gerade bei der FT auch vom größeren Farbraum :confused:
 
WERBUNG
Zurück
Oben Unten