• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Haben Sensoren einen Farbraum?

Grund dafür war, dass ich mir nicht sicher war, ob einen Export von Lightroom "sinvoll" ist mit ProPhotoRGB, weil ich nicht wusste ob die Kamera(Sensor, Prozessor und Filter) überhaupt diesen Farbraum unterstützt.

Ich glaube, dass der Übergang auf einen grösseren Farbraum kein Problem darstellt, wenn er sonst nichts kostet. Kann mich auch täuschen. Jedenfalls liegt die Frage klar auf dem Tisch ;)

Kleiner Nachtrag http://www.psd-tutorials.de/forum/54_digitale-fotografie/101061-canon-dslr-adobergb1998.html vielleicht hilfts. Konvertiert wird fast immer übers Eck: vom Ausgangsfarbraum über eine Basis in den Neuen.

~ g.r.t
 
Zuletzt bearbeitet:
Der Sensor selbst hat keinen Farbraum, da er Analog arbeitet. Erst durch den A/D Wandler werden die Potentialdifferenzen jedes Pixels in Schritte unterteilt, dadurch entsteht der limiterte Farbumfang nach dem Debayering.

Aber ob das wirklich praktisch relevant ist?
 
Magst vielleicht doch noch gnadenhalber dazunehmen: (Liste aus wiki)

- LMS-Farbraum – der physiologische Farbraum, der auf den spektralen Empfindlichkeiten der L-, M-, S-Zapfen aufbaut.
- XYZ-Farbraum – von der CIE ursprünglich aufgestellter Normfarbraum, auf rechnerischen Koordinaten X, Y, Z konstruiert, die aus Zapfenempfindlichkeiten erstellt sind.
- YPbPr-Farbmodell – analoges HDTV, analoges Component Video.
- YUV-Farbmodell – für analoges PAL und NTSC.
- YIQ-Farbmodell – veraltet, früher verwendet bei analogem NTSC.
- YDbDr-Farbmodell – für analoges SECAM.

Und, frei nach einem Filmhelden: Sag niemals nie… ;)
 
Zuletzt bearbeitet von einem Moderator:
Der Sensor selbst hat keinen Farbraum, da er Analog arbeitet. Erst durch den A/D Wandler werden die Potentialdifferenzen jedes Pixels in Schritte unterteilt, dadurch entsteht der limiterte Farbumfang nach dem Debayering.

Aber ob das wirklich praktisch relevant ist?

:confused: Was soll denn analog oder digital mit der Definition eines Farbraums zu tun haben? Es gab ja auch schon analoges Farbfernsehen und dafür war auch ein Farbraum definiert (sogar mehrere verschiedene für PAL, NTSC, SECAM und für diverse analoge HDTV Experimente ...).
 
:confused: Was soll denn analog oder digital mit der Definition eines Farbraums zu tun haben? Es gab ja auch schon analoges Farbfernsehen und dafür war auch ein Farbraum definiert (sogar mehrere verschiedene für PAL, NTSC, SECAM und für diverse analoge HDTV Experimente ...).

Selbst der Mensch hat einen Farbraum. Und der Mensch ist das Maß aller Dinge. Das wird nur zu leicht vergessen.

~ Karl
 
Es ging um eine Canon DSLR (mit allen Filtern die bei Lieferung installiert sind) und ob diese Raw Dateien einen grösseren Farbraum haben als ProPhoto RGB.

Hufeisen:
430px-Cie_Chart_with_sRGB_gamut_by_spigget.png


Farbräume von Sensoren:
Dreiecke (bzw. Polygone), die das Hufeisen umschließen.

Ursache: Sensoren können nur positive Empfindlichkeiten haben, d.h. QE(lambda) >= 0 für jedes Lambda.

Farbräume von Displays:
Dreiecke (bzw. Polygone), die vom Hufeisen umschossen werden.

Ursache: Displays können nur Licht aussenden, was es gibt. Die Position im Hufeisen ist der Schwerpunkt der spektralen Verteilung.

Weiterhin:
Neutrale Bilder von Sensoren können bei entsprechenden Motiven alle Farben innerhalb des Hufeisens enthalten. Es gibt kein Abschneiden.
Bei Erhöhung der Farbsättigung entstehen noch gesättigtere Farben, die man gar nicht darstellen kann.
Die Beschränkungen kommen primär nicht mal durch den Farbraum, sondern auf die Beschränkung der Pixel auf den Wertebereich [0...1], d.h. es sind weder Werte unter 0 noch Werte über 1 erlaubt.
Auch die Begrenzung nach oben hin auf maximal 1 führt bei helleren Farben zu zusätzlichen Einschränkungen des nutzbaren Farbraums.

Wo müßte man hin?
IMHO: sRGB mit 3x float16 als Datentyp. Darüber eine ordentlich (verlustlose) Datenkompression. Das bitte und nicht 42 weitere Farbräume, die nicht das Grundproblem lösen. Auch kein 3x uint16 (Adobe: RGB/16).
 
Wo müßte man hin?
IMHO: sRGB mit 3x float16 als Datentyp.

Bei 3 x float16 bin ich bei Dir, aber bei sRGB nicht. sRGB ist ein ziemlich kleiner Farbraum, der noch aus der CRT Zeit stammt (einfach daher, daß die Phosphorfarben von sRGB billig zu produzieren waren).

In der TV Technik wird zur Zeit der BT.2020 Farbraum propagiert, da sitzen die Primaries ganz außen auf dem Hufeisen. In der Filmproduktion wird ACES verwendet, mit virtuellen Primaries außerhalb des Hufeisens, damit kann man dann alle physikalisch möglichen Farben repräsentieren. Das DCI Format im digitalen Kino verwendet den XYZ Farbraum.

Im Prinzip sollte man sich ganz von "Display reffered" Farbräumen lösen und sowas wie XYZ verwenden. Ein Display muß dann eben ein Mapping auf den Farbraum durchführen, den es darstellen kann.

Das wundert mich ein wenig, wie ist das genau zu verstehen? Ich dachte, ein Display kann Licht erzeugen?

Ein übliches Display kann eben genau 3 bestimmte Arten von Licht erzeugen (rotes, grünes und blaues, die sogenannten Primaries). Daraus werden alle Farben gemischt. Die Mischfarben liegen immer innerhalb des Dreiecks, das durch die drei Primaries aufgespannt wird. Wenn Farben außerhalb dieses Dreiecks gemischt werden sollten, dann müßten ein oder mehrere Primaries mit negativen Intensitäten leuchten. Das läßt sich mathematisch ausrechnen, ist aber physikalisch unmöglich.
 
Bei 3 x float16 bin ich bei Dir, aber bei sRGB nicht. sRGB ist ein ziemlich kleiner Farbraum, der noch aus der CRT Zeit stammt (einfach daher, daß die Phosphorfarben von sRGB billig zu produzieren waren).

sRGB war zu Ende des vorigen Jahrtausends der kleinste gemeinsame Nenner, verstärkt durch die Unfähigkeit von MS zu einem systemweiten Farbmanagement. Es ist tatsächlich der kleinste verwendete Farbraum (Ursache siehe bei Poster herbie), der nicht mehr notwendig wäre und einen bedauerlichen Verzicht auf die Leistungen der Kameras darstellt.

Zitat:
„Das wundert mich ein wenig, wie ist das genau zu verstehen? Ich dachte, ein Display kann Licht erzeugen?“ - Das war doch auf Klemm bezogen, der lakonisch sagte: „Displays können nur Licht aussenden, was sic! es gibt. “

R.t.
 
Bei 3 x float16 bin ich bei Dir, aber bei sRGB nicht. sRGB ist ein ziemlich kleiner Farbraum
Alle Farbräume sind genauso groß.
Die drei Primärvalenzen dürfen nur nicht auf einer Linie liegen.
Die Kastration von Farbräumen geschieht durch das Einschränken des Wertebereichs der Farbwerte.
BTW rechnet auch OpenGL im sRGB-Farbraum.
Als Datentypen stehen 8/16/32 bit signed+unsigned int sowie 16/32/64 bit float zur Verfügung.

Ein übliches Display kann eben genau 3 bestimmte Arten von Licht erzeugen (rotes, grünes und blaues, die sogenannten Primaries).
Diese können nur wirklich mögliches Licht beinhalten. Licht innerhalb, im Idealfall auf dem Rand des Hufeisens.

Daraus werden alle Farben gemischt. Die Mischfarben liegen immer innerhalb des Dreiecks, das durch die drei Primaries aufgespannt wird.
Man kann theoretisch mehr Farben darstellen, wenn man sich von den 3 Farben löst.
Bei 4 Primaries ist es ein Viereck.
Bei 5 Primaries ist es ein Fünfeck.
Bei n Primaries ist es ein n-Polygon.
Neben einem größeren Farbraum kann man den Wirkungsgrad erhöhen und die Altersabhängigkeit der Farbdarstellung im Blauen reduzieren. Die Farbdarstellungsfehler von anormalen Trichromaten kann man auch reduzieren.

Wenn Farben außerhalb dieses Dreiecks gemischt werden sollten, dann müßten ein oder mehrere Primaries mit negativen Intensitäten leuchten. Das läßt sich mathematisch ausrechnen, ist aber physikalisch unmöglich.
Eben. Beim Display geht das nicht. Ist mein Ergebnis allerdings in der Welt der Mathematik (Sensor, OpenGL, Bildverarbeitung), geht das.
 
Ich weiß nicht, 1) wo du das her hast.
2) wo zuerst angefangen werden kann bei Beantwortung.

Wären alle Farbräume gleich groß (mächtig), wären n-1 von ihnen gegenstandslos. Warum liessen dann alle Hersteller bei qualitativ besseren Kameras zwischen mindestens zweien wählen?


Deine Quelle (es kann eigentlich nur eine sein) wäre interessant.


~ verwundert r.t.
 
Ich weiß nicht,
1) wo du das her hast.
Triviale Mathematik.

2) wo zuerst angefangen werden kann bei Beantwortung.

Wären alle Farbräume gleich groß (mächtig), wären n-1 von ihnen gegenstandslos. Warum liessen dann alle Hersteller bei qualitativ besseren Kameras zwischen mindestens zweien wählen?
Alle Farbräume sind gleich groß.
Das ist so einfach wie, daß man jede Länge in Mikrometern, Millimetern, Metern, Kilometern und Lichtjahren angeben kann.
Jedes Masse in Pikogramm, Mikrogramm, Kilogramm und in Sonnenmassen.

Die Einschränkungen entstehen durch das das Einschränken des Wertebereichs der Meßwerte.
 
Alle Farbräume sind genauso groß.
Die drei Primärvalenzen dürfen nur nicht auf einer Linie liegen.
Die Kastration von Farbräumen geschieht durch das Einschränken des Wertebereichs der Farbwerte.

Ich weiß nicht, 1) wo du das her hast.
2) wo zuerst angefangen werden kann bei Beantwortung.

Wären alle Farbräume gleich groß (mächtig), wären n-1 von ihnen gegenstandslos. Warum liessen dann alle Hersteller bei qualitativ besseren Kameras zwischen mindestens zweien wählen?

Der entscheidende Satz von Frank Klemm ist:

Die Kastration von Farbräumen geschieht durch das Einschränken des Wertebereichs der Farbwerte.

Wenn man beliebige (auch negative) Werte für die Intensitäten der Primaries zuläßt, dann kann man mittels einfacher Matrixmultiplikation jeden Farbraum in jeden anderen umrechnen (nicht ganz Lab z. B. ist etwas komplizierter). Wie man die Matrix aus den (x, y) Koordinaten der Primaries und des Weißpunktes erstellt ist z. B. in SMPTE RECOMMENDED PRACTICE RP 177-1993 "Derivation of Basic Television Color Equations" beschrieben.

Die übliche, display referred Definition des sRGB (bzw. BT.709) Farbraums geht aber von einem eingeschränkten Wertebereich aus, z. B. 0 bis 255 für "ganz aus" bis "volle Intensität". (Und es sind keine linearen Werte, sondern Gamma korrigierte ...) Und dann ist auch noch definiert, was volle Intensität bedeuten soll, z. B. ist die maximale Helligkeit 100 cd/m^2 in BT.709.
 
Der erste Blödsinn: Mathematik als Quelle naturwissenschaftlicher Erkenntnis. Hier braucht nicht weiter diskutiert werden.

Sorry guys no better message.


~ Karl
 
Alle Farbräume sind genauso groß.
Die drei Primärvalenzen dürfen nur nicht auf einer Linie liegen.
Die Kastration von Farbräumen geschieht durch das Einschränken des Wertebereichs der Farbwerte.
BTW rechnet auch OpenGL im sRGB-Farbraum.
Als Datentypen stehen 8/16/32 bit signed+unsigned int sowie 16/32/64 bit float zur Verfügung.

Du vermischst Farbmodelle und Farbräume. RGB ist ein Farbmodell, sRGB und aRGB sind Farbräume diese Modells.

Und was haben die Datentypen damit zu tun?
 
Wenn man beliebige (auch negative) Werte für die Intensitäten der Primaries zuläßt, dann kann man mittels einfacher Matrixmultiplikation jeden Farbraum in jeden anderen umrechnen (nicht ganz Lab z. B. ist etwas komplizierter).
Das gilt so nur für einfache RGB-Matrixfarbräume. Üblich ist es auch, die Größe des Farbraums auf die Werte zwischen 0 und 1 (bzw. 255, …) zu beschränken (sonst ist der Begriff "Größe des Farbraums" sinnols). LUT-Farbräume sind nur so groß wie die Lookup-Tabellen reichen.

Kleine Farbräume wie sRGB sind nur sinnvoll, wenn man nur eine begrenzte Farbtiefe hat (um Banding zu vermeiden). Wenn man eh mit Fließkommazahlen operiert, kann man gleich XYZ nehmen.

L.G.

Burkhard.
 
Mich würde trotzdem noch wunder nehmen ob jemand weiss, ob die Canon Spiegelreflexkameras irgend ein Farbraum haben der das Maximum ist??!!
Chuck Westfall from Canon USA:
Chuck: Here are some of the main advantages of Canon RAW (.CR2) vs. TIFF and JPEG:

Non-destructive editing: The original data remains intact no matter how many times it is rendered into a usable image file.

Canon RAW data is recorded at 14 bits per channel, resulting in superior tonal gradation compared to the 8-bit rendering limit mandated by the JPEG standard. (RGB TIFFs can be stored in 8-bit or 16-bit format.)

Numerically lossless compression is used to reduce .CR2 file size, but image quality remains completely intact with no compression-related artifacts. ([The] Major advantage in camera performance and storage efficiency compared to TIFF.)

No tone curves or sharpening are applied when .CR2 files are recorded, thus allowing full manipulation of these properties when images are rendered.

Canon RAW data is recorded in sYCC color space, which has a much larger gamut than Adobe RGB or sRGB. This allows rendering into various color spaces.
 
Der erste Blödsinn: Mathematik als Quelle naturwissenschaftlicher Erkenntnis. Hier braucht nicht weiter diskutiert werden.
:rolleyes: Und wofür haben vor zwei (?) Tagen nochmal den Physik-Nobelpreis bekommen? (Und das war nun wirklich nicht das erste Mal.) Ich glaube, du solltest dein Verständnis des Begriffs Naturwissenschaft doch noch mal überprüfen.

L.G.

Burkhard.
 
WERBUNG
Zurück
Oben Unten