• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

36 bit und 42bit Farbtiefe

Gain Factor:
Das ist genau die Aufgabe des Gainfactors, sonst hat er nicht viel zu tun. Die meisten A/D Wandler haben Schaltungen mit programmierbaren Gainfaktor vor dem Komparator eingebaut.
Was nichts anderes ist als eine einstellbare Empfindlichkeit, oder?

Farbraum:
Der Farbraum wird im Demosaic Prozess eingeführt. Also recht spät im ganzen Sensoraufnahmeprozess. Ich lasse mich gerne eines Besseren belehren, aber du bist seit 10 Jahren, seit der ich dieses Thema verfolge, die einzige "Quelle" die diese Behauptung aufstellt, daß das bereits im Sensor berücksichtigt wird. Zeige einfach die Materialen und Quellen, von der du das ableitest. Bis dahin betrachte ich diese Darstellung als nicht korrekt.
Ich leite das daraus ab, dass es eben möglich ist, daraus ein AdobeRGB-Bild zu erzeugen. Wie schon gesagt klappt sowas nicht per Zufall. Und Du wirst da auch keine gegenteilige Quelle finden.

Es gibt zig Farbräume. Warum ein Hersteller seinen Sensor gerade auf den AdobeRGB Farbraum (mit all seinen Einschränkungen) optimieren sollte, entzieht sich mir.
Weil, wie schon geschrieben, der Zweck ein farbverbindlicher Workflow bis hin zum Druck ist.
Und der Druck ist nun mal ein nicht ganz unwichtiges Anwendungsgebiet für Fotos.
Und es macht keinen Sinn, einen Sensor auf Farbraum X zu optimieren, wenn ich den nachher nicht in der Kamera einstellen kann. Einstellen kann man aber meistens nur AdobeRGB und sRGB, wobei letzteres eine Untermenge von AdobeRGB ist. (Ab und an gibt es auch noch spezielle für Video).
 
Und es macht keinen Sinn, einen Sensor auf Farbraum X zu optimieren, wenn ich den nachher nicht in der Kamera einstellen kann. Einstellen kann man aber meistens nur AdobeRGB und sRGB, wobei letzteres eine Untermenge von AdobeRGB ist. (Ab und an gibt es auch noch spezielle für Video).

Aber unterschiedliche Farbräume brauchen die Hersteller bei 8 Bit (sprich jpeg) doch nur weil es bei den unterschiedlichen Ausgabemethoden teilweise sichtbare Abstufungen in den Farben gibt. Bei RAW hat man von vorne herein genug, damit bei allen Ausgabemethoden keine Abstufungen mehr sichtbar sind. Was soll man auf dem Sensor dann mit Farbräumen :confused:

Lg
Kristian
 
Was nichts anderes ist als eine einstellbare Empfindlichkeit, oder?
Ich schrieb "vor" dem Komparator, nicht "danach".

Ich leite das daraus ab, dass es eben möglich ist, daraus ein AdobeRGB-Bild zu erzeugen. Wie schon gesagt klappt sowas nicht per Zufall. Und Du wirst da auch keine gegenteilige Quelle finden.
Das kannst Du gerne so sehen. Ändert nichts an der Situation, daß es nicht korrekt ist. Ich brauche keine gegenteilige Quelle finden, da du ja keine angegeben hast ;)

Weil, wie schon geschrieben, der Zweck ein farbverbindlicher Workflow bis hin zum Druck ist.
Und der Druck ist nun mal ein nicht ganz unwichtiges Anwendungsgebiet für Fotos.
Und es macht keinen Sinn, einen Sensor auf Farbraum X zu optimieren, wenn ich den nachher nicht in der Kamera einstellen kann. Einstellen kann man aber meistens nur AdobeRGB und sRGB, wobei letzteres eine Untermenge von AdobeRGB ist. (Ab und an gibt es auch noch spezielle für Video).
??
Du vermischt hier viele Sachen. Als Einstieg empfehle ich dir Marianne Oelund's Geschichte, wie (Nikon) Sensoren Farbe sehen. Gibts auf dpreview.


Liebe Grüße,
Andy
 
Aber unterschiedliche Farbräume brauchen die Hersteller bei 8 Bit (sprich jpeg) doch nur weil es bei den unterschiedlichen Ausgabemethoden teilweise sichtbare Abstufungen in den Farben gibt. Bei RAW hat man von vorne herein genug, damit bei allen Ausgabemethoden keine Abstufungen mehr sichtbar sind. Was soll man auf dem Sensor dann mit Farbräumen :confused:

  • Es sind nicht die Abstufungen, warum es verschiedene Farbräume gibt. Da geht es unter anderem darum, welche Farben darstellbar sind (der Farbraum)
  • RAW kann pro Pixel mehr Abstufungen speichern als ein 8 bit JPEG - korrekt.
  • Die Daten in einer RAW Datei unterliegen keinem Farbraum
  • Auch bei RAW Daten kommen im Endergebnis Abstufungen vor. Hängt von den Umständen ab.

Liebe Grüße,
Andy
 
Es sind nicht die Abstufungen, warum es verschiedene Farbräume gibt. Da geht es unter anderem darum, welche Farben darstellbar sind (der Farbraum)

Aber wenn bei gleichmäßiger Verteilung der Farben in den möglichen Werten für das menschliche Auge keine Unterschiede bei allen aktuellen Ausgabearten erkennbar ist, braucht man auch keine Farbräume bei RAW einzuführen. Oder habe ich da jetzt etwas noch nicht so ganz verstanden?

Lg
Kristian
 
Aber wenn bei gleichmäßiger Verteilung der Farben in den möglichen Werten für das menschliche Auge keine Unterschiede bei allen aktuellen Ausgabearten erkennbar ist, braucht man auch keine Farbräume bei RAW einzuführen. Oder habe ich da jetzt etwas noch nicht so ganz verstanden?

Ok, ein Beispiel, wie ein Sensor ein Bild sieht, und was in den ersten Stufen passiert.

Hier ist das Bild. So wie wir es gewohnt sind zu sehen.
original.jpg


Ich habe aus diesem Bild des Kirchengebäudes oben in der Mitte eines der Türmchen genommen und die RAW Datei so weit vergrößert, daß man die Details sieht.

Wenn wir von RGB sprechen, ist das für einen Sensor etwas anders. Das Bayer CFA (Color Filter Array) hat aus geometrischen Gründen eine RG1BG2 Anordnung. Das heißt: Pro 2x2 Pixelfeld kommt einmal Rot (R), 2 x Grün (G1 und G2) und 1 x Blau (B) vor.

Wenn die Belichtung erfolgt, nimmt jeder Pixel in diesem Feld die Helligkeit auf, die er durch das Objektiv und die verschiedenen Filter erhält. Zu diesem Zeitpunkt hat der Pixel (Sensel) am Chip keine Ahnung, für welche Farbe er zuständig ist - er sieht nur Helligkeit.

Und das sehen die 4 Gruppen von Pixeln (R, G1, B, G2)

Die rote Gruppe. Betrachte die vielen leeren Felder zwischen diesen Pixeln. Diese sind für die 3 anderen Gruppen (wir haben ja 2x2 RGBG Felder)
original.jpg


Gruppe 2: Grün 1
original.jpg


Gruppe 3: Blau
original.jpg


Gruppe 4: Grün 2
original.jpg


Diese Helligkeitsdaten werden in die RAW Datei geschrieben (Von dort habe ich diese Ausschnitte gemacht). Die 4 Gruppen haben zu dem Zeitpunkt noch immer keine Ahnung, für welche Farbe sie zuständig waren.

In den Metadaten der RAW Datei schreibt die Kamera die von der Entwicklungsabteilung festgelegten spektralen Eigenschaften der Farbfilter vor den 4 Gruppen hinein. Es gibt noch immer keine Idee eines Farbraums.

Wenn man mit der Information der Farbfiltereigenschaften ein Mischbild macht, sieht man alle 4 Gruppen friedlich nebeneinander. Weil Grün 2 x vorkommt, ist diese Darstellung immer grünstichig. Da wir noch immer im RAW sind, gibt es hier keine Vermischung der 3 Grundfarben pro Pixelposition, wie sie bei JPEG, TIFF usw. vorkommen. Vom Farbraum noch immer keine Spur.

original.jpg


In der ersten Phase des Demosiacprozesses beginnt die CPU nun mit einer Vielzahl von verschiedenenen Algorithmen (die tw direkt in HW gegossen sind). Diese 4 Gruppen so zu vermischen, so daß an jeder Pixelposition nicht nur die tatsächlich aufgenommene Farbe, sondern auch die anderen Farben vorkommen. Da es diese fehlenden Farben in den RAW Daten jeweils einer Pixelposition nicht gibt, werden sie errechnet, indem man einfach die Umgebungswerte der anderen Farben als Hinweis nimmt, wie die fehlende Farbe an dieser Position aussehen könnte (Interpolation). Je nachdem welche Verstärkung und sonstige Anpassungen man in diesem Prozess vornimmt, kann diese Vermischung von echten und errechneten Farben in verschiedene Farbräume umgerechnet werden. Häufig verwendete Farbräume sind sRGB und AdobeRGB.

Es kann durchaus passieren, daß der Sensor ein Farbfilter hat, daß eine Frequenz erlaubt, die in dem Zielfarbraum nicht vorkommt. Genauso kann es umgekehrt sein, daß die Kamera auf einer Farbe blind ist, die es in dem Farbraum gibt. Wie auch immer, hier laufen viele Algorithmen ab um das Ergebnis, ein buntes Bild in einem Farbraum deiner Wahl zu erzeugen.

Nur zur Klarstellung nochmals: In den Daten einer RAW Datei gibt es keinen Farbraum. Diese Rechnung macht der RAW Konverter, entweder am PC oder in der Kamera.

So sieht das erste Vermischen der 4 Farbkanäle aus, ohne daß eine Farbraumkonvertierung vorgenommen wurde.
original.jpg



Sorry für die starke Vereinfachung der ersten Stufen des Umwandlungsprozesses. In deiner Kamera laufen noch sehr viel mehr Dinge ab, die hier nicht erwähnt worden sind.


Liebe Grüße,
Andy
 
Es gibt zig Farbräume. Warum ein Hersteller seinen Sensor gerade auf den AdobeRGB Farbraum (mit all seinen Einschränkungen) optimieren sollte, entzieht sich mir.

a) weil Adobe einen Namen hat und weil dieser Farbraum bekannt ist

b) weil ein Foto ja auch irgendwann irgendwie ausgegeben werden muss - und sehr viel Medien (allemal Billigmonitore und Drucker, die definitiv den Markt beherrschen) auch keinen größeren Farbraum darstellen können (eher weniger)

c) weil AdobeRGB immerhin mehr darstellen kann als sRGB, weswegen es wahrscheinlich als "besser und moderner" gilt

d) weil Marketingstrategen verkaufen wollen
 
Ich möchte hier mal ein großes Lob an AndyE (und auch Mirador) loswerden.
Ich findes es toll wie und das Du (zum wiederholten mal) normal sterblichen die technischen Zusammenhänge mit einer Engelsgeduld und verständlich bei zu biegen versuchst.

Vielen Dank!!!

Gruß
Rainer
 
a) weil Adobe einen Namen hat und weil dieser Farbraum bekannt ist

b) weil ein Foto ja auch irgendwann irgendwie ausgegeben werden muss - und sehr viel Medien (allemal Billigmonitore und Drucker, die definitiv den Markt beherrschen) auch keinen größeren Farbraum darstellen können (eher weniger)
Da reicht aber sRGB bei weitem aus. Da ist schon AdobeRGB perlen vor die Säue
c) weil AdobeRGB immerhin mehr darstellen kann als sRGB, weswegen es wahrscheinlich als "besser und moderner" gilt

d) weil Marketingstrategen verkaufen wollen

Warum nicht Pro-Foto oder andere? Verschiedene Farbräume sind sowieso nur für Leute die damit umgehen können interessant.
 
Da reicht aber sRGB bei weitem aus. Da ist schon AdobeRGB perlen vor die Säue

Ja.

Warum nicht Pro-Foto oder andere?

Warum fragst Du mich? Ich kein Marketingstratege. Ich kann auch nur das interpretieren, was angeboten wird.


P.S.: Zugegebenermaßen ist das allerdings mittlerweile nicht "übertrieben", mindestens mein Monitor beherrscht beispielsweise einen Farbraum weit größer als sRGB und auch noch größer als AdobeRGB. Man muss ja nicht immer das billigste kaufen.
 
Zuletzt bearbeitet:
Man muß dann aber auch darüber reden, welchen Farbraum der Kamera-Sensor zusammen mit der Farbinterpolation darstellen können und wie groß dabei der Fehler wird. Durch Umstellen des Farbraums in der Kamera ändert sich ja nun der Sensor mit seinen Eigenschaften nicht, und er kann bestimmt nicht den gesamten Adobe-RGB- oder sRGB-Farbraum fehlerarm abdecken.

Beim Monitor kann ich immerhin versuchen, drei möglichst farbintensive Lichtquellen für die drei Pixelfarben zu schaffen und damit ein möglichst großes Dreieck im Farbraum aufzuspannen. Beim Kamerasensor hingegen müssen die R/G/B-Filter jeweils ein breites Spektrum passieren lassen, um die Lichtempfindlichkeit nicht zu sehr einzuschränken, was den unterscheidbaren Farbraum sehr einengt. Die nachfolgende Signalverarbeitung muß halt versuchen, das Beste draus zu machen, indem sie aus den drei Meßwerten eine Farbort bestimmt. Je weiter außen der liegt, desto größer tendeziell der Fehler.

Eine auf Farbechtheit optimierte Kamera sollte kein Bayer-Pattern verwenden und mehr als drei verschiedene Grundfarben - dann aber auf Kosten der Lichtempfindlichkeit und Auflösung.

Auch von mir vielen Dank für den Hinweis darauf.
 
Zuletzt bearbeitet:
Da sich die Bit-Zahl nicht ändert kann AdobeRGB aber doch nicht mehr sondern nur andere Farben darstellen :confused:

Doch.
Das eine hat mit dem anderen nicht wirklich was zu tun.

Wieso nicht? So unrecht hat er nicht. Der Farbraum wird ja nicht kontinuierlich abgedeckt, sondern durch viele einzelne Punkte, die aber so nah beieinander liegen, dass der Mensch keine Farbsprünge zwischen 2 Punkten (also 2 benachbarten Farben) erkennt. Und die Anzahl dieser Punkte ändert sich nun mal nicht, bloß der Abstand zwischen ihnen. Es werden also nicht mehr, sondern nur andere Farben dargestellt.

Ich verstehe übrigens auch nicht, welche Bauchschmerzen Ihr mit "36bit" oder "42bit Farbtiefe" habt. Es mag nicht ganz korrekt sein, aber man versteht doch, was gemeint ist, oder nicht? Und wenn nun wirklich alle RGGB-Sensel jeweils 12 oder 14 signifikante Bits erfassen, unterscheidet sich die damit erreichbare Farbtiefe systematisch und erheblich von 36bit oder 42bit? Kommen dabei nicht näherungsweise 2^36 oder 2^42 messbar (nicht mit dem Auge erkennbar!) unterschiedliche Farben raus?



Gruß, Matthias
 
Doch.
Das eine hat mit dem anderen nicht wirklich was zu tun.

Aber die Verbesserungen in Grüntönen, einschließlich des Blau-Grün-Bereiches wird bei Adobe RGB doch mit weniger Farben im Rot- und Gelbbereich erkauft. Damit wird der Farbraum zwar erweitert (insbesondere beim Drucken) aber die Anzahl der unterschiedlichen Farben nicht vergrößert. Das geht ja auch nicht, ohne das man die Bit-Zahl der Datei und somit auch die Größe verändert.

http://de.wikipedia.org/wiki/RGB-Farbraum
http://de.wikipedia.org/wiki/Adobe-RGB-Farbraum
http://www.heise.de/foto/artikel/Mehr-Bits-fuer-Farbe-226838.html

Bei Wide-Gamut-TFT-Display Kann Adobe RGB sogar sichtbare Nachteile haben. Wenn man Die Fotos im Internet zeigt oder irgendwo mit sRGB drucken lassen will sowieso.

Ich habe deshalb mal gelernt, dass man den Farbraum erst festlegen sollte, wenn man das Ausgabemedium und dessen Farbraum kennt. Vorher sollte man möglichst mit mindestens 12-Bit Farben (oder RAW) arbeiten. Damit stellt man möglichst sicher, dass keine Farben verloren gehen, die auf irgend einem Ausgabemedium sichtbar werden.

Lg
Kristian
 
@Masi1157: nein.

Vergleich mal den Unterschied zwischen RGB=(127,128,127) und RGB=(127,127,127) von einem JPG, indem du zwei Ebenen mit diesen Farben nebeneinander stellst. Es gibt keinen Unterschied. Kleinen Abstufungen 12 Bit oder 14 Bit haben keinen sichtbaren Vorteil gegenüber den 8 Bit.

Ob der A/D Wandler 12 Bit oder 14 Bit mit vernünftigen Daten ausfüllen kann, dass ist die entscheidende Frage und kann theortisch nicht beanwortet werden. Sicherlich darf man hoffen auf mehr Dynamikumfang und weniger Rauschen in diesen 14 Bit Bildern.
 
Es gibt keinen Unterschied.

Ich sagte doch messbar, nicht mit dem Auge unterscheidbar. Und ein messbarer Unterschied ist da (wenn denn die Daten es hergeben).

Ob der A/D Wandler 12 Bit oder 14 Bit mit vernünftigen Daten ausfüllen kann, dass ist die entscheidende Frage und kann theortisch nicht beanwortet werden. Sicherlich darf man hoffen auf mehr Dynamikumfang und weniger Rauschen in diesen 14 Bit Bildern.

Das meinte ich mit "signifikanten Bits". Ob alle 14bit signifikant sind oder nicht, kann man u.a. am Rauschen erkennen. Und meine Frage ist jetzt, ob jeweils 14 signifikante Bits in R, 2x G und B zu systematisch deutlich mehr oder weniger als 2^42 messbar unterschiedlichen Farben führen. Und wenn ja, warum?


Gruß, Matthias
 
WERBUNG
Zurück
Oben Unten