• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

36 bit und 42bit Farbtiefe

Warum sollte jemand einen A/D Wandler konstruieren, die nicht sichtbar sind, aber meßbar?
 
Warum sollte jemand einen A/D Wandler konstruieren, die nicht sichtbar sind, aber meßbar?

Weil die A/D-Wandler in DSLR bislang noch linear arbeiten. Bildlich gesprochen "siehst" Du den Unterschied zwischen "1" und "2", den zwischen "1001" und "1002" aber nicht (der wäre nur messbar). Außerdem sollten die Rohdaten natürlich erheblich mehr Abstufungen erlauben, als zunächst mal sichtbar sind. Wenn das nicht so wäre, würde jede Tonwertanpassung sofort zu Abrissen führen.



Gruß, Matthias
 
Wieso nicht? So unrecht hat er nicht. Der Farbraum wird ja nicht kontinuierlich abgedeckt, sondern durch viele einzelne Punkte, die aber so nah beieinander liegen, dass der Mensch keine Farbsprünge zwischen 2 Punkten (also 2 benachbarten Farben) erkennt. Und die Anzahl dieser Punkte ändert sich nun mal nicht, bloß der Abstand zwischen ihnen. Es werden also nicht mehr, sondern nur andere Farben dargestellt.
Ja und Nein. Du hast mit deiner Darstellung Recht (wenn man gleiche Codierungsverfahren verwendet). Ich bezog mich auf die breitere Diskussion, daß ich auch mittels 16bit Darstellung zuweilen Farben in einem Farbraum nicht darstellen kann, die im anderen Farbraum enthalten sind.

Ich verstehe übrigens auch nicht, welche Bauchschmerzen Ihr mit "36bit" oder "42bit Farbtiefe" habt. Es mag nicht ganz korrekt sein, aber man versteht doch, was gemeint ist, oder nicht? Und wenn nun wirklich alle RGGB-Sensel jeweils 12 oder 14 signifikante Bits erfassen, unterscheidet sich die damit erreichbare Farbtiefe systematisch und erheblich von 36bit oder 42bit? Kommen dabei nicht näherungsweise 2^36 oder 2^42 messbar (nicht mit dem Auge erkennbar!) unterschiedliche Farben raus?
Wenn Du dabei die finale Auflösung des Bildes aus dem Sensor um den Faktor 4 reduzierst, gebe ich dir Recht. Jedes "finale" Pixel besteht dann aus 4 Subpixeln (RGBG). Das wäre dann die gleiche Betrachtungsweise wie bei Monitoren, wo ja auch nicht die Auflösung der Subpixeln angegeben wird.

Aber die Verbesserungen in Grüntönen, einschließlich des Blau-Grün-Bereiches wird bei Adobe RGB doch mit weniger Farben im Rot- und Gelbbereich erkauft. Damit wird der Farbraum zwar erweitert (insbesondere beim Drucken) aber die Anzahl der unterschiedlichen Farben nicht vergrößert. Das geht ja auch nicht, ohne das man die Bit-Zahl der Datei und somit auch die Größe verändert.
Bezugnehmend auf Matthias's Post. Es sind 2 Betrachtungen. Die eine ist die mögliche Abdeckung des Farbraums. Die zweite ist die "Schrittweite" zwischen den abgebildeten Farben. Solange, diese Schrittweite kleiner als die des Auges ist, wird es dabei keinen Qualitätsverlust zwischen den Farben geben, die in beiden Farbräumen vorkommen. Unabhängig von der gewählten Schrittweite, wird es trotz dieser Überlappung Farben geben, die in den einem Farbraum abgebildet werden können und im anderen nicht.


Bei Wide-Gamut-TFT-Display Kann Adobe RGB sogar sichtbare Nachteile haben. Wenn man Die Fotos im Internet zeigt oder irgendwo mit sRGB drucken lassen will sowieso.

Das hat eher damit zu tun, daß nicht alle Software farbverbindlich ist. Daß gefühlte 99,9999% aller im Internet veröffentlichten Bilder sRGB enthalten, läßt viele Softwareautoren implizit von diesem Farbraum ausgehen.

Ich habe deshalb mal gelernt, dass man den Farbraum erst festlegen sollte, wenn man das Ausgabemedium und dessen Farbraum kennt. Vorher sollte man möglichst mit mindestens 12-Bit Farben (oder RAW) arbeiten. Damit stellt man möglichst sicher, dass keine Farben verloren gehen, die auf irgend einem Ausgabemedium sichtbar werden.

Das ist richtig, löst aber nicht alle Probleme. Wenn die Selektion der Farbfilter eines Sensors für bestimmte Farben eines Farbraums blind sind, kann die resultierende Farbe des Farbraums nicht dargestellt werden. Das ist der Grund, warum im Druck zuweilen 4,5,6,7,8 Farb druck verwendet wird. Einerseits um den Farbraum zu erweiteren, andereseits, die Graduierung feiner hinzubekommen. Es würde mich nicht wundern, wenn in Zukunft Sensoren mit mehr als den 3 Filterfarben RGB Massenware werden.

@Masi1157: nein.
Vergleich mal den Unterschied zwischen RGB=(127,128,127) und RGB=(127,127,127) von einem JPG, indem du zwei Ebenen mit diesen Farben nebeneinander stellst. Es gibt keinen Unterschied. Kleinen Abstufungen 12 Bit oder 14 Bit haben keinen sichtbaren Vorteil gegenüber den 8 Bit.
Diese Aussage in seiner Allgemeingültigkeit wage ich zu bezweifeln. Es hängt von den Umständen ab. Es kommt immer wieder vor, daß im RAW keine Tonwertabrisse zu sehen sind und nach der Umwandlung in JPEG schon. Egal ob sRGB oder AdobeRGB als Farbraum gewählt wurde.

Ein Beispiel: Im RAW gibt es keine Tonwertabrisse in den Wolken hinter dem Eiffelturm.
original.jpg



Ob der A/D Wandler 12 Bit oder 14 Bit mit vernünftigen Daten ausfüllen kann, dass ist die entscheidende Frage und kann theortisch nicht beanwortet werden. Sicherlich darf man hoffen auf mehr Dynamikumfang und weniger Rauschen in diesen 14 Bit Bildern.
Ob mit 12 oder 14 bit digitalisiert wird hat keinen Einfluß, welchen Dynamikumfang ein Sensor und die nachgeschaltete A/D Wandlung erzielen kann. Durch die linearisierte Abbildung der Dynamik gibt es nur eine Abhängigkeit. Wenn ich mehr als 12 EV Belichtungsstufen in RAW abspeichern möchte, muß ich mehr als 12bit pro Sensel vorsehen. Da Kameras vor einiger Zeit diese Dynamikgrenze überschritten haben, ist 14 bit als Speichergröße notwendig geworden. Wenn die ersten Sensoren mehr als 14 EV Dynamik aufnehmen können ist der nächste Schritt notwendig, der vermutlich dann auf 16bit gehen wird.


Liebe Grüße,
Andy
 
Wenn Du dabei die finale Auflösung des Bildes aus dem Sensor um den Faktor 4 reduzierst, gebe ich dir Recht. Jedes "finale" Pixel besteht dann aus 4 Subpixeln (RGBG). Das wäre dann die gleiche Betrachtungsweise wie bei Monitoren, wo ja auch nicht die Auflösung der Subpixeln angegeben wird.

Eigentlich meinte ich stark vereinfacht etwa dieses: Jedes Sensel erfasst maximal 14 (oder 12) signifikante Bits in seiner "eigenen" Farbe. Die Werte der jeweils beiden anderen Farben sind zunächst 0. Beim Demosaicing werden diese beiden leeren Werte aber gefüllt mit Zahlen, die sich arithmetisch aus denen der Nachbarn ergeben. Wenn man da mal vereinfachend eine einfache Mittelung aus 2 (im Fall G) oder 4 (R und B) Nachbarsenseln annimmt, hätte dieser Mittelwert sogar noch 1 bzw. 2 signifikante Bits mehr. Ein Pixel, das selber "grün" gemessen hat, könnte nach diesem primitiven Demosaicing dann bis zu 2^(14+2x15) verschiedene Farben annehmen, die anderen beiden sogar 2^(14+2x16). Da aber nicht der Mittelwert zwischen Nachbarn gesucht wird, sondern ein bester Schätzwert, ist diese Pseudo-Genauigkeitssteigerung um den Faktor 2 bzw. 4 natürlich Quatsch.

Wieviele signifikante Stellen haben also die beiden errechneten Farben? Auch 14? Oder ein bisschen weniger? So ganz weit weg von maximal 3x14=42 wird man doch nicht landen?



Gruß, Matthias
 
Das ist richtig, löst aber nicht alle Probleme. Wenn die Selektion der Farbfilter eines Sensors für bestimmte Farben eines Farbraums blind sind, kann die resultierende Farbe des Farbraums nicht dargestellt werden. Das ist der Grund, warum im Druck zuweilen 4,5,6,7,8 Farb druck verwendet wird. Einerseits um den Farbraum zu erweiteren, andereseits, die Graduierung feiner hinzubekommen. Es würde mich nicht wundern, wenn in Zukunft Sensoren mit mehr als den 3 Filterfarben RGB Massenware werden.

Interessanter Aspekt. Darüber habe ich auf der Sensorseite noch gar nicht nachgedacht. :rolleyes:

Danke für die ausführliche Erläuterung :top:
 
Wieviele signifikante Stellen haben also die beiden errechneten Farben? Auch 14? Oder ein bisschen weniger? So ganz weit weg von maximal 3x14=42 wird man doch nicht landen?
Matthias,
ich würde mal vermuten, daß das sehr von der Ortsfrequenz des jeweiligen Farbmusters abhängig ist.

Wenn eine großflächige und gleichmäßige Mischfarbe vorhanden ist, wird der Interpolationsalgorithmis mit guter Präzision arbeiten und du bist bei (fast) tatsächlichen 42bit pro Pixel. Wenn ein hochfrequentes Abwechseln von Farben im Pixelbereich stattfindet, wird der Interpolationsalgorithmos oft daneben liegen und die 42bit nur eine reduzierte inhaltliche Menge an "tatsächlicher" Farbinformation für die 2 fehlenden Farben - für diesen Ortspunkt an dem der Pixel liegt - aufnehmen und speichern können.

Liebe Grüße,
Andy
 
ich würde mal vermuten, daß das sehr von der Ortsfrequenz des jeweiligen Farbmusters abhängig ist.

Klar, wenn ich dem Sensor gar kein "genügend dynamisches Signal" anbiete, kann der auch keine 14 signifikanten Bits erfassen (bzw. die letzten der 14 Bits sind dann eben nicht signifikant, sondern einfach Rauschen). Das war ja nur eine Betrachtung der Maximalwerte.



Gruß, Matthias
 
Ich habe deshalb mal gelernt, dass man den Farbraum erst festlegen sollte, wenn man das Ausgabemedium und dessen Farbraum kennt. Vorher sollte man möglichst mit mindestens 12-Bit Farben (oder RAW) arbeiten. Damit stellt man möglichst sicher, dass keine Farben verloren gehen, die auf irgend einem Ausgabemedium sichtbar werden.

Die Antwort kommt ein bisserl spät, aber immerhin: Wenn Du "den Farbraum" erst "spät" definierst, mit welchen Farben arbeitest Du dann? Genau: Mit dem Arbeitsfarbraum. Um keine Farben zu verlieren, sollte er sehr groß sein. Und damit bei der Größe des Farbraums nichts abreißt, sollte die Farbauflösung groß sein - also 16 bit pro Pixel mit Adobe RGB, ProPhoto RGB oder ähnlich.

Das Problem dabei ist, dass Du nicht alle Farben dieses Farbraums auf Deinem Monitor siehst. Ist er kalibriert, kannst Du die Anmutung des Bildes nachvollziehen, aber Du wirst bestimmte Farben aus physikalischen Gründen nicht sehen können.

Diese Farben aus dem Arbeitsfarbraum erscheinen wieder im Druck, wenn Du als Zielfarbraum CMYK verwendest. Nun muss jeder für seine Zwecke selbst enstscheiden, ob er auf dem Druck Farben sehen will, die man auf dem Monitor nicht sehen kann. Dafür gibt es Proofs - also CMYK-Ausdrucke.

Mit viel Erfahrung sieht man einem Bild aber auch am Monitor an, ob man solche Farben in der "Ecke" des Farbraums erwarten kann oder nicht. Die in Frage kommenden "Ecken" der RGB-Farbräume sind im Bereich Blaugrün und Violett.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten