• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

36 bit und 42bit Farbtiefe

Vollkommen nutzlose Spekulation, was alles sein könnte. :(
Die Fakten wurden nun doch mehrfach dargestellt.

Hallo,

ich finde das ganz interessant. Da ausser persönlichen Erfahrungen aber eh alles bereits an anderer Stelle vollständig beschrieben steht, könnte man sich in Foren dann ja so ziemlich alle Diskussionen sparen ;)

Aber es ist ja nicht so eindeutig, denn neben dem Verfahren auf Basis des Bayer-Sensors siehts ja mit anderen Techniken auch etwas anders aus (mal von den Nachteilen dieser Techniken abgesehen).

Ich hab jedenfalls was gelernt - und das ist für mich nicht nutzlos. Danke dafür :)

Viele Grüsse
 
  1. Die Bitanzahl hat nichts mit dem abbildbaren Dynamikbereich in Form der maximal aufnehmbaren Lichtmenge zu tun.
  2. Die Bitanzahl hat nichts mit dem abbildbaren Dynamikbereich in Form des minimal aufnehmbaren Lichts zu tun.
  3. Die Bitanzahl hat Auswirkungen auf den Dynamikbereich im Umwandlungsprozess, der nach der Aufnahme stattfindet, da einige (nicht alle) Rauschursachen aus diesem Prozess stammen.
Liebe Grüße,
Andy

Hallo,

dann ist es falsch, wenn man sagt, dass man mit einem 12/14 Bit Raw mehr "Reserven" hat, als das (auf 8 Bit ausgerichtete) Histogramm an der linken und rechte Grenze aussagt ?

Enthält das RAW also nicht mehr, sondern nur feiner abgestufte Helligkeitswerte, aber der Dynamikbereich ist bei 8 Bit und 12/14 Bit identisch ?

Vielen Dank und Grüsse
 
Danke für das Beispielbild, sehr beeindruckend! Irre, der Mond mit "Sunstars".

Mir ist schon klar, dass das Aufhellen der dunklen Bereiche besser gelingt, wenn man dafür mehr Abstufungen zur Verfügung hat.

Die Frage ist, ob es mit 12 Bit schon genug sind oder nicht.
 
Zuletzt bearbeitet:
Hallo,

dann ist es falsch, wenn man sagt, dass man mit einem 12/14 Bit Raw mehr "Reserven" hat, als das (auf 8 Bit ausgerichtete) Histogramm an der linken und rechte Grenze aussagt ?

Enthält das RAW also nicht mehr, sondern nur feiner abgestufte Helligkeitswerte, aber der Dynamikbereich ist bei 8 Bit und 12/14 Bit identisch ?

Vielen Dank und Grüsse

Du hast eine falsche Idee davon, was Dynamik bedeutet. Mit dem jpg hat das nichts zu tun.
 
Genug ist eine Definition die nur jeder für sich selber einschätzen kann wobei es sicherlich immer zu dem Punkt kommt das es dann eben für dieses eine Bild nicht mehr genug ist...
Man kann immer Bits und Informationen weg schmeißen wenn man nach dem Bearbeiten meint das es so final ist und niemals mehr geändert werden wird.
 
Hallo,
dann ist es falsch, wenn man sagt, dass man mit einem 12/14 Bit Raw mehr "Reserven" hat, als das (auf 8 Bit ausgerichtete) Histogramm an der linken und rechte Grenze aussagt ?
Es ist falsch wenn man das ohne weitere Informationen miteinander in Beziehung setzen will. Der Demosaic Prozess ist ein hochgradig von den Wünsche, Absichten, Vorstellungen und Ideen der Softwareentwickler gesteuerter Umwandlungsprozess von Sensorrohdaten zu einem Bild im JPEG Standard.
Enthält das RAW also nicht mehr, sondern nur feiner abgestufte Helligkeitswerte, aber der Dynamikbereich ist bei 8 Bit und 12/14 Bit identisch ?
Die Begriffe Bittiefe und Dynamik sind orthogonal. Zusätzlich ist der 8bit Wert üblicherweise bei JPEG anzutreffen, daß aber nicht linear abgebildet wird, sondern über ein Gamma von 1.8 oder 2.2.
Die 12 und 14 bit des Sensorpixels ist bei der derzeitigen Technologie immer ein linearisierter Wert.

LG,
Andy
 
Es ist falsch wenn man das ohne weitere Informationen miteinander in Beziehung setzen will. Der Demosaic Prozess ist ein hochgradig von den Wünsche, Absichten, Vorstellungen und Ideen der Softwareentwickler gesteuerter Umwandlungsprozess von Sensorrohdaten zu einem Bild im JPEG Standard.

Die Begriffe Bittiefe und Dynamik sind orthogonal. Zusätzlich ist der 8bit Wert üblicherweise bei JPEG anzutreffen, daß aber nicht linear abgebildet wird, sondern über ein Gamma von 1.8 oder 2.2.
Die 12 und 14 bit des Sensorpixels ist bei der derzeitigen Technologie immer ein linearisierter Wert.

LG,
Andy

Hallo,

ich muss leider nochmal nachfragen. Es geht mir um die Informationen, die in den RAW-Daten enthalten sind (nicht um das, was der Prozess zur JPG-Verarbeitung daraus macht).

Enthalten 12/14 Bit-RAW-Dateien mehr Bildinformationen z.B. in den dunklen und hellen Bereichen als würde ich ein Foto nur mit 8 Bit aufnehmen oder dienen die 12/14 Bit nur einer feineren Abstufung der Helligkeitswerte ? Die Kamera generiert, wenn ich nur in JPG speichere, eine JPG-Datei auf Basis der Informationen, die vom Sensor geliefert wurden - Ursprung ist doch also immer ein RAW, es ist nur die Frage, ob das auch gespeichert wird oder nur das ins JPG konvertierte Foto (das nat. je nach Einstellung von vielen Parametern abhängig ist) oder halt auch beide Dateien.

Evtl. müsste ich die Frage anders stellen: enthält eine 14 Bit-Raw-Datei mehr Informationen in den dunklen und hellen Bereichen als eine 12 Bit ?

Vielen Dank und Grüße
 
Die Begriffe Bittiefe und Dynamik sind orthogonal. Zusätzlich ist der 8bit Wert üblicherweise bei JPEG anzutreffen, daß aber nicht linear abgebildet wird, sondern über ein Gamma von 1.8 oder 2.2.
Die 12 und 14 bit des Sensorpixels ist bei der derzeitigen Technologie immer ein linearisierter Wert.
Alles Wichtige kurz & präzise zusammengefasst! :top:
 
Enthalten 12/14 Bit-RAW-Dateien mehr Bildinformationen z.B. in den dunklen und hellen Bereichen als würde ich ein Foto nur mit 8 Bit aufnehmen oder dienen die 12/14 Bit nur einer feineren Abstufung der Helligkeitswerte ?
Der Sensor als technisches Instrument nimmt nie mit 8 JPEG auf, sondern (derzeit) mit 12 oder 14bit. Die Frage ist, ob das aufgenommen Muster an Helligkeiten, daß durch die RGB Filter zu 25% aus rotlichtinformation, 25% blau und 50% grün besteht, so die Kamera in Form einer RAW Datei verläßt, oder bereits in der Kamera CPU zu einem JPEG umgewandelt wird.


Die Kamera generiert, wenn ich nur in JPG speichere, eine JPG-Datei auf Basis der Informationen, die vom Sensor geliefert wurden - Ursprung ist doch also immer ein RAW, es ist nur die Frage, ob das auch gespeichert wird oder nur das ins JPG konvertierte Foto (das nat. je nach Einstellung von vielen Parametern abhängig ist) oder halt auch beide Dateien.
Korrekt.

Evtl. müsste ich die Frage anders stellen: enthält eine 14 Bit-Raw-Datei mehr Informationen in den dunklen und hellen Bereichen als eine 12 Bit ?
Sie kann mehr Informationen speichern wenn alle anderen Umgebungsvariablen konstant, bzw. besser sind.

Ein paar Beispiele:
  • Wenn der Sensor wie der Teufel rauscht, ist es egal ob 12 oder 14 bit. In beiden Formaten ist der Rauschanteil das Limit nicht die Dateiform.
  • Wenn die Analog Digital Umwandlung einfach aufgebaut ist, kann ein hochpräziser Sensor laufend "perfekte" Daten an die A/D Stufe schicken. Wenn diese schlecht "übersetzt" ist danach wieder nur Müll in den Daten, egal of 12 oder 14 Bit. (Übertrieben ausgedrückt).
  • Wenn der Sensor sauber arbeitet, die AD Wandlung gut ist, dann ist im 14bit RAW mehr Information vorhanden als in einer 12bit RAW Datei. Prozentuell ist die Verbesserung über den ganzen Belichtungsbereich gegeben, sichtbar wird es aber eher in den dunklen Bereichen (Tonwertarbrisse passieren später).

Kleine Gedankenbrücke:
  • Verlustbehaftete Kompression von RAW Dateien bedeutet Informationsverlust in den hellen Bereichen des Bildes ggü. dem "vollen" RAW
  • Der Wechsel von 14 auf 12bit bedeutet Informationsverlust in den dunklen Bereichen.

Liebe Grüße,
Andy
 
[*]Verlustbehaftete Kompression von RAW Dateien bedeutet Informationsverlust in den hellen Bereichen des Bildes ggü. dem "vollen" RAW
Meinst du damit die NEF-Kompression? Dann sollte man vielleicht ergänzend hinzufügen, dass sich der Verlust auf die numerische Information bezieht.
Durch das angewandte Gamma der Kompression ist sie für den menschlichen Betrachter aber über die Zonen ausgewogen.
 
Durch das angewandte Gamma der Kompression ist sie für den menschlichen Betrachter aber über die Zonen ausgewogen.
Solange nicht das Bild "gehörig" manipuliert wird, stimmt das. Es geht um den Informationsverlust in der Datei und den Rohdaten. Dieser ist gegeben.
In den meisten Fällen, ist die vorhandene Restinformation sowohl im komprimierten als auch im unkomprimierten RAW für die JPEG-Konvertierung ausreichend und daher vom menschlichen Betrachter kaum wahrnehmbar.

Liebe Grüße,
Andy
 
dann ist es falsch, wenn man sagt, dass man mit einem 12/14 Bit Raw mehr "Reserven" hat, als das (auf 8 Bit ausgerichtete) Histogramm an der linken und rechte Grenze aussagt ?

Enthält das RAW also nicht mehr, sondern nur feiner abgestufte Helligkeitswerte, aber der Dynamikbereich ist bei 8 Bit und 12/14 Bit identisch ?
Das mit der feineren Abstufung stimmt (sofern es der Sensor wirklich kann und nicht nur aus Marketinggründen Platz verschwendet wird :rolleyes:), das mit der Dynamik nicht.

0 ist das schwärzeste, was der Sensor messen kann.
2^14-1 ist das hellste, was der Senser messen kann.
Aber: einen Bezug zu absoluten physikalischen Werten gibt es damit noch lange nicht. Damit lässt sich rein aus der Hellikeitsauflösung keine Aussage über die Dynamik treffen.

Dieses Problem der fehlenden absoluten Bezugsgröße ziehst sich übrigens durch die ganze Verarbeitungskette. "Maximales Rot" ist eben je nach Aufnahme- und Ausgabegerät eine andere Farbe. Darum kalibriert man.
Die Kamerasensoren sind schon vom Hersteller kalibriert, die D7000 (und wahrscheinlich alle anderen halbwegs aktuellen Modelle) z.B. auf den AdobeRGB-Farbraum.
 
0 ist das schwärzeste, was der Sensor messen kann.
2^14-1 ist das hellste, was der Senser messen kann.
Aber: einen Bezug zu absoluten physikalischen Werten gibt es damit noch lange nicht. Damit lässt sich rein aus der Hellikeitsauflösung keine Aussage über die Dynamik treffen.

Der Sensor misst nicht in diesen Werten.
Photonen treffen auf das Material auf. Abhängig von der Quanteneffizienz kann der Sensor die Photonen mit einer bestimmten Wahrscheinlichkeit registrieren und wandelt diese in Elektronen um. Die Quanteneffizienz ist derzeit bei guten Sensoren bei ca. 55%. Ein Sensel (landläufig ein Pixel genannt) kann bis zu einer maximalen Zahl diese Elektronen im Kondensator pro Pixel speichern. Eine D4 kann bis ca. 120.000 Elektronen pro Pixel aufnehmen, andere Kameras weniger. Da die Elektronik ein Grundrauschen hat, ist ein Pixel vor der Aufnahme niemals auf 0, sondern etwas darüber. Mit speziellen Ausleseverfahren (CDS= Correlated Double Sampling) wird dieses Grundrauschen zum größten Teil beim auslesen rausgefiltert.

Da (im Fall der D4) die 120000 Elektronen nicht in eine 14bit Zahl hineinpasst (sie kann maximal den Wert 16384 speichern) wird über den Gain Faktor die Ausleseelektronik an den Wertebereich angepasst. Zum Beispiel benotigt man 7 Elektronen um den Zähler um eins zu erhöhen. Sonst könnte der Wertebereich den die 120000 Elektronen im Pxiel haben nicht in den 14bit abgebildet werden.

Ich habe das einmal in einem anderen Zusammenhang kurz zusammengeschrieben, was bei der D800 abläuft.



Dieses Problem der fehlenden absoluten Bezugsgröße ziehst sich übrigens durch die ganze Verarbeitungskette. "Maximales Rot" ist eben je nach Aufnahme- und Ausgabegerät eine andere Farbe. Darum kalibriert man.
Die Kamerasensoren sind schon vom Hersteller kalibriert, die D7000 (und wahrscheinlich alle anderen halbwegs aktuellen Modelle) z.B. auf den AdobeRGB-Farbraum.
Das ist nicht richtig. Der Sensor kennt das Konzept eines Farbraums nicht. AdobeRGB und sRGB sind Konzepte die nur im Zusammenhang von JPEG und ähnlichen Formaten vorkommen. Eine RAW Datei kennt auch kein AdobeRGB. Der Demosaicprozess muß jedoch davon eine Ahnung haben, weil er es für die Farbraumtransformationen benötigt.

Es gibt noch ein anderes "Problem". Die spektrale Durchlässigkeit des RGB Filters vor den einzelnen Pixel ist nicht immer ident. Bei einer Kamera wird die Wellenlänge von 620nm mit einer bestimmten Flankensteilheit durchgelassen (zBsp blau), bei einer anderen Kamera ist es vielelicht 640nm und eine andere Steilheit. Diese Werte werden in die RAW Datei hineingeschrieben und sind ein wesentlicher Bestandteil der Farbraumtransformation.

Ist auch ein ständiger Streitpunkt zwischen Kameraherstellern und externen RAW Konverter Herstellern, da diese Information - wenn überhaupt - nur unter Lizenz hergegeben wird und viele diese nicht nehmen wollen (siehe Nikon - Adobe Diskussion vor ein paar Jahren).
Die externen RAW Konverter helfen sich mit allen möglichen Profilen, die die Konverter bei der Wandlung hinzuziehen. Diese Profile werden in "Heimarbeit" erstellt und sind der Versuch, möglichst nahe an die eigenlichen spektralen Eigenschaften des RGB Filters, den Transmissionseigenschaften aller Filterschichten, und der Sensitivität des Sensors heranzukommen.

Liebe Grüße,
Andy
 
Zuletzt bearbeitet:
Kannst du den Link, von dem du dort sprichst hier verlinken? Links sind dort nur für Mitglieder sichtbar.
Danke!
Klar.
Hier ist mein Posting zu dem Dokument. Wir diskutierten über die D800, ob sie ISO-los ist oder nicht.

xxx,
ich habe mir den von Dir verlinkten Artikel zu Gemüte geführt. Eigentlich habe ich ihn nochmals gelesen, denn es war einer der Artikel, auf die ich ebenfalls verwiesen habe. Nur dieses mal noch sorgfältiger.

Ich stimme mit dir überein, daß Sony's CMOS Sensordesign eine sehr hohe Stufe an "Sophistication" erreicht hat und vor allem im Auslesebereich einige sehr innovative Methoden eingeführt haben.

Das ultimative Ziel der Sensorentwicklung ist, das Auftreten jedes einzelnen Photons in einem Sensel unter der Berücksichtigung der Quanteneeffizienz sofort digital zu erfassen um die Störungen aus dem analogen Bereich quasi an der Quelle anzugehen und zu eliminieren. Dort ist aus meiner Sicht die Industrie noch nicht, und auch Sony's Sensor ist noch einige Stufen davon entfernt - obwohl er die Digitalisierung näher an die Sensel heranführt als andere Designs.

Mein Verständnis der Funktionsweise des Sensors in dem von dir verlinkten Papers:
  1. Ein Sensor ist mit einem 2 dimensionalen Array an Sensel ausgestattet. Bestehend aus Reihen und Spalten.
  2. Wenn man nun in eine ganze Spalte aus dem Array "hineinblickt" haben wir eine vertikale Anordnung an Sensel, die jeweils eine Photodiode und einen Verstärker pro Photodiode besitzen. Diese Sensel sind vertikal elektrisch verbunden und liefern ihre Spannung an den "unten" sitzenden Analog/Digital Wandler (auf den ich noch gesondert eingehe)
  3. Der Verstärker auf dem Sensel ist für den System Gain verantwortlich und bestimmt den ADU Bereich. Ansonsten könnten keine Full Well Kapazitäten von über 2^14 Elektronen mit einem 14bit ADC gewandelt werden. Die D800 hat eine Full Well Kapazität lt. sensorgen.info von ca. 45.000 registrierten Photonen. D.h. der per Sensel System Gain im dortigen Amplifier muß größer als 1 sein
  4. Da es nicht möglich ist, alle Sensel zugleich auszulesen und deren Werte zu digitalisieren gibt es auf den Sensorchip eine Elektronik (Vertical Scan circuits), die ansteuert, an welche Position das Sensel ist, daß zu einem Zeitpunkt ausgelesen werden kann (Dessen Spannung auf der vertikalen Leitung anliegt)
  5. Die Entscheidung von Sony eine spaltenparallelle A/D Umwandlung mit einer massiven Anzahl an ADC (sollten dann zumindest 7360 ADC Wandler am Chip sein) vorzunehmen, erlaubt andere Verfahren, die sich wesentlich mehr Zeit lassen können als die auf hohe GEschwindigkeit ausgelegten seriellen Verfahren die nur mit einem ADC (D1 läßt grüßen) oder 12 ADC (D2X, D3) umegsetzt wurden. Noch dazu waren diese externe Bausteine (meistens von Analog Devices)
  6. Der Ramp wave Ansatz scheint ein öfters verwendeter Ansatz zu sein, es gibt in der Literatur etliche Verweise in unterschiedlichen Bereichen. Nicht daß es Sony's Innovation schmälert, aber es scheint nicht exklusiv zu sein.
  7. Gegenüber einem normalen Analog/Digital Converter, braucht der rampwave basierende ADC noch einen zusätzlichen Digital/Analog Converter, der praktischerweise eine Refernezspannung erzeugt, die aufgrund eines digitalen Wertes erstellt wird. Wenn die Referenzspannung den gleichen Wert wie die Spannung von der Photodiode hat, kann ein relativ einfacher Comparator mit einem Signal diesen Gleichstand anzeigen.
  8. Die Messung läuft in 5 Stufen ab (zusammengefasst):
    • Die Sensel werden zurückgesetzt, und da keine Photodiode komplett auf 0 Elektronen resettet werden kann, macht es sehr viel Sinn, diesen NichtNull Wert zuvor zu messen und zu speichern (im Rahmen von Correlated Double Sampling). Diese Messung passiert, in dem ein interner Zähler im ADC von oben nach unten runterzählt (damit wird vom Digital/Analog Converter die Referenzspannung erzeugt, die laufend niedriger wird) bis der Comparator aufschreit. Die gerade anliegende Zählwert im internen Zähler wird vermerkt.
    • Danach wird die Datenleitung dieses Sensels an die vertikale Leitung angelegt und die üblicherweise höhere Spannung wird mit einem wieder nach oben laufenden Zähler in einem zweiten Verfahren gemessen. Die beiden vermerkten digitalen werte werden subtrahiert und als Datenwert der nächsten Verarbeitungsstufe zugeführt.
    • Die Ausleseelektronik selektiert den nächsten Sensel und das ganze Spiel beginnt von vorne. Das wird solange gemacht, bis die ganze Spalte (ca. 5000 Sensel) vom ADC umgewandelt worden ist.
OBwohl das Verfahren erheblich weniger Ausleserauschen als frühere Ansätze produziert, bleiben wir aus meiner Sicht vom direkten Zählen der Elektronen noch ein paar Schritte entfernt.

Mögliche Fehlerquellen vor dem Wechsel in die digitale Domain und am Weg zum echten ISO-losen Sensor:
  1. Sample variation and leakage in den Photodioden per Sensel
  2. Sample variation in den per Sensel Amplifiern
  3. Abhängigkeit der AD Umwandlung von der Präzision des D/A Wandlers der für die Ramp wave verantwortlich ist
  4. Genauigkeit des Comparators


Liebe Grüße,
Andy
 
Der Sensor misst nicht in diesen Werten.... Da die Elektronik ein Grundrauschen hat, ist ein Pixel vor der Aufnahme niemals auf 0, sondern etwas darüber. Mit speziellen Ausleseverfahren (CDS= Correlated Double Sampling) wird dieses Grundrauschen zum größten Teil beim auslesen rausgefiltert.
Du sprichst hier vom reinen Sensorelement, und da ist das sicher richtig. Für einen Endanwender ist das aber akademisch: er sieht nur das Gesamtergebnis nach Hoch-/Tiefpass-Filter, Verstärkung, .... , Digitalisierung als Binärzahl auf der Flashkarte. Das sind quasi die durch das Messinstrument "Sensor" gelieferten Messdaten und da kann ich keinen Fehler in meiner Aussage erkennen.
Ein analoges Pixel liefert z.B. wie von Dir gesagt potentiell auch bei Schwarz immer ein paar Elektronen, aber die kriegst Du nicht zu sehen, weil die Entwickler obere und untere Grenzen für die Empfindlichkeit definieren und alles darüber oder darunter kappen.

Da (im Fall der D4) die 120000 Elektronen nicht in eine 14bit Zahl hineinpasst (sie kann maximal den Wert 16384 speichern) wird über den Gain Faktor die Ausleseelektronik an den Wertebereich angepasst. Zum Beispiel benotigt man 7 Elektronen um den Zähler um eins zu erhöhen. Sonst könnte der Wertebereich den die 120000 Elektronen im Pxiel haben nicht in den 14bit abgebildet werden.
Ich glaube Dir die Zahlen mal, was ich aber nicht glaube ist, dass der Gain Factor einer bewussten Wertebereichsanpassung dient. Vielmehr ist es anders herum, dass der AD-Wandler einfach eine gewisse Empfindlichkeit hat und daraus wiederum ergibt sich der Gain Factor.
Ansonsten müsste die Kameraelektronik in der Lage sein, einzelne Elektronen zu zählen.


Das ist nicht richtig. Der Sensor kennt das Konzept eines Farbraums nicht. AdobeRGB und sRGB sind Konzepte die nur im Zusammenhang von JPEG und ähnlichen Formaten vorkommen. Eine RAW Datei kennt auch kein AdobeRGB. Der Demosaicprozess muß jedoch davon eine Ahnung haben, weil er es für die Farbraumtransformationen benötigt.
Nein, DAS stimmt so nicht. Ein Farbraum dient unbhängig irgendwelchen Dateiformaten der Definition einer Farbmenge, orientiert am menschlichen Sehapparat: AdobeRGB sollte einen durchgehenden Workflow vom Bildschirm zum Druck ermöglichen, sRGB dagegen umfasst nur ungefähr das, was normale LCD-Schirme "halt so" können. Es gibt noch weit mehr Farbräume, und prinzipiell kann sich auch jeder einen eigenen definieren.

Für Farbverbindlichkeit ist es nun wesentlich, dass sich alle Verarbeitungsstufen auf denselben Farbraum beziehen UND dass sie den auch "können" - also aufnehmen oder wiedergeben oder natürlich auch speichern.
Richtig ist, das reine Sensorelement produziert kein farbverbindliches Bild - es produziert ja faktisch überhaupt kein Bild, solange es kein Faveon ist.
ABER es wurde bei der Auslegung der Farbfilter darauf geachtet, dass sich aus einem RAW einen AdobeRGB-Bild erzeugen lässt. Das ist kein Selbstgänger und auch kein zufälliges Abfallprodukt. Die Anforderungen des Farbraums stecken konstruktiv im Sensor selbst.
Übrigens unterscheiden sich Wide Color Gamut LCDs von gewöhnlichen auch nur durch eine präzise Abstimmung ihrer Farbfilter.

Mit Deinen restlichen Ausführungen bin ich einer Meinung.
 
Mirador,
Auch in der RAW Datei wirst Du die Zahl Null sehr selten antreffen (trotz dem von Dir angesprochenen kappen). Dazu gibt es zu viele Rauschquellen. Darauf bezog sich meine Antwort.

Zur akademischen Natur:
Das ist für die ganze Diskussion hier zu vermerken, daß man in der Tat auch Bilder ohne dieses Wissen machen kann.

Gain Factor:
Das ist genau die Aufgabe des Gainfactors, sonst hat er nicht viel zu tun. Die meisten A/D Wandler haben Schaltungen mit programmierbaren Gainfaktor vor dem Komparator eingebaut.

Einzelne Elektronen:
Das ist das Ultimative Ziel der Sensorbauer., Und zwar beim auftreffen pro Sensel. So weit sind wir noch nicht. Die in der D800 und D600 verwendeten Ramp Wave A/D Wandler sind so genau, daß sie fast einzelne Elektronen zählen. Daher das niedrige Rauschen bei Basis ISO

Farbraum:
Der Farbraum wird im Demosaic Prozess eingeführt. Also recht spät im ganzen Sensoraufnahmeprozess. Ich lasse mich gerne eines Besseren belehren, aber du bist seit 10 Jahren, seit der ich dieses Thema verfolge, die einzige "Quelle" die diese Behauptung aufstellt, daß das bereits im Sensor berücksichtigt wird. Zeige einfach die Materialen und Quellen, von der du das ableitest. Bis dahin betrachte ich diese Darstellung als nicht korrekt.

Es gibt zig Farbräume. Warum ein Hersteller seinen Sensor gerade auf den AdobeRGB Farbraum (mit all seinen Einschränkungen) optimieren sollte, entzieht sich mir.

Liebe Grüße,
Andy
 
WERBUNG
Zurück
Oben Unten