Der Sensor misst nicht in diesen Werten.... Da die Elektronik ein Grundrauschen hat, ist ein Pixel vor der Aufnahme niemals auf 0, sondern etwas darüber. Mit speziellen Ausleseverfahren (CDS= Correlated Double Sampling) wird dieses Grundrauschen zum größten Teil beim auslesen rausgefiltert.
Du sprichst hier vom reinen Sensorelement, und da ist das sicher richtig. Für einen Endanwender ist das aber akademisch: er sieht nur das Gesamtergebnis nach Hoch-/Tiefpass-Filter, Verstärkung, .... , Digitalisierung als Binärzahl auf der Flashkarte. Das sind quasi die durch das Messinstrument "Sensor" gelieferten Messdaten und da kann ich keinen Fehler in meiner Aussage erkennen.
Ein analoges Pixel liefert z.B. wie von Dir gesagt potentiell auch bei Schwarz immer ein paar Elektronen, aber die kriegst Du nicht zu sehen, weil die Entwickler obere und untere Grenzen für die Empfindlichkeit definieren und alles darüber oder darunter kappen.
Da (im Fall der D4) die 120000 Elektronen nicht in eine 14bit Zahl hineinpasst (sie kann maximal den Wert 16384 speichern) wird über den Gain Faktor die Ausleseelektronik an den Wertebereich angepasst. Zum Beispiel benotigt man 7 Elektronen um den Zähler um eins zu erhöhen. Sonst könnte der Wertebereich den die 120000 Elektronen im Pxiel haben nicht in den 14bit abgebildet werden.
Ich glaube Dir die Zahlen mal, was ich aber nicht glaube ist, dass der Gain Factor einer bewussten Wertebereichsanpassung dient. Vielmehr ist es anders herum, dass der AD-Wandler einfach eine gewisse Empfindlichkeit hat und daraus wiederum ergibt sich der Gain Factor.
Ansonsten müsste die Kameraelektronik in der Lage sein, einzelne Elektronen zu zählen.
Das ist nicht richtig. Der Sensor kennt das Konzept eines Farbraums nicht. AdobeRGB und sRGB sind Konzepte die nur im Zusammenhang von JPEG und ähnlichen Formaten vorkommen. Eine RAW Datei kennt auch kein AdobeRGB. Der Demosaicprozess muß jedoch davon eine Ahnung haben, weil er es für die Farbraumtransformationen benötigt.
Nein, DAS stimmt so nicht. Ein Farbraum dient unbhängig irgendwelchen Dateiformaten der Definition einer Farbmenge, orientiert am menschlichen Sehapparat: AdobeRGB sollte einen durchgehenden Workflow vom Bildschirm zum Druck ermöglichen, sRGB dagegen umfasst nur ungefähr das, was normale LCD-Schirme "halt so" können. Es gibt noch weit mehr Farbräume, und prinzipiell kann sich auch jeder einen eigenen definieren.
Für Farbverbindlichkeit ist es nun wesentlich, dass sich alle Verarbeitungsstufen auf denselben Farbraum beziehen UND dass sie den auch "können" - also aufnehmen oder wiedergeben oder natürlich auch speichern.
Richtig ist, das reine Sensorelement produziert kein farbverbindliches Bild - es produziert ja faktisch überhaupt kein Bild, solange es kein Faveon ist.
ABER es wurde bei der Auslegung der Farbfilter darauf geachtet, dass sich aus einem RAW einen AdobeRGB-Bild erzeugen lässt. Das ist kein Selbstgänger und auch kein zufälliges Abfallprodukt. Die Anforderungen des Farbraums stecken konstruktiv im Sensor selbst.
Übrigens unterscheiden sich Wide Color Gamut LCDs von gewöhnlichen auch nur durch eine präzise Abstimmung ihrer Farbfilter.
Mit Deinen restlichen Ausführungen bin ich einer Meinung.