Das ist schnell verwirrend, wenn man alles zugleich betrachten will
Ich würde Demosaicing aus der Farbengeschichte raushalten, das sind wohl auch technisch getrennte Stufen.
Nein.
Das Demosaicing hängt sogar ganz direkt mit den Farben zusammen, schon deshalb weil dieser Prozess die Daten aus den Farbdaten entnehmen
muss.
Dann kommt das, was du Farbinterpolation nennst? Die Überführung von Roh- in Arbeits-Farben. Da kommen dann Beauty-Tricks und Geheim-Rezepturen der Kamerahersteller in Spiel. Oder bei Adobe halt das, was Adobe für vernünftig hält.
Das würd ich dann eher Farbinterpretation nennen. Oder Farb-Transformation. "Interpolation" ist eigentlich immer die Schätzung eines unbekannten Wertes mit Hilfe von zwei oder noch mehr schon bekannten Werten. Gibt es durchaus auch hier, z.B. sind Farb-Lookup-Tabellen (LUTs) ja nicht groß genug, um die Billionen der denkbaren Farben unserer Welt zu speichern. Da muss dann eben mit hilfe von weniger Farben "interpoliert", also ein bischen überbrückt werden. Das meinst du vermutlich.
Auch hier - nein. Die Farbinterpolation ist Bestandteil des Demosaicing.
Denn die Farben brauchen für das richtige "zusammensetzen" korrekt interpretiert werden.
Ja, es geht darum, die Bildpunkte sowohl geometrisch (Pixelgrafik) als auch farblich richtig zusammensetzen. Dass zB Flächen auch wie Flächen aussehen, Strukturen erkennbar sind usw.
Du siehst das aber schon insofern richtig, dass es einen Unterschied gibt zwischen dem eigentlichen Auslesen der Sensor-Eingangssignale und dem RAW in das ja meist noch ein JPG usw eingebettet ist.
Man könnte sagen - die RAW-Datei ist ein unfertiges Bild.
Aus diesem Grund spricht man ja auch oft vom "Digitalen Negativ", welches zwar auch bereits das an sich fertige Bild ist, aber noch nicht darstellbar.
Während dieser Prozess beim analogen Farbnegativ von der Chemie bestimmt wird, ist im digitalen Prozess der RAW-Codec und die auslesende Software dafür verantwortlich.
Weil RAW-Konverter aber eben nicht nur die Datei in eine darstellbares Bild "übersetzen", sondern bereits Bearbeitungstools' sind, tun sie noch ihr Übriges hinzu.
Am deutlichsten wird dies beim freien RAW-Konverter DCRaw der i.d.R. lediglich als Backend (also im Hintergrund eines eigentlichen Programms mit grafischer Oberfläche und ansonsten nur per Kommandozeile bedienbar ist) werkelt. DCRaw kann nur das Demosaicing inkl der Farbinterpolation vornehmen.
Wie stark sich Adobe daran orientiert, oder sich sogar von den Herstellern deren "Haus-Geschmack" bei Farben diktieren lässt, weiß ich ehrlichgesagt garnicht. Dachte aber immer bisher, Adobe ist autonom und ermittelt einigermaßen vernünftige Farben selber.
Ja, das ist eine wichtige Frage - ob nun bei Adobe, PhaseOne/CaptureOne, DCRaw usw usw
Die Hersteller lassen sich da nicht in die Karten blicken. Wohl aus Angst, dass freie Konverter oder die Konkurrenz davon profitieren könnten.
Viel spricht dafür, dass die Kamerahersteller den SoftwareAnbietern wie Adobe die RAW-Codex lizenziert verkaufen. Ich vermute mal bei Adobe ist das Fall, was dafür spricht, als Adobe bei Lightroom einst von DCRaw auf das hauseigene CameraRAW wechselte.
Aber offenbar kaufen manche Softwareanbieter nicht von allen die Codecs', oder nicht alle Kamerahersteller verkaufen. Bei Fuji sieht's jedenfalls so aus, dass einer der beiden Fälle zutrifft.
Ich denke, als Besitzer eine Fujifilm Kamera mit X-Trans Sensor lohnt es sich besonders, sich der Thematik anzunehmen.
Anders als beim klassischen Bayer-Aufbau, verfügt X-Trans zB in jeder Sensorzeile alle drei Farben.