Was aber von der Grundaussage her egal ist. Im RAW sind die Daten gemäß dem eingestellten ISO-Wert. Ob die nun analog oder nach der Digitalisierung, aber vor der Erzeugung des RAWs digital verstärkt werden, kommt aufs Selbe heraus.
Nein, das stimmt nicht so ganz. Verstaerkt man vor dem A/D-Wandler (der dann ja aus einer anliegenden Photospannung einen Bit-Wert ausgiebt), steuert man nicht nur den Eingangsdynamikbereich des A/D-Wandlers besser aus, man reduziert auch einige Rauschquellen, die erst nach dem Vorverstaerker zum Rauschen beitragen.
Im RAW sollten die Rohdaten, die der A/D-Wandler ausspuckt, gespeichert sein. Die Situation, dass einige Hersteller bereits vor der RAW-Speicherung einige Algorithmen auf die Daten anwenden (wie Canon z.B. die Tonwertspreizung hochlichtstarken Linsen aufgrund der begrenzten Apertur der Mikrolinsen

) ist in meinen Augen grenzwertig, weil intransparent.
Manipulation der Sensorsignale vor der A/D-Wandlung sollten i.A. vermieden werden, da man moeglichst schnell die Signale digitalisieren will. Jede passive elektronische Komponente und auch jede Leitung reduziert den Signal- zu Rauschabstand durch Signaldaempfung, aktive Komponenten fuegen noch eigenes Rauschen hinzu. Sobald das Signal digitalisiert ist, ist es sozusagen in trockenen Tuechern. Einzig Probleme durch Binning (ein Bit-Wert kann nur in einen anderen ganzzahligen Wert transformiert werden) koennen auftreten, bei ausreichender Bittiefe sind diese allerdings mehr oder weniger vernachlaessigbar.
Gerade, wenn die analoge Verstärkung so grob sein sollte wäre es für die Kamera noch einfacher, die Vignettierungskorrektur vor der Erzeugung des RAWs durchzuführen ohne vom Konzept der Rohdatenspiecherung abzuweichen.
Das verstehe ich nun gar nicht. Meinst du vor der Erzeugung des RAWs damit vor der Digitalisierung? Oder praktisch zwischen Digitalisierung und Erzeugen des finalen RAWs?
Auch hier habe ich wieder absolut keine Ahnung, wie das die Hersteller umsetzten bzw. ob es mit dem aktuellen HW-Design umsetzbar ist. Und ob die Hersteller mittlerweile wirklich pro Pixel einen Verstärker verwenden oder doch noch nach der Methode arbeiten, wie sie nicht nur auf Wikipedia beschrieben ist, ist mir auch nicht bekannt.
So weit ich weiss, besitzen CMOS-Sensoren einen eigene Ausleseelektronik inkl. Verstaerker fuer jeden Pixel. Da koennte ich allerdings falsch liegen.
Warum sollte man nicht jeden Verstärker individuell je Pixel einstellen können? Das mag vieleicht langsamer sein wie bei einheitlicher Verstärkung, aber dann könnte man den Chip ja ausnahmsweise mal wieder, ganz altmodisch, für Standbilder anstatt für Videos optimieren.
Prinzipiell sollte das moeglich sein. Aber wie gesagt auf Vignettierungskorrektur nicht anwendbar.
Aber fuer eine erhoehte Sensordynamik u.U. interessant.
Obwohl ich schon von mehreren Quellen gehoert habe, dass die heutige Sensortechnik nicht mehr so stark vom eigentlichen ISO-Wert abhaengt wie noch vor ein paar Jahren. Soll heissen, mit einem gepushten RAW kann ich praktisch ohne grosse Verluste einen erhoehten ISO-Wert simulieren.