lumacro
Themenersteller
Ich hätte eine Frage bezüglich Sensortechnik. Unter dem Bayer-Farbfilter befinden sich ja jeweils Gruppen von 4 Subpixeln, wovon jedes einzelne einen bestimmten Helligkeitswert misst. Diese Informationen werden dann zur Zusammensetzung des späteren Bildes genutzt.
Wenn man nun beispielsweise ein RAW-Bild mit einem leicht überbelichteten Himmel nachträglich am Computer wieder abdunkelt, kommen neue Strukturen, zum Beispiel die Wolken, zum Vorschein. Nun frage ich mich wie es dem Sensor überhaupt möglich ist, mehrere Helligkeitswerte während eines Belichtungsvorgangs zu speichern. Kommt einmal zuviel Licht auf, sollte doch dieser Wert ("100% Licht") erfasst sein und die Photodiode könnte nicht mehr als das wahrnehmen, da die Auslesung erst nach der Belichtung stattfindet (?). Genauso ist es bei nachträglicher Aufhellung: Woher kommen diese neuen Informationen?
Wenn man nun beispielsweise ein RAW-Bild mit einem leicht überbelichteten Himmel nachträglich am Computer wieder abdunkelt, kommen neue Strukturen, zum Beispiel die Wolken, zum Vorschein. Nun frage ich mich wie es dem Sensor überhaupt möglich ist, mehrere Helligkeitswerte während eines Belichtungsvorgangs zu speichern. Kommt einmal zuviel Licht auf, sollte doch dieser Wert ("100% Licht") erfasst sein und die Photodiode könnte nicht mehr als das wahrnehmen, da die Auslesung erst nach der Belichtung stattfindet (?). Genauso ist es bei nachträglicher Aufhellung: Woher kommen diese neuen Informationen?