CrazyC
Themenersteller
Mir ist gerade eine Idee gekommen:
Digitalkameras benutzen ja alle ein Raster von helligkeitsempfindlichen Sensoren mit Farbfiltern davor (Bayes-Pattern), um ein Farbbild aus den Daten zu interpolieren (Außer Sigmas Kameras mit Foveon-Chips).
Wäre es nicht theoretisch möglich, aus den RAW-Files einer Kamera ein hochauflösendes Schwarzweißbild zu berechnen - quasi mit der "tatsächlichen" Chipauflösung, nicht mit der verkleinerten für die Farbbilder?
Das könnte in meinen Augen funktionieren, denn die RAW-Files enthalten ja die tatsächlichen Sensorinformationen.
Gibt es so ein Programm schon, oder ist das doch nicht möglich? Ich fände es interessant, weil man so zu mehr Schärfe käme. Und wieso gibt es eigentlich keine Schwarzweiß-Digitalkameras? Technisch gesehen wäre das doch gar kein Problem, man müsste nur die Farbfilter weglassen am Sensor.
Digitalkameras benutzen ja alle ein Raster von helligkeitsempfindlichen Sensoren mit Farbfiltern davor (Bayes-Pattern), um ein Farbbild aus den Daten zu interpolieren (Außer Sigmas Kameras mit Foveon-Chips).
Wäre es nicht theoretisch möglich, aus den RAW-Files einer Kamera ein hochauflösendes Schwarzweißbild zu berechnen - quasi mit der "tatsächlichen" Chipauflösung, nicht mit der verkleinerten für die Farbbilder?
Das könnte in meinen Augen funktionieren, denn die RAW-Files enthalten ja die tatsächlichen Sensorinformationen.
Gibt es so ein Programm schon, oder ist das doch nicht möglich? Ich fände es interessant, weil man so zu mehr Schärfe käme. Und wieso gibt es eigentlich keine Schwarzweiß-Digitalkameras? Technisch gesehen wäre das doch gar kein Problem, man müsste nur die Farbfilter weglassen am Sensor.