Knix mit icks
Themenersteller
Guten Tag,
ich habe eine Frage bezüglich dem Entfernen der Vignettierung in einem live Bild. Was ich genau mit live Bild meine ist folgendes:
Ich habe für meine Kamera (Raspberry Pi Kamera) einen automatischen Weißabgleich selbst geschrieben. Je nach Helligkeit (meistens abhängig von der Tageszeit und Sonneneinstrahlung) wird hier die Blau und Rot Werte aus dem RGB Bereich so angepasst, dass ein ausgewogenes Verhältnis zwischen allen drei Farben entsteht.
Das klappt soweit prima, funktioniert sogar noch viel besser, wenn ich statt RGB die YUV Werte für den Weißabgleich nehme. Die YUV Werte konvertiere ich natürlich vorher in RGB.
Leider hab ich momentan Schwierigkeiten die Vignettierung von der Kamera zu kalibrieren, oder wie auch immer man das nennt
Das Problem der ist hier ja eigentlich, dass der Y Wert, welcher den Helligkeitsgrad der Farbe bestimmt nicht über das ganze Bild hin gleich ist. (so meine Vermutung, bitte korrigiert mich, wenn ich da falsch liegen sollte)
Ich habe mal gelesen, dass man die Vignettierung demensprechend entfernen kann, indem man ein weißes Blatt Papier fotografiert und dieses invertiert, so würde man die Vignettierung der Kamera sehen.
In Photoshop kann man diesen nun ganz leicht entfernen, indem man auf dem invertieren Bild das Original Bild (möglichst beide gleich groß) legt und da bestimmte Einstellungen vornimmt.
Nun meine Frage, welche genauen Einstellungen sind dies? Wie kann ich diese Einstellungen auch ohne Photoshop ausführen? Ich würde gerne wissen, was da im Hintergrund passiert, da ich dementsprechend mein Python Script anpassen möchte.
Indem ich den Y-Wert aus dem YUV Bild auf einen Wert setzte (also quasi den Mittelwert aus allen Y-Werten eines Bildes bilde) ist die Vignettierung immer noch zu sehen, also denke ich, dass ich da ein grundlegendes Verständnisproblem diesgebzüglich hab.
Vielen Dank für eure Geduld und hoffe bald auf hilfreiche Antworten
LG Knix mit icks
ich habe eine Frage bezüglich dem Entfernen der Vignettierung in einem live Bild. Was ich genau mit live Bild meine ist folgendes:
Ich habe für meine Kamera (Raspberry Pi Kamera) einen automatischen Weißabgleich selbst geschrieben. Je nach Helligkeit (meistens abhängig von der Tageszeit und Sonneneinstrahlung) wird hier die Blau und Rot Werte aus dem RGB Bereich so angepasst, dass ein ausgewogenes Verhältnis zwischen allen drei Farben entsteht.
Das klappt soweit prima, funktioniert sogar noch viel besser, wenn ich statt RGB die YUV Werte für den Weißabgleich nehme. Die YUV Werte konvertiere ich natürlich vorher in RGB.
Leider hab ich momentan Schwierigkeiten die Vignettierung von der Kamera zu kalibrieren, oder wie auch immer man das nennt

Das Problem der ist hier ja eigentlich, dass der Y Wert, welcher den Helligkeitsgrad der Farbe bestimmt nicht über das ganze Bild hin gleich ist. (so meine Vermutung, bitte korrigiert mich, wenn ich da falsch liegen sollte)
Ich habe mal gelesen, dass man die Vignettierung demensprechend entfernen kann, indem man ein weißes Blatt Papier fotografiert und dieses invertiert, so würde man die Vignettierung der Kamera sehen.
In Photoshop kann man diesen nun ganz leicht entfernen, indem man auf dem invertieren Bild das Original Bild (möglichst beide gleich groß) legt und da bestimmte Einstellungen vornimmt.
Nun meine Frage, welche genauen Einstellungen sind dies? Wie kann ich diese Einstellungen auch ohne Photoshop ausführen? Ich würde gerne wissen, was da im Hintergrund passiert, da ich dementsprechend mein Python Script anpassen möchte.
Indem ich den Y-Wert aus dem YUV Bild auf einen Wert setzte (also quasi den Mittelwert aus allen Y-Werten eines Bildes bilde) ist die Vignettierung immer noch zu sehen, also denke ich, dass ich da ein grundlegendes Verständnisproblem diesgebzüglich hab.
Vielen Dank für eure Geduld und hoffe bald auf hilfreiche Antworten

LG Knix mit icks
Zuletzt bearbeitet: