Kann mir jemand erklären, wie die Kamera bei der Weißabgleichsautomatik vorgeht?
Grundsätzlich erst einmal genau so, wie Tiefenunschärfe schreibt: Der Sensor nimmt an verschiedenen Stellen die Farbwerte der Kanäle rot, grün, blau und setzt Korrekturfaktoren so, dass das Mittel der jeweiligen Kanäle mit diesem Faktor multipliziert etwa gleich ist (neutralgrau). Ob dazu das ganze Bild ausgewertet wird oder einzelne Bereiche stärker gewichtet werden, ob die Korrekturfaktoren einfach nur auf neutralgrau oder sonst wie getrimmt werden usw. ist - wie ebenfalls schon geschrieben - Geheimnis der Hersteller.
Ich würde das gerne nachvollziehen können, warum der Weißabgleich manchesmal so gar daneben liegt.
Weil der Sensor andere Absorptionskurven als das menschliche Auge hat und die menschliche Wahrnehmungsphysiologie selbst innerhalb einer einzigen Lichtsituation je nach betrachtetem Motiv und dessen Umfeld den Weißabgleich anpasst.
Anbei 2 Beispiele: Bild 1 ist so, wie das Bild aus der Kamera kommt (mit DxO Optics pro entwickelt und in Photoshop verkleinert), beim Bild 2 hab ich dann zusätzlich beim Weißabgleich Hand angelegt.
Und schon sind wir beim Faktor Subjektivität, der dabei auch nicht zu vernachlässigen ist. Du findest offensichtlich #2 "besser" (sonst hättest du nicht so korrigiert), aber #1 scheint mir "realistischer". Und da kommen wir zur ebenfalls bereits gestellten Frage, woher die Kamera wissen soll, was du möchtest.
Siehe die angefügten Bilder: im ersten Bild scheint es doch hauptsächlich Farbtöne von Rot bis Gelb zu geben, in meiner Bearbeitung sieht es schon deutlich besser und stimmiger aus (jedenfalls aus meiner Erinnerung heraus).
Siehst du: wieder Subjektivität der Wahrnehmung. Nicht mal zwischen verschiedenen Menschen einheitlich, so also selbst für eine künstliche Intelligenz nicht zu knacken.
Das Bärenfoto beweist, dass es auch bei breitbandigem Tageslicht nicht klappt.
Die Aussage von Steffen Rentsch stimmt schon. Ursache sind die bereits genannten verschiedenen Absorptionsspektren. Aufgrund des gleichmäßigeren Spektrums des Tageslichts ist dort das Problem seltener, bei Kunstlicht ein Danebenliegen aber quasi zwangsläufig.
Was verstehst Du unter "stark unter- oder überbelichtet"? Weißer Schnee ist aus der Kamerasicht sicherlich überbelichtet, wenn er am Bild weiß dargestellt ist - und eine schwarze Dampflokomotive unterbelichtet, wenn sie schwarz dargestellt ist. Rein faktisch betrachtet wären dann beide korrekt belichtet.
Ein korrektes Histogramm hat mit dem Weißabgleich nichts zu tun. Sind die Werte im RAW zu niedrig, sind die Korrekturfaktoren zu ungenau bis nicht mehr ermittelbar (Division durch 0). Sind die Werte im RAW zu hoch (aufgrund der Absorptionskurven ist ein Weiß in der EBV im Sensor noch
kein "Weiß"), werden einzelne Kanäle früher als andere oder gar alle auf den maximal speicherbaren Zahlenwert begrenzt und dadurch die Korrekturfaktoren ebenfalls verfälscht. Auch hier stimmt also das von Steffen Rentsch geschriebene.
An diesem Tag war nicht annähernd ein blaues Stück Himmel zu sehen,
Das ist völlig egal. Die Rayleigh-Streuung macht Tageslicht blau und hat nichts mit "wolkenfrei" zu tun. Eine Wolkendecke bewirkt nur, dass die Polarisation, mit der wir das gestreute Blau senkrecht zur Sonne filtern könnten, verloren geht und der Polfilter wirkungslos wird. Da mit Wolkendecke kein direktes Sonnenlicht, welches den höheren Blauanteil ausgleichen könnte, mehr durchkommt, ist Licht bei bewölktem Himmel genauso wie im Schatten eher bläulich. Die Wolkendecke erschien dir nur "weiß", weil dein Auge sich der Lichtfarbe angepasst und keine helleren Referenzen hatte. Der Weißabgleich "bewölkt" färbt ein Bild nicht ohne Grund wärmer.
von einer Automatik erwarte ich, dass dies erkannt wird und in der Kamera das Selbe statt findet wie in meinem Kopf:
Lies dir den Satz nochmal durch. Von einer Automatik Denken erwarten, und dann noch subjektives?
dass auftretende Spitzen in machen Farbbereichen im Licht heruntergeregelt werden. Aber offensichtlich ist man da noch nicht ganz so weit.
Die Annahme, dass immer die anderen dumm sind, ist sicherlich einfach - aber oft falsch. Begründung siehe oben. Und Spitzlichter haben auch nicht direkt etwas mit Weißabgleich zu tun.
Mir ist selbst auch bewusst, dass ich in dieser Situation wohl besser dran gewesen wäre, hätte ich einen der anderen Weißabgleichsautomatiken gesetzt. Oder noch besser wäre ich wohl gefahren, wenn ich eine Farbmessung vorgenommen hätte (beispielsweise eine neutralgraue Graukarte abfotografieren und diesen Wert als Weißabgleich nehmen).
Hätte nur insofern mehr geholfen, als dass du eine Kontrolle gehabt hättest, welche Stelle des Bildes für den Weißabgleich herangezogen wird und du Metamerieeffekte vermeidest. Aber da sind wir wieder bei der Frage: Welche Stelle des Motivs entscheidet denn nun über den Weißabgleich? Du stehst mitten auf der nächtlichen Straße - in die eine Richtung rote Ampel, in die andere grün. Trotzdem erkennst du beide Male den Mittelstreifen als weiß...
Braun ist nichts anderes als ein sehr dunkles Gelb.
Braun ist viel zu ungenau definiert; deine pauschale Behauptung trifft es also auch nicht. Wusstest du eigentlich, dass es regional für "gleiche" Farbbereiche unterschiedlich viele Wörter für deren Nuancen gibt? Verdammte subjektive Farbwahrnehmung.
im Moment sind meine Monitore (noch) nicht kalibriert
Das solltest du nachholen, denn angesichts der subjektiven Farbwahrnehmung und unterschiedlicher Monitore ist das das einzige, was das Problem
etwas entschärft.