• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Warum gibt es den Weißabgleich?

King_Rollo

Themenersteller
Hallo zusammen,

eine Frage geistert mir seit einiger Zeit durch den Kopf: warum gibt es den Weißabgleich? Bzw. warum ist dieser scheinbar immer aktiv?

Zugegeben, ich habe bisher nur mit verschiedenstens Kompaktkameras herumhantiert, aber alles Digicams, die ich bisher gesehen habe, hatten immer einen Weißabgleich aktiviert (meistens auf AUTO-Funktion).

Aber warum ist das so? Schließlich definiert sich farbiges Licht ja durch bestimmte Wellenlängen. Sprich: es sind absolute Werte. Warum gibt es also nicht die Möglichkeit, den Weißabgleich optional zu aktivieren? Schließlich will ich doch bei einem Foto das Motiv so einfachen, wie ich es sehe, und da verstehe ich nicht, warum noch etwas ab- / angeglichen werden muss.
 
Ich kenne den Wikipedia-Artikel und dadurch weiß ich auch, dass das Gehirn ebenfalls einen Weißabgleich macht.

Das ändert jedoch nichts an der Tatsache, dass Licht in einer bestimmten Farbe immer eine bestimmte Wellenlänge hat. Es müsste doch also möglich sein, das Digicams "physikalisch korrekte" Fotos machen können und nur optional einen Weißabgleich anbieten.
 
Die Kameras machen immer physikalisch korrekte Bilder. Die will nur i.d.R. keiner haben.

Das Hirn macht den Weißabgleich aufgrund des Umgebungslichtes. Dabei wird alles vom gleichen Licht erhellt.

Man betrachtet die Bilder aber meist nicht unter genau diesem Licht, sondern in einer anderen Umgebung mit anderem Licht.

Somit funktioniert die automatische Korrektur im Hirn nicht und die Farben sehen falsch aus.
 
Ich kenne den Wikipedia-Artikel und dadurch weiß ich auch, dass das Gehirn ebenfalls einen Weißabgleich macht.

Das ändert jedoch nichts an der Tatsache, dass Licht in einer bestimmten Farbe immer eine bestimmte Wellenlänge hat. Es müsste doch also möglich sein, das Digicams "physikalisch korrekte" Fotos machen können und nur optional einen Weißabgleich anbieten.

Es geht darum, dass die Kamera den gleichen Weißabgleich macht den auch Dein Gehirn macht und die Bilder deswegen so aussehen, wie Du sie auch gesehen hast. Wenn man das nicht macht, dann werden die meisten Bilder einen mehr oder weniger starken Farbstich haben. Welchen Vorteil soll das bieten?

Wenn Deine Kamera Bilder im RAW-Format (nicht nur Jpeg) machen kann, dann kannst Du einfach im RAW-Converter immer die gleiche Farbtemperatur einstellen.
 
Ich kenne den Wikipedia-Artikel und dadurch weiß ich auch, dass das Gehirn ebenfalls einen Weißabgleich macht.

Das ändert jedoch nichts an der Tatsache, dass Licht in einer bestimmten Farbe immer eine bestimmte Wellenlänge hat. Es müsste doch also möglich sein, das Digicams "physikalisch korrekte" Fotos machen können und nur optional einen Weißabgleich anbieten.

Du vergisst etwas: nicht selbstaendig leuchtende Gegenstaende reflektieren Licht. Farbige Oberflaechen absorbieren dabei einen Teil des Lichtes in einer bestimmten Wellenlaengenverteilung, wodurch dem reflektierten Licht genau dieser Anteil dann fehlt. Dadurch erscheint das reflektierte Licht so, als ob es nur aus den Komplementaerfarbanteilen der absorbierten Farben besteht.

Was ist nun, wenn das zu reflektierende Licht nun von vornherein eine andere Farbverteilung hat?

Das Extrembeispiel ist dann gerne die Natriumdampflampe. Sie leuchtet praktisch nur im gelben Bereich, Deshlab kann man nur erkennen, ob die reflektierende Oberflaeche viel oder wenig gelb absorbiert. Die wirkliche Farbe ist aber nicht erkennbar.

Normale Situationen sind irgendwo dazwischen: Z.B. Normales Tageslicht mit einem mehr oder weniger ausgeglichenen Verhaeltnis von roetlichen und blauen Farben, das Licht der tiefstehenden Sonne mit starken rot-gelben Anteilen, das Licht des blauen Himmels im Schatten, Gluehlampenlicht mit starken roten/gelben Anteilen, oder Gasentladungslampen mit einem mehr oder weniger diskreten Spektrum.

Der Weissabgleich wichtet also die "gemessenen" Farbanteile relativ zur Farbverteilung der Beleuchtung. Physikalisch korrekt geht das so: Man macht eine Messung des Lichts ohne das absorbierende Material und dann eine Messung mit. Dann bestimmt man aus dem Verhaeltnis der wellenlaengenabhaengingen Intensitaeten das Absorptionsspektrum. So arbeitet jedes UV/Vis-Spektrometer.

Hier erkennt man: es gibt kein "wie es wirklich war" oder "wie ich es gesehen habe". Das letzte klingt zwar unlogisch, aber mach dir eines klar: den Weissabgleich des Gehirns kann man auch "austricksen". Schau mal fuer ein paar Minuten mit geschlossenen Augen in eine Rotlichtlampe. Wie sieht die Welt danach aus? So wie sie "wirklich ist"?
 
Zuletzt bearbeitet:
Hier erkennt man: es gibt kein "wie es wirklich war" oder "wie ich es gesehen habe". Das letzte klingt zwar unlogisch, aber mach dir eines klar: den Weissabgleich des Gehirns kann man auch "austricksen". Schau mal fuer ein paar Minuten mit geschlossenen Augen in eine Rotlichtlampe. Wie sieht die Welt danach aus? So wie sie "wirklich ist"?

Der *Sinn* des Weißabgleichs ist es, die Bilder so zu färben, wie man sie gesehen hat. Dass das nicht immer funktioniert ist lediglich eine Unzulänglichkeit der Technik.
 
Die Kameras machen immer physikalisch korrekte Bilder. Die will nur i.d.R. keiner haben.
Und auf welchen Wert stellst du dabei den Weißabgleich, um das wieder physikalisch korrekt (wenn auch ungewünscht) darzustellen?
Farbige Oberflaechen absorbieren dabei einen Teil des Lichtes in einer bestimmten Wellenlaengenverteilung, wodurch dem reflektierten Licht genau dieser Anteil dann fehlt. Dadurch erscheint das reflektierte Licht so, als ob es nur aus den Komplementaerfarbanteilen der absorbierten Farben besteht.
Wie bringst du also die Kamera dazu, das, was sie einfängt (was du da gerade beschreibst) auch wieder so im Foto anzuzeigen?

Ich finde, die Frage des TE hat durchaus ihre Berechtigung und wurde meines Erachtens noch nicht explizit geklärt. Er hat die Frage ja deutlich formuliert:
Das ändert jedoch nichts an der Tatsache, dass Licht in einer bestimmten Farbe immer eine bestimmte Wellenlänge hat. Es müsste doch also möglich sein, das Digicams "physikalisch korrekte" Fotos machen können und nur optional einen Weißabgleich anbieten.
Ein Weißabgleich "verschiebt" immer irgendetwas um damit der Verschiebung des Gehirns nachzukommen. Beim Weißabgleich kann man (bei "besseren" Kameras) eine Skala von x bis y Kelvin einstellen. Nichts davon ist aber ein aboluter "Nullwert" oder "neutral". Ich meine: Wenn man eine Graukarte hat (neutrales Grau) und diese anschaut, wird sie immer neutralgrau erscheinen - egal unter welchem Licht - weil das Gehirn einen Weißabgleich macht. Das gleiche soll man ja mit der Kamera machen, um z.B. die Reflexion von gelblastigem Licht rauszufiltern. Im Sinne der Frage des TEs ist nun aber: Wie stelle ich die Kamera ein, damit sie mir eben diese Gelblastigkeit des Lichtes per Foto nachweist. Das Licht ist ja da gewesen und die Kamera hat es so eingefangen. Wie kriege ich das also in den Fotos dargestellt?

Ich kenne die richtige Antwort übrigens nicht, aber vielleicht hat UnclePat ein entscheidendes Stichwort genannt:
Z.B. Normales Tageslicht mit einem mehr oder weniger ausgeglichenen Verhaeltnis von roetlichen und blauen Farben
Vielleicht muss man den Weißabgleich auf Tageslicht stellen, damit die Kamera das eingefangende Licht "physikalisch korrekt" wiedergibt, indem sie keinen Farbbereich (rot/blau....) betont, also künstlich verstärkt. (??)
 
Vielleicht muss man den Weißabgleich auf Tageslicht stellen, damit die Kamera das eingefangende Licht "physikalisch korrekt" wiedergibt, indem sie keinen Farbbereich (rot/blau....) betont, also künstlich verstärkt. (??)

Jein.
Letztendlich ist auch die Sonne eine "kuenstliche" Lichtquelle - mit all ihren Charakteristiken.

Farben "physikalisch korrekt" darzustellen geht also nur in Abwesenheit saemtlicher Lichtquellen - und damit ists einfach ein schwarzes Frame ;)
 
Ja, aber die Frage ist doch nicht nach den Eigenfarben der Gegenstände, die man "physikalisch korrekt" darstellen will, sondern nach den Farben sämtlichen Lichts, das diese Gegenstände reflektieren - inklusive beispielsweise den von dir genannten "Charakteristiken" der Sonne. :) ...einfach das, was auf den Sensor trifft.
 
Also so wie ich den TO verstehe, will er einfach nur ein Bild komplett ohne Weißabgleich haben. Selbst, wenn man ein RAW-Bild schießt, hat man ja immer irgendeine Farbtemperatur eingestellt, ob man eben will, oder nicht.
 
Mit dem Weißabgleich gibt man an, welche "Farbe" das menschliche Auge während der Aufnahme als weiß angesehen hat. Da das menschliche Auge immer einen "Farbe" als weiß ansieht, muss man diese Angabe zwingend machen um die Sensordaten für das Auge aufbereiten zu können. Man kann also prinzipell kein Bild "ohne Weißabgleich" wiedergeben.

Natürlich könnte man ein Bild mit einem Spektrometer aufnehmen, d.h. für jeden Pixel genau speichern, welche Wellenlängen in welchen Anteilen ankamen. Das Ergebnis könnte man sich als Tabelle ausgeben lassen. In diesem Fall hätte man keinen Weißabgleich gemacht, hätte aber auch kein Bild, das man mit dem Auge betrachten kann. Würde man nun diese Tabelle in ein betrachtbares Bild umwandeln wollen, so müsste man festlegen, welche Kombination von Wellenlängen das Weiß des Monitors ergeben soll. Und genau da hätte man den Weißabgleich wieder drin.
 
Natürlich könnte man ein Bild mit einem Spektrometer aufnehmen, d.h. für jeden Pixel genau speichern, welche Wellenlängen in welchen Anteilen ankamen. Das Ergebnis könnte man sich als Tabelle ausgeben lassen. In diesem Fall hätte man keinen Weißabgleich gemacht, hätte aber auch kein Bild, das man mit dem Auge betrachten kann. Würde man nun diese Tabelle in ein betrachtbares Bild umwandeln wollen, so müsste man festlegen, welche Kombination von Wellenlängen das Weiß des Monitors ergeben soll. Und genau da hätte man den Weißabgleich wieder drin.
Ich finde, jetzt kommen wir der Sache schon sehr nah. :) Angenommen, man könnten den Schritt mit der Festlegung der Kombination für das Monitor-Weiß überspringen, indem der Monitor (meinetwegen kein gewöhnlicher) die von der Tabelle vorgegebenen Wellenlängen einfach exakt reproduziert? Was wäre dann? Ich meine, ich kann dem Monitor auch sagen, dass Rot eigentlich Grau sei. Das geht ja quasi im RAW-Konverter auch. Aber das wäre ja irgendwo auch eine "Verfälschung". Wir wollen aber sozusagen das Licht 1:1 in einer Kiste einfangen und woanders wieder rauslassen - ohne irgendetwas daran zu machen. Ich habe es noch nicht ganz raus... :o
 
Na zumindest müßte jeder Sensor eine "native Farbtemperatur" haben, nämlich dann, wenn R, G, und B gleich gewichtet werden.

Die stattfindende Gewichtung sollte ja der Weißabgleich sein.

Wobei das natürlich mit "physikalisch korrekter Farbwiedergabe" auch nicht viel zu tun hat.....

Gruß messi
 
Wenn R, G, und B gleich gewichtet werden; .... haben wir "reines Weiß", weil sich alle Farben gegenseitig aufheben,
und eine Farbtemperatur in der Gegend von 5500 bis 6000 ° Kelvin , je nach Standpunkt des Betrachters.

Wenn wir die Kamera also zum Beispiel auf ca. 5500°K ( weil wir 5500° als reines Weiß definiert haben ) einstellen,
stellt die Kamera alle Farben so dar, wie sie in der Natur real auf Grund der Wellenlänge des Lichtes erscheinen.

5500° erscheinen dann wie im richtigen Leben als weiß, 3500° erscheinen rötlich-gelb (Glühlampenlicht im Zimmer) und 10.000° bläulich (in der Mittagssonne).

Zu analogen Zeiten waren die meisten Filme auf ca. 5500°K (Tageslicht) "eingestellt"; .... was dann zu rötlichen Bildern in beleuchteten Räumen führte.
Dafür gab es aber auch Filme mit einem "Weißabgleich" : die "Kunstlichtfilm" genannten Filme waren meist auf ca. 3500°K eingestellt und stellten das rötliche Glühlampenlicht weiß dar.

Da ich über 25 Jahre "analog" fotografiert habe, habe ich mich an die "richtige" Dartellung der Farben gewöhnt: Glühlampenlicht ist rötlich-gelb!
Aber langsam gewöhne ich mich auch an die digitale "Falschfarbenfotografie", in der das rötlichgelbe Glühlampenlicht völlig falsch als weiß dargestellt wird.

Manfred
 
Wenn R, G, und B gleich gewichtet werden; .... haben wir "reines Weiß", weil sich alle Farben gegenseitig aufheben,
und eine Farbtemperatur in der Gegend von 5500 bis 6000 ° Kelvin , je nach Standpunkt des Betrachters.
....
Manfred

Solange wir z.B. nicht wissen, welche Dichte und spektrale Durchlässigkeit die "aufgedampften" Filter auf den Pixeln haben, halte ich diese Schlußfolgerung für unzulässig.

Gruß messi
 
Natives Weiß ist Weiß ; .....

und wenn dieses native Weiß mit einer Kameraeinstellung auf 5500°K später als reines Weiß auf dem Bildschirm oder auf einem Abzug erscheint ......

interessiert es (mich) einen Schxxxx, " welche Dichte und spektrale Durchlässigkeit die "aufgedampften" Filter auf den Pixeln haben" .

Um im Endergebnis das reine native Weiß als reines Weiß wiedergeben zu können, müssen Dichte und spektrale Durchlässigkeit der "aufgedampften" Filter auf den Pixeln im Zusammenhang mit den elektrischen Eigenschaften der Pixel und der verarbeitenden Software so konzipiert sein, dass eben das "reine Weiß" ausgegeben wird.

Und so lange hier keine Aussage darüber getroffen wird, welchen Einfluss der Energiefluss der Elektonen zum Auslesen der Informationen aus dem Sensor auf die Verarbeitung der verschiedenen Wellenlängen des Lichtes und die Kompensation der abweichenden Energiehehalte der verschiedenen Wellenlängen des Lichtes hat ......



ist das hier alles unzulässig :top::top::top:


:D:D:D:D
Manfred
 
Wenn R, G, und B gleich gewichtet werden; ....

Was genau bedeutet gleich gewichtet? Der Anzahl der Photonen nach? Oder der Gesamtenergie nach? Oder dem menschlichen Helligkeitsempfinden nach?

weil sich alle Farben gegenseitig aufheben,

Was bedeutet sich gegenseitig aufheben?

und eine Farbtemperatur in der Gegend von 5500 bis 6000 ° Kelvin

Warum gerade diese Temperatur?

wie sie in der Natur real auf Grund der Wellenlänge des Lichtes erscheinen.

Welches Lichtes? Des der Sonne oder des der Objekte? Und du weißt schon, dass all dieses Licht nicht nur aus einer einzigen Wellenlänge besteht?

5500° erscheinen dann wie im richtigen Leben als weiß, 3500° erscheinen rötlich-gelb (Glühlampenlicht im Zimmer) und 10.000° bläulich (in der Mittagssonne).

In meinem Zimmer habe ich momentan eine Glühbirne brennen, diese erscheint mir als rein Weiß. Willst du damit sagen, das wäre nicht mein richtiges Leben?

Da ich über 25 Jahre "analog" fotografiert habe, habe ich mich an die "richtige" Dartellung der Farben gewöhnt: Glühlampenlicht ist rötlich-gelb!
Aber langsam gewöhne ich mich auch an die digitale "Falschfarbenfotografie", in der das rötlichgelbe Glühlampenlicht völlig falsch als weiß dargestellt wird.

Vielleicht hast du ja auch 25 Jahre Falschfarben fotografiert? Den Witz mit dem Geisterfahrer kennst du? (Einer? Ganz viele!)
 
Was genau bedeutet gleich gewichtet? Der Anzahl der Photonen nach? Oder der Gesamtenergie nach? Oder dem menschlichen Helligkeitsempfinden nach?

!)

Nun, einen weißen (resp. neutralgrauen) Körper können wir ja definieren: Er muß diffus das gleiche Farbspektrum reflektieren, wie auf ihn fällt. Ein wenig dämpfen darf er, dann ists halt grau, aber nicht verschieben (etwa durch Absorbtion bestimmter Bereiche)

Diesen Körper abgebildet in der Bilddatei können wir auch als weiß (grau) definieren, nämlich dann, wenn R,G und B den gleichen Wert haben.

Gleich gewichtet bedeutet für mich, daß alle Pixel auf dem Weg zur RGB-Datei die identische Behandlung (insbesondere Signal-Verstärkung) erfahren.

So, und nun verändern wir bei dem Aufnahmelicht die Farbtemperatur so lange, bis unser weißer Körber in der RGB-Datei auch weiß oder neutral ist.

Die jetzt der Lichtquelle entsprechende Farbtemperatur wäre die native des Sensors.

Gruß messi
 
WERBUNG
Zurück
Oben Unten