• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Könnte eine Kamera irgendwie schwarz von weiss unterscheiden?

  • Themenersteller Themenersteller Gast_308519
  • Erstellt am Erstellt am
Doch, ziemlich oft - wozu die Frage oder was ist deine Intention?

Ich wollte nur sehen, vor welchem Hintergrund du Fragwürdiges tippselst. Aber scheinbar glaubst du das ja alles selbst und ich habe leider zu tun … Alle anderen können sich das richtige Messen von Licht ja auch anderweitig anlesen :)
 
Wenn du dann irgendwann mal wieder Zeit hast, kannst du uns ja mal mitteilen wie du, unter Berücksichtigung der Fragestellung hier, aus der Entfernung messen willst - Lichtmessung ist da ja ausgeschlossen. Ich lerne gerne dazu, wenn du mich durch die Blume schon beleidigen willst, dann liefer wenigstens Fakten und kein blabla
 
Zuletzt bearbeitet:
1. Genau, die Kamera soll schwarz so belichten, dass es schwarz ist und weiß so belichten, dass es weiß ist - macht aber derzeit aus beidem ein neutralgraues Motiv

"Eigentlich" sollte die Kamera so belichten, dass nichts bildwichtiges ausfrisst oder absäuft. Wie hell das dann hinterher auf dem Bild wird, ist eine ganz andere Frage. Wenn die Kamera also einfach erstmal auf "18% grau" belichtet, wäre das in der beschriebenen Situation (ausschließlich Schwarz oder ausschließlich Weiß im Bild), schon mal gar nicht schlecht. Siehe z.B. hier (funktioniert der Link?). Mit heutigen digitalen Kameras ist die Frage eigentlich obsolet, ob eine Kamera für die "korrekte" Belichtung Schwarz und Weiß auseinanderhalten kann.
 
Zuletzt bearbeitet:
Ich verweise auf meine Frage auf dein Statement, das in dieser Formulierung einfach falsch ist. Warum musst du selbst rausfinden :angel:

Erklär es doch einfach, andere wollen vielleicht an deinem großartigem Wissen teilhaben?!

Ich selbst kann mir auch nicht vorstellen wie das geht; misst die Lichtmessung ja das eintreffende und nicht das reflektierende Licht. Wenn ich jetzt allerdings unter einem schattigen Baum oder aus einem dunklen Innenraum heraus eine 30m entfernte weiße Wand im gleißenden Sonnenlicht fotografieren will - wie zum Teufel soll ich das machen ohne hinzulaufen?
 
"Eigentlich" sollte die Kamera so belichten, dass nichts bildwichtiges ausfrisst oder absäuft. Wie hell das dann hinterher auf dem Bild wird, ist eine ganz andere Frage. Wenn die Kamera also einfach erstmal auf "18% grau" belichtet, wäre das in der beschriebenen Situation (ausschließlich Schwarz oder ausschließlich Weiß im Bild), schon mal gar nicht schlecht.

Das ist absolut richtig so. Welche unter mehreren möglichen "richtigen" Belichtungen für den Fotografen die beste ist, kann der Fotograf selbst nach persönlichem Geschmack entscheiden.

Ich gehe dabei mal schlicht davon aus, dass die Intelligenz des Fotografen die der Kamera noch auf absehbare Zeit übertreffen wird.

Zugleich glaube ich, dass die Kamera, die besser weiß, "was der Fotograf will" (als der Fotograf) noch nicht erfunden ist. Und sollte sie jemals erfunden werden, wird sie wohl kaum einer bezahlen können oder wollen.

LG Steffen
 
Ich wundere mich, warum man nicht einfach die Threadfrage beantworten kann in dem Sinne, wie so ganz offensichtlich gemeint ist. Borgefjell und einige andere haben sie schon ganz richtig verstanden.
Es war ja auch wirklich leicht, richtig zu verstehen.

Zum Ausräumen von Zweifeln:

Die Frage sucht nach Lösungsansätzen in Consumerkameras (keine NASA, keine Industrie, keine Wissenschaftstechnik; d.h. alles was man in einem Fotoladen kaufen könnte zwischen iPhone und PhaseOne).

Die Frage sucht nach etwas, was man in der Kamera einbauen kann, im Body und wo der Fotograf sich auch nicht zum Motiv bewegen muss. Kein externes Zubehör. Keine Antennen, die wild hervorragen.

Es muss ein "realitätsnahes" Ergebnis in JPG erzeugen können, ganz ohne jede Nachbearbeitung irgendwo. Wer meint, hier nun eine Diskussion über "realitätsnah" aufmachen zu müssen hat die Frage immer noch nicht verstanden.

Was Kameras heute erzeugen reicht hier hinten und vorne nicht.

Es ist völlig belanglos, ob derlei irgendjemand "braucht" oder "will". Ebenso egal ist es, ob eine andere Herangehensweise "klüger" wäre oder "zum besseren Ergebnis führen" täte. Das hat nämlich mit der Frage nichts zu tun. Mich und andere interessiert die Frage trotzdem.

Als erste einfache Testaufgabe für die hypothetische Kamera:
Onkel Paule sitzt im schattigen und kalten Tarnzelt in der Arktis mit seinem 800mm Tele und knipst als JPG einen hungrigen Eisbären vor dem Gletscher.
Seine bisherigen Kameras versagen und dunkeln den Bären auf ein unansehnliches Grau ab.

Bisher lautet ganz offensichtlich das Fazit weiter unverändert: Es gibt noch keinen Lösungsansatz dafür, einer Kamera hier eine korrektere und zuverlässigere Belichtung zu ermöglichen als den seit Jahren üblichen und regelmäßig falsch abliefernden Kompromiss.
 
Ich wundere mich, warum man nicht einfach die Threadfrage beantworten kann in dem Sinne, wie so ganz offensichtlich gemeint ist. Borgefjell und einige andere haben sie schon ganz richtig verstanden.
Es war ja auch wirklich leicht, richtig zu verstehen.

Hab ich doch versucht

jusifo schrieb:
Grundsätzlich funktioniert ein Sensor in Graustufen. Auch die einzelnen Farbpixel nehmen streng genommen nur Graustufen wahr (Abgeleitete These der ersten Farbfotografien von Gorski) (Wen das ganze interessiert einfach mal googeln oder mich anschreiben hier sprengt es den Rahmen).
Dazu kommt was ist schwarz. Schwarz wäre eine Fläche die ich egal wie lange belichten kann und sie dennnoch bei srg 0 0 0 bleibt. Das einzige menschenbekannte Objekt mit dieser eigenschaften ist ein schwarzes Loch. Auch die Meisten weißtöne sind ein gemischtes grau. Was ist ein echtes weiß? Wieder rgb 360 360 360. Sowohl "schwarz" (also keine Lichtreflexion) alsauch weiß (sämtliches Licht reflektiert) sind in der fotografie meist ausgefressene Lichter oder abgesoffene Tiefen. Desweiteren würde alles Licht nur in einem Reinraum zurückgeworfen werden können. Durch all die Partikel in der Luft wird wieder Licht gebrochen und auch wieder nicht "weißes" zu deiner Kamera geleitet.
Das nur im ganz groben.
Also zwischen echt weiß und echt schwarz werden Kameras wohl niemals unterscheiden brauchen. Jedoch zwischen verschiedenen Graustufen... auch farbigen Graustufen (ich weiß klingt doof und ist kein korrekter Ausdruck beschreibt es aber ganz gut)
 
Onkel Paule sitzt im schattigen und kalten Tarnzelt in der Arktis mit seinem 800mm Tele und knipst als JPG einen hungrigen Eisbären vor dem Gletscher.
Seine bisherigen Kameras versagen und dunkeln den Bären auf ein unansehnliches Grau ab.

Bisher lautet ganz offensichtlich das Fazit weiter unverändert: Es gibt noch keinen Lösungsansatz dafür, einer Kamera hier eine korrektere und zuverlässigere Belichtung zu ermöglichen als den seit Jahren üblichen und regelmäßig falsch abliefernden Kompromiss.

Seine bisherigen Kameras versagen nicht, sofern er mittels der manuellen Belichtungskorrektur seiner Kamera mitteilt, ob das beabsichtigte Fotomotiv heller oder dunkler als das Standardmotiv (18 % Grau) ist.

Dazu ist die manuelle Belichtungskorrektur nämlich da.

LG Steffen
 
Als erste einfache Testaufgabe für die hypothetische Kamera:
Onkel Paule sitzt im schattigen und kalten Tarnzelt in der Arktis mit seinem 800mm Tele und knipst als JPG einen hungrigen Eisbären vor dem Gletscher.
Seine bisherigen Kameras versagen und dunkeln den Bären auf ein unansehnliches Grau ab.
Wenn die Kamera nur das für die Belichtungsmessung berücksichtigt, was sie durch das Objektiv "sieht", dann ist es unmöglich, daraus das Bild zu erzeugen, was der Beobachter "sieht".

Ein weißes Blatt Papier bei wenig Licht sendet physikalisch das gleiche Licht wie ein schwarzes Blatt Papier bei viel Licht – die Information, die bei der Kamera ankommt, wäre die gleiche. Ohne Zusatzinformation kann die Kamera "schwarz" oder "weiß" nicht entscheiden. Das menschliche Sehen bezieht aber jede Menge Vorinformation und Hintergrundwissen mit ein und kann dadurch "weiß" oder "schwarz" unterscheiden.

Wenn du andererseits das graue Eisbär-JPEG aus der Kamera jemandem zeigst, wird derjenige einen weißen Eisbären vor einem weißen Gletscher sehen, weil seine Erfahrung ihm sagt, dass Eisbären und Gletscher weiß sind.

In der Zukunft werden Belichtungsmesser vermutlich immer "intelligenter" werden und möglicherweise erkennen können, dass auf dem Bild z. B. ein Eisbär im Schnee ist und nicht ein Braunbär auf einer grünen Wiese und die Belichtung entsprechend anpassen, aber zumindest ein bisschen Kontext werden sie immer brauchen. Die Matrixmessung der heutigen Kameras arbeitet ja schon in die Richtung, aber meist bei recht geringer Auflösung, eine echte Motiverkennung ist da nicht möglich.

L.G.

Burkhard.
 
Ich wundere mich, warum man nicht einfach die Threadfrage beantworten kann in dem Sinne, wie so ganz offensichtlich gemeint ist. ....
Die Frage sucht nach etwas, was man in der Kamera einbauen kann, .....

Im Prinzip musst Du genau das Einbauen was im menschlichen Körper ist.

Einen Sensor der in der Lage ist eine Blende zu steuern und ein elektronisches Hirn das das so aufgenommene Bild mit dem gleichen menschlichen "Algorithmus" bearbeitet und speichert ;)

Das größte Problem dürfte sein, dass die Kamera selbständig erkennt, dass gerade eine gewisse Lichtsituation herrscht und der Mensch die weiße Wand eigentlich als gräulich wahrnimmt.

Wie kann man der Kamera aber erklären, dass sie einen gewissen Punkt/Bereich im Bild so darstellen soll wie es die Auge-Hirn-Maschinerie machen würde?

Im Grunde müsste man einen Algorithmus einbauen, der der menschlichen Auswertung gleicht und die Bildinformationen aus einem Sensor kommen der den ganzen vorkommenden Dynamikumfang ablichten kann. Ich kann mir auch vorstellen, dass die Kamera gesopeicherte Szenarien vergleicht und diese bei der JPG-Herstellung beachtet.
 
Eisbär braucht die Kamera nicht zu kennen. Ist aber für eine (gescheite) Matrixmessung ein Kinderspiel:

Motivhelligkeit, Farbspektrum, ausgedehnte homogene Fläche, helle Fläche ist auch unten im Bild....erkennt die Kamera: "mit hoher Wahrscheinlichkeit ist es eine Schneelandschaft im Sonnenschein und belichte so, daß diese große Fläche gerade noch zeichnen kann, die reflektierten Spitzlichter werden ignoriert."

Gruß messi
 
Ich verweise auf meine Frage auf dein Statement, das in dieser Formulierung einfach falsch ist. Warum musst du selbst rausfinden :angel:

Entweder du sagst uns mal was daran falsch ist und wie es richtig geht/ist oder du läßt deine blöden Anspielungen. Es geht um eine spezifische Fragestellung von Beholder und um eine spezifische Antwort auf einen Diskussionsbeitrag. Was daran ist falsch? Ansonsten helfen deine Kommentare keinem und sind einfach nur provokativ. Einfach irgendwelche Formulierungen aus dem Zusammenhang reißen und sich dann als großer Meister aufspielen ohne irgendwas konstruktives beizutragen hilft vielleicht deinem Ego, sonst aber niemandem.
 
Ich wundere mich, warum man nicht einfach die Threadfrage beantworten kann in dem Sinne, wie so ganz offensichtlich gemeint ist. Borgefjell und einige andere haben sie schon ganz richtig verstanden. Es war ja auch wirklich leicht, richtig zu verstehen.

Etwas rüde ist der Antritt schon. Zu Deiner Frage:

Kann sich irgendwer vorstellen, wie eine künftige Kamera mal realistisch in der Lage sein könnte, schwarz von weiss zu unterscheiden?

Eine sehr spekulative Frage, deren Sinn und Zweck erst einmal durchdrungen werden muß - mir hat sich das nicht gleich erschlossen, aber das liegt sicherlich an mir. Abgesehen davon: Was ist schwarz und was ist weiß? Nicht nur realistisch, sondern vor allem objektiv! Vielleicht hilft das hier weiter:

https://de.wikipedia.org/wiki/Weiß#Wei.C3.9Fes_Licht

Gemeint ist natürlich ein Szenario, wo nur das eine oder das andere im Bild ist, also entweder eine bildfüllende Aufnahme eines Kohlestücks oder eine bildfüllende Aufnahme eines Schnellballs.

Was bringt Dich zu der Überzeugung, das formatfüllende Kohle objektiv schwarz und formatfüllender Schnee objektiv weiß ist? Wenn von der Kohle überhaupt irgend etwas ankommt, dann bestimmt kein schwarzes Licht. (So funktioniert z.B. die Lichtfalle im SpyderCube). Woher soll ein Sensor wissen, dass der hellste gemessene Wert tatsächlich weisses Licht sein soll?

Aktuelle Kameras/Sensoren können das ja leider überhaupt nicht unterscheiden/erkennen und belichten einfach so, dass graues Zeug rauskommt.

Das enstpricht nicht so ganz dem Stand der Technik. Der menschliche Weißabgleich, also die Chromatische Adaption, ist eine Leistung des Gehirns: Die Interpretation des "Gesehenen" als "Wahrnehmung". D.h.: wir nehmen - bis auf wenige Ausnahmen - weiß nicht als Helligkeit war, sondern als Farbe. Wir wissen, dass Schnee immer weiß ist: Morgens, Mittags und Abends - es sei denn, der Nachbar war mal kurz um die Ecke ;). Bei Kameras kann man sich nur annähnern, indem durch die Software nach "Wahrnehmungs-Erfahrungswerten" gesucht wird, und das sind Helligkeits- und Farbverteilungen, aber keine vollformatigen "Monochromatismen". Sehr hilfreich ist da sicherlich die Gesichtserkennung bei Kameras und die dadurch mögliche Zuordnung zur Hautfarbe - in gewissen Grenzen.

Aber, um es kurz zu machen: Nein, ich kann es mir nicht vorstellen. Selbst wenn Schwarz als Nichtlicht erkannt und vom Sensorrauschen unterschieden werden konnte, heißt das noch lange nicht, dass das andere Extrem deswegen weiß sein muß.
 
Zuletzt bearbeitet:
Bei meiner Kamera ist auf den Bildern Schwarz Schwarz und Weiss Weiss. Kein Problem.
 
Das war ja nicht die Frage, sondern, ob die Kamera weiß und schwarz unterscheiden kann. Und das kann sie.

Im Übrigen ist der Test mit dem schwarzen und weißen Blatt Papier meist das Aha Erlebnis bei meinen Kursen.

Gruß, Uwe
 
In der Zukunft werden Belichtungsmesser vermutlich immer "intelligenter" werden und möglicherweise erkennen können, dass auf dem Bild z. B. ein Eisbär im Schnee ist und nicht ein Braunbär auf einer grünen Wiese und die Belichtung entsprechend anpassen, ...

Nur so kann das funktionieren. Die Kamera wird den Bildinhalt analysieren (wie auch immer, evtl. auch unter Zuhilfenahme von Recherchen aus dem Netz?) und dann automatisch eine Belichtung wählen, die dem menschlichen Seheindruck einer solchen Szene möglichst nahe kommt.
 
.. und dann automatisch eine Belichtung wählen, die dem menschlichen Seheindruck einer solchen Szene möglichst nahe kommt.

Sie sollte eine Bildhelligkeit wählen, die dem Seheindruck nahekommt, belichten sollte sie möglichst so:

"Eigentlich" sollte die Kamera so belichten, dass nichts bildwichtiges ausfrisst oder absäuft. Wie hell das dann hinterher auf dem Bild wird, ist eine ganz andere Frage.....

Bildhelligkeit und Belichtung waren zu analogen Zeiten noch sehr eng miteinander verknüpft, insbesondere bei Dias. Bei Digitalkameras sind sie das "eigentlich" nur noch durch die voreingestellte automatische JGP-Erstellung. Wenn man sich von dieser "analogen Denkweise" verabschiedet, hat man einen erheblich größeren Freiraum zwischen Belichtung und Bildhelligkeit, den man nutzen kann, wenn man möchte und wenn es etwas bringt. In die Bedienlogik der Kameras ist das bisher aber nur sehr begrenzt eingeflossen (bei Nikon wären A-DL und die Belichtungsmessung auf die Lichter erste kleine Ansätze).
 
WERBUNG
Zurück
Oben Unten