• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RGB Belichtungssensoren d800 vs. df - d610

nehmt eine Spiegellose, dann habt ihr über 36MP RGB Sensor-Belichtungsmessung;)

was Belichtung angeht, sind sich die Nikon's ziemlich alles "einig", aber wenn es um AWB geht, dann haben mehr Sensoren immer einen klaren Vorteil...

das kann man selber testen, in dem man ein schwieriges Motiv (was weiss ich ein rotes Auto in Früh-Abendlicht) und nehmt diese ein mal mit Automatik durch OVF und ein mal mit Automatik durch EVF auf, dann kann man den Unterschied deutlich sehen.

viele Grüße

Andreas
 
...letztendlich ist es nat auch ein marketing-gag...
wenn du eine fläche in 2000 punkte aufteilst oder in 90000.. letzteres hört sich besser an.

dann aber kommt es zu einer statistischen auswertung.. und nichts anderes macht die belichtungsmessung. es kommt dazu das das teil ganze punkt-massen wieder zu mittelwerten zusammenfasst. wie "genau" das ganze dann ist.. klar.. je mehr daten desto mehr genauigkeit im ergebnis.. aber bei mittenbetont oder "matrix" sehe ich da kaum rechnerische vorteile...

(also z.b. bei einer glühlampe im feld x sind bei sensor a "5" punkte hell.. bei sensor b dann "225". auf das gesamtergebnis (statistisch) betrachtet .. ist das ergebnis aber absolut das selbe)

So simpel funktioniert der Belichtungsmesssensor der D800?
WOW!
Und ich dachte bis jetzt immer, das sei ein ausgefuchstes System aus Sensormesswerten und komplizierten Auswertungs- Analyse- und Vergleichsalgorithmen.

Man lernt nie aus.
 
Wenn es dir zuwider ist einfach zu schreiben was du meinst, dann lass es in Zukunft doch bitte einfach sein. Ernsthaft, wenn mir etwas zu doof ist schreib ich auch einfach mal nix. Das tut nicht weh.
Der Verweis auf das Handbuchseite und die darin erhaltenen Informationen sowie auf die Prospektseite nebst Text und Schaubild erfolgte um zu informieren.
Wozu sollte ich den Text umformulieren oder vollständig zitieren?

Jede der drei angebotenen Belichtungsmessmethoden macht Sinn, das heißt je nach gewähltem Bildausschnitt und Belichtungsituation wird man eine der drei angebotenen Methoden wählen.
Nikon selbst schlägt eine Methode als Standard vor und gibt für die anderen beiden Beispiele.
Was man dann daraus macht ist eine andere Sache.

Meine Links waren Angebote - mehr nicht.
Mit "zuwider" oder "doof" haben die nun wirklich Nichts zu tun.
 
Zuletzt bearbeitet:
Meine Links waren Angebote...
Ich empfinde deine Links bis jetzt immer als seeehr willkommene Hilfe bzw. Gedankestütze, da ich immer mal wieder Dinge, die ich in grauer Vorzeit gelernt habe, vergesse oder nicht mehr parat habe.
Aber wie auch im NichtForumLeben gibt es auch hier Leute, die jede Aussage als Angriff sehen. Sehr schade...
Danke für den interessanten Link, Michael. :top:
 
Zuletzt bearbeitet von einem Moderator:
So simpel funktioniert der Belichtungsmesssensor der D800?
WOW!
Und ich dachte bis jetzt immer, das sei ein ausgefuchstes System aus Sensormesswerten und komplizierten Auswertungs- Analyse- und Vergleichsalgorithmen.

Man lernt nie aus.

Was die Belichtung selbst angeht wird Marcus recht haben. Die vielen Pixel sollten ihre Stärken dann eher beim Erkennen von Motiven, also dem Tracking (3D-AF) oder Gesichtserkennung ausspielen können.
 
Ich kenne Df und D6x0 nicht, aber beim Wechsel von der D700 zur D800 ist mir durchaus aufgefallen, dass die D800 sauberer arbeitet mit der Matrixmessung, und das sowohl was die Belichtung angeht als auch was den automatischen Weissabgleich angeht. Das heist nicht, dass sie perfekt arbeitet, aber eben subjektiv betrachtet besser. Ob das an dem 91k Sensor liegt oder an was anderem, keine Ahnung.
 
So simpel funktioniert der Belichtungsmesssensor der D800?
WOW!
Und ich dachte bis jetzt immer, das sei ein ausgefuchstes System aus Sensormesswerten und komplizierten Auswertungs- Analyse- und Vergleichsalgorithmen.

Man lernt nie aus.

naja was heißt "simpel".. da ist schon ein ziemlicher aufwand dahinter.. aber letztendlich ist es eine statistische auswertung..
ist ja auch nicht so das da wirklich 1000de fotos "hinterlegt" sind sondern letztendlich die statistischen auswertungen der bilder.. insofern ist das schon ausgefuchst und bestimmt nicht "simpel".. aber die datengrundlage ist halt die selbe.. nur die datenwerte sollten genauer sein bei dem gr. sensor.

inwieweit das jetzt jedoch einen "unterschied" in der belichtung macht.. das sehe ich halt ab einem gewissen wert nicht mehr soooo sehr (klar.. 9 werte oder 1000 sollte einen unterschied darstellen) .. irgendwann ist das ergebnis halt nur noch in nachkommastellen unterschiedlich...

finde das schon sehr beeindruckend was da letztendlich geht und berücksichtigt wird.. aber man soll nicht glauben das in der einen kamera eine diode.. und in der anderen eine voodooo-maschine eingebaut ist.. das ähnelt sich heutzutage schon alles sehr.
 
ist ja auch nicht so das da wirklich 1000de fotos "hinterlegt" sind sondern letztendlich die statistischen auswertungen der bilder..

Wer sagt eigentlich daß da "statistische auswertungen der bilder" hinterlegt sind? Ich schätze eher daß es schlicht typische Helligkeits- und/oder Farbverteilungsmuster sind.

Weiß jemand Genaueres?
 
Ich schätze eher daß es schlicht typische Helligkeits- und/oder Farbverteilungsmuster sind.
Und was sind das anderes als extrahierte Merkmale aus als "gut belichtet" empfundenen Beispielaufnahmen?

Daß nicht wirklich Bilder zum Vergleich herangezogen werden, darüber sind wir uns sicher einig. Ebensowenig werden die 2000 oder 91000 Einzelmesswerte des Matrixbelichtungssensors jeder für sich verglichen. Sondern die (als zufällig angenommenen) Messwerte werden zu (relativ wenigen) Merkmalen verdichtet und diese mit den gleichen Merkmalen aus den der Kamera bekannten Belichtungssituationen verglichen. Dann wird die geeignetste Situation als Massstab genommen und damit die "richtige" Belichtung ermittelt. So habe ich das jedenfalls verstanden.

Das ist schon eine statistische Vorgehensweise.
 
Wer sagt eigentlich daß da "statistische auswertungen der bilder" hinterlegt sind? Ich schätze eher daß es schlicht typische Helligkeits- und/oder Farbverteilungsmuster sind.

Weiß jemand Genaueres?

ja genau.. nur um das ganze quasi vergleichbar zu machen.. muss es ja in irgend einer form digital rechnerisch verwertbar sein.. du kannst ja schlecht sagen.. oben links koordinate xy heller fleck.. dann dunkler fleck usw..

das ganze ist rechnerisch erfasst und wird dann mit einer datenbank die ähnliche verteilungsmuster hat abgeglichen.. aber dabei kann/darf es ja keine rolle spielen wo welcher punkt ist.. sonst würde das ganze alles viel zu lange dauern...
 
Wer sagt eigentlich daß da "statistische auswertungen der bilder" hinterlegt sind? Ich schätze eher daß es schlicht typische Helligkeits- und/oder Farbverteilungsmuster sind.
Nun, Nikon sagt
The meter then accesses a database of over 30,000 actual images to determine the best exposure for the scene.
Wobei ich persönlich nicht wirklich glaube, dass sie da 30000 Bilder in jeder Kamera hinterlegt haben, ein vernünftiger und handhabbarer Ansatz wäre ein künstliches neuronales Netz.
 
Wer sagt eigentlich daß da "statistische auswertungen der bilder" hinterlegt sind? Ich schätze eher daß es schlicht typische Helligkeits- und/oder Farbverteilungsmuster sind.

Weiß jemand Genaueres?

Ja, Nikon.

Die schreiben ja, das sie aufgrund der hohen Auflösung z.B. Gesichter erkennen und die Belichtung bewusst auf diesen Bereich optimieren können, ebenso wie die Auswahl des AF Feldes, wenn das der Automatik überlassen ist.

http://www.nikon.com/news/2012/0207_dslr_01.htm
 
Ja ich bin generell positiv angetan, wie gut die Bilder werden, selbst wenn man auf das grüne 4eck dreht. Also man hat ein schlechtes Gewissen, wenn man die Vollautomatik nutzt (deswegen mache ich es selten :D), weil man dann kein echter Fotograf mehr ist;) Eine aktuelle Nikon kann aber die Lichtstimmung gut einfangen und auch Gesichter schwerer Gewichten, als einen ausgefressenen Himmel oder gleich mit blitzen. Am ehesten liegt sie mir einer zu langen Belichtungszeit daneben, aber sonst:top:
 
Für die Df Handbuch Seite 75:
Zitat:
Die Spotmessung stellt sicher, dass das Motiv auch dann korrekt belichtet wird, wenn der Hintergrund sehr viel heller oder dunkler als das Motiv ist.

Also eine Messung für bestimmte Sonderfälle.
...

Sowas steht im Handbuch? ist ja falsch, die Aussage!
Die Spotmessung stellt sicher, dass das gewählte Motiv in der "Normhelligkeit" erscheint. Da die Messzelle nicht wissen kann, ob das Motiv hell oder dunkel ist / sein soll, ist in vielen Fällen erst mal nicht korrekt belichtet.
Der Fotograf weiß (hoffentlich) mehr über das Motiv und wählt die entsprechende Korrektur.
 
Die Aussage ist vollkommen korrekt. Es geht im Handbuch um das Motiv, nicht um das gesamte Bild, das korrekt belichtet werden soll. Und wenn das Motiv nicht dem Normwert entsprechen soll, dann muss der Fotograf eben eingreifen.
 
naja was heißt "simpel".. da ist schon ein ziemlicher aufwand dahinter..

finde das schon sehr beeindruckend was da letztendlich geht und berücksichtigt wird..

Hm, also erst schreibst du ...letztendlich ist es nat auch ein marketing-gag...
und jetzt das. - Was denn jetzt?

Beim weiterlesen des Threads bis hierhin hab ich mittlerweile den Eindruck, dass hier viele mutmaßen aber keiner weiß,
wie der Belichtungsmesssensor der D800 wirklich und konkret funktioniert.

D.h. für mich, ich kann den Thread auch komplett vergessen.
Kaffeesatzleserei ist für mich nicht so spannend.
Frust.
 
Hm, also erst schreibst du ...letztendlich ist es nat auch ein marketing-gag...
und jetzt das. - Was denn jetzt?
.....
Frust.

dafür hast du doch aber ganz gut durchgehalten! ;) aber wieso "frust"!? lebt ein forum nicht dadurch das meinungen aufeinander prallen und man sich somit austauscht?!

folgendes meinte ich in bezug auf die belichtungsmessung..

du bestimmst ein ergebnis aus z.b. 9 werten.. ok.. dann kommst du zu einem ergebnis.. gut. auf die selbe fläche wendest du jetzt 1000 werte (d700) oder 2000 werte (d600) an.. das ergenis wird dadurch wesentlich exakter.. wenn du jetzt.. und wir sind bei der gleichen datenbasis nun 90.000 "werte" verarbeitest.. wird das ergebnis noch viel genauer.. aber eben nur noch in den nachkommastellen. die grundfläche auf die man sich bezieht ändert sich ja nicht...
ich habe ja versucht das zu erklären.. wenn z.b. ein lichtpunkt auf einer schwarzen fläche "gemessen" wird.. werden einmal halt wenige punkte, auf dem anderen sensor viele punkte "beleuchtet".. auf das statistische gesamtergebnis gesehen kommt aber das selbe heraus.

es ist - wie auch die anderen beschrieben haben halt kein "vodooo" - aber eine beeindruckende technische leistung (egal ob 2000 oder 90.000). allein die datensammlung / auswertung, der schnelle abgleich usw.. das finde ich schon bemerkenswert. ich habe mal irgendwo eine wissenschaftliche abhandlung darüber gelesen.. das ist schon interessant und erfordert viel knowhow.

wie aber auch schon beschrieben.. auf die reinen helligkeits-belichtungswerte dürfte sich ein größerer rgb-sensor weniger intensiv auswirken.. auf die "erkennung" von objekten und so gesehen auf die zuordnung zu entsprechenden mustern jedoch schon.

schlussendlich kamen ja auch alle zu dem ergebnis das alle nikons disbez. eine gute arbeit leisten.. mit einer gewissen neigung in die ein- oder andere richtung.. aber eben unabh. davon ob 1000/2000 oder 90.000 punkte gewertet werden.

hinweis .. schon meine analoge f5 wertet übrigens 1005 RGB punkte aus.. seit 1996! ach.. und nicht vergessen.. es sind nicht nur helligkeit u kontrast.. sondern auch noch die farben die erkannt + abgeglichen werden..
 
Hallo zusammen,

ich habe jetzt schon häufiger mit der d800 fotografiert. Neben der hohen Detailtreue ist mir vor allem die korrekte Belichtung von Motiven (Matrix) aufgefallen. Ich denke, dass Ergebnis ist bestimmt auch den 91.000 RGB Sensoren geschuldet. Meiner Meinung nach ist dies auch ein wichtiges Kriterium für die D800.

Mich würde interessieren, wie sich im direkten Vergleich z.B. die 2.000 RGB Sensoren einer Df oder einer d610/d600 im Alltag so schlagen?

Das kann ich ebenso bestätigen. Meine Zweite (Nikon D7100) hat, soweit ich weiß, den gleichen 2016 Pixel RGB Sensor. Sie schafft es auch nicht immer so sicher und korrekt zu belichten, wie es meine D800 tut.
D800 ist hier sehr spürbar besser.
 
WERBUNG
Zurück
Oben Unten