• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RGB Belichtungssensoren d800 vs. df - d610

chriko

Themenersteller
Hallo zusammen,

ich habe jetzt schon häufiger mit der d800 fotografiert. Neben der hohen Detailtreue ist mir vor allem die korrekte Belichtung von Motiven (Matrix) aufgefallen. Ich denke, dass Ergebnis ist bestimmt auch den 91.000 RGB Sensoren geschuldet. Meiner Meinung nach ist dies auch ein wichtiges Kriterium für die D800.

Mich würde interessieren, wie sich im direkten Vergleich z.B. die 2.000 RGB Sensoren einer Df oder einer d610/d600 im Alltag so schlagen? Ich habe selbst die d700, die mit ihren 1000 RGB Sensoren manchmal schon an ihre Grenzen stößt. Konkret vielleicht nochmal, ob die 2000 RGB Sensoren schon deutlich mehr bringen als die 1000 der d700?

Der Unterschied zwischen dem Sensor der d800(E) (D4) und den restlichen Sensoren ist in dieser Hinsicht mathematisch ja schon beachtlich. Danke für eure Rückmeldung.

Gruß
Chriko
 
Matrix-Messung ist eine Automatik, eine Schätzung, ein Durchschnitt. Korrekt belichten muss der Fotograf. Ich persönlich nehme heute dafür Spot-Messung weil ich höchstselten durchgehend gleichhelle Flächen fotografiere.

Abgesehen davon habe ich früher aber auch mit Matrixmessung keine Probleme gehabt. Weder mit der D700 noch der D90 oder irgendeiner anderen Nikon Kamera. :confused:
 
Hi,

also ich muss sagen, dass die D800 - zumindest bei der Matrixmessung - nicht immer korrekt belichtet.
Oft ist das Bild zu hell. So jedenfalls meine Beobachtung.

Grüße

Yannis
 
Gleiches auch bei der D600!

Also kein Vorteil??
 
Ich glaube nicht, dass man die Belichtungsmessung hier so daran festmachen kann. Wo es sicher unterschiede gibt ist das 3D Tracking, wo der höher auflösende Sensor garantiert Vorteile bietet. Der Rest ist zu abhängig von äusseren Umständen.
 
Matrix-Messung ist eine Automatik, eine Schätzung, ein Durchschnitt. Korrekt belichten muss der Fotograf. Ich persönlich nehme heute dafür Spot-Messung weil ich höchstselten durchgehend gleichhelle Flächen fotografiere.

Abgesehen davon habe ich früher aber auch mit Matrixmessung keine Probleme gehabt. Weder mit der D700 noch der D90 oder irgendeiner anderen Nikon Kamera. :confused:
Handbuch S. 115 lesen - hilft garantiert dabei die für den jeweiligen Fall richtig Methode anzuwenden ... ;)
 
Hmm, dass es unterschiedliche Belichtungsarten gibt ist mir klar. Auch das der Fotograf je nach Motiv die richtigen Einstellungen auszuwählen hat ist klar. Aber der große Unterschied der RGB Sensoren müsste sich doch auswirken? Nach den bisherigen Äußerungen scheint es keine große Rolle zu spielen... Das wäre dann ja auch eine antwort auf meine frage.

Gruß
 
tach

in der handhabung der ganzen letzten modelle (s5/d700/d600/d800) sehe ich in der hinsicht keinen wirklichen unterschied. im prinzip passt es.. die 600/800 neigen wie ich finde beide zum leichten überbelichten.. aber unterschiede die man dann noch am verbauten belichtungs-sensor festmachen könnte sehe ich nicht

letztendlich ist es nat auch ein marketing-gag...
wenn du eine fläche in 2000 punkte aufteilst oder in 90000.. letzteres hört sich besser an.

dann aber kommt es zu einer statistischen auswertung.. und nichts anderes macht die belichtungsmessung. es kommt dazu das das teil ganze punkt-massen wieder zu mittelwerten zusammenfasst. wie "genau" das ganze dann ist.. klar.. je mehr daten desto mehr genauigkeit im ergebnis.. aber bei mittenbetont oder "matrix" sehe ich da kaum rechnerische vorteile...

(also z.b. bei einer glühlampe im feld x sind bei sensor a "5" punkte hell.. bei sensor b dann "225". auf das gesamtergebnis (statistisch) betrachtet .. ist das ergebnis aber absolut das selbe)

bei früheren modellen (analog) waren es glaube ich 9?! bereiche.. und auch das hat oft prima funktioniert.

einzig bei der spot-messung sollte das ergebnis theoretisch "genauer" sein da hier signifikant mehr einzeldaten pro auswertbereich vorliegen...
 
Ich würde sagen, dass der Dynamikumfang das Bild auf jeden Fall besser aussehen lässt. Die Belichtung ist aber nicht besser, würde ich sagen.
Habe gestern die Kids auf der Schaukel fotografiert und je nach Blickwinkel, waren die Bilder teilweise minimal überbelichtet, aber auch unterbelichtet. Die Regel war aber richtig belichtet ;)
 
Korrekt belichten muss der Fotograf
Mein Eindruck ist aber schon der, dass da ne Menge Intelligenz dahintersteckt. Sind da nicht soundsoviel hundert oder tausend Beispielbilder hinterlegt, die die Kamera Situationen richtig einschätzen lassen? Die Matrixmessung passt auf die meisten Situationen relativ gut. Ich denke vor 10...20Jahren war es wichtiger die verschiedenen Messmethoden in verschiedenen Situationen anzuwenden, um korrekt belichtete Bilder zu erhalten. Heutzutage ist das für Neueinsteiger mehr graue Theorie, weil man nicht sooo oft eingreifen muss. Was uns auch der TE bestätigt:
Neben der hohen Detailtreue ist mir vor allem die korrekte Belichtung von Motiven (Matrix) aufgefallen
Bei meinen Sigma-Objektiven scheint die D7000 ihr Intelligenz aber öfter zu vergessen, als mit original Nikkoren. Sicher kein unerwünschter Effekt seitens Nikon:rolleyes:
Steht nicht Canon in der Theorie (Zahlenwerte) zum Thema Belichtungssicherheit nicht "ziemlich mies" da?
 
Mein Eindruck ist aber schon der, dass da ne Menge Intelligenz dahintersteckt. Sind da nicht soundsoviel hundert oder tausend Beispielbilder hinterlegt, die die Kamera Situationen richtig einschätzen lassen? Die Matrixmessung passt auf die meisten Situationen relativ gut. Ich denke vor 10...20Jahren war es wichtiger die verschiedenen Messmethoden in verschiedenen Situationen anzuwenden, um korrekt belichtete Bilder zu erhalten. Heutzutage ist das für Neueinsteiger mehr graue Theorie, weil man nicht sooo oft eingreifen muss. Was uns auch der TE bestätigt

Sicher, man kann sich dadrauf verlassen, dass die Kamera schon ein Bild machen wird. Das ist auch alles toll mit den Sensoren und der ganzen Programmierung, keine Frage. Aber keine Automatik weiß zu jeder Zeit was du von ihr willst. Und dann kommt noch dazu, dass womöglich ein älteres System bessere Ergebnisse für den Stil von Person X liefert als ein neueres. Automatiken raten mal mehr und mal weniger gut. So oder so, es bleibt eine Raterei.

Ob handwerklich oder bei der Wahl seines Werkzeugs: Wenn ein Bild falsch belichtet ist, ist der Fotograf schuld.
 
Ich denke, dass Ergebnis ist bestimmt auch den 91.000 RGB Sensoren geschuldet. Meiner Meinung nach ist dies auch ein wichtiges Kriterium für die D800.

Der Vorteil liegt, so wie ich es verstehe, weniger in der präziseren Belichtungsmessung, ( das hat bisher ja schon ganz gut funktioniert ).

Mehr darin, das der RGB Sensor das volle Bildfeld abdeckt und so bei automatischer Messfeldauswahl genauer analysieren kann, wo bildwichtige Teile ( speziell Gesichter ) sind ( damit natürlich auch noch konkreter bestimmen kann, welche Punkte im Bild belichtungswichtig sind.

Beim 3D tracking wird die Kamera in die Lage versetzt, das fokussierte Objekt im "Blick" zu behalten, wenn es aus dem Bereich der AF Sensoren kommt, und dann nachzufokussieren, wenn es wieder drinnen ist.

Hier hilft die hoge Auflösung wohl auch. Inwieweit da signifikante Vorteile bringt, kann ich Dir allerdings nicht sagen, da müsste man wissen, ob sich z.B. 3D Tracking von D3 zu D4 signifikant verbessert hat.

Ob das, was die Automatik macht dann hinterher Deiner Bildintention entspricht, ist natürlich eine zweite Frage.
 
Ja, das ist tatsächlich ein sehr umfangreicher Werbeprospekt. Aber kein Handbuch.
Mir ist noch immer nicht klar weshalb du weiter oben meinen Post zitiert hast. :confused:
Für die Df Handbuch Seite 75:
Die Spotmessung stellt sicher, dass das Motiv auch dann korrekt belichtet wird, wenn der Hintergrund sehr viel heller oder dunkler als das Motiv ist.
Also eine Messung für bestimmte Sonderfälle.

Aber wie gesagt galt der Hinweis auch anderen.

Gleiches galt für den Prospekthinweis.
Insbesondere das Schaubild anschauen, aber auch den Text sorgfältig lesen. So mancher Beitrag hätte sich nach Lektüre erledigt, aber wer folgt schon Links und liest dann auch noch genau ...
 
Die Spotmessung stellt sicher, dass das Motiv auch dann korrekt belichtet wird, wenn der Hintergrund sehr viel heller oder dunkler als das Motiv ist.

Also eine Messung für bestimmte Sonderfälle.

Wie bitte? Eine korrekte Belichtung des Motivs ohne Rücksicht auf den Hintergrund ist (zumindest in meiner obskuren Fantasie) bestimmt kein Sonderfall. In den allermeisten Fällen ist es das gewünschte Ergebnis.

Insbesondere das Schaubild anschauen, aber auch den Text sorgfältig lesen. So mancher Beitrag hätte sich nach Lektüre erledigt, aber wer folgt schon Links und liest dann auch noch genau ...

Wenn es dir zuwider ist einfach zu schreiben was du meinst, dann lass es in Zukunft doch bitte einfach sein. Ernsthaft, wenn mir etwas zu doof ist schreib ich auch einfach mal nix. Das tut nicht weh.
 
WERBUNG
Zurück
Oben Unten