• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

neue D700 - total überbelichtet

Wolfgang, wenn du etwas nicht verstehst ist es noch lange kein Unsinn. Informier dich doch erst mal.
Den Ball spiel ich postwendent zurück. Jede Belichtungsmessung ist ein rein deterministisches Verfahren, weswegen keine rät. Zufälle gibt's woanders.

Aber verbreite nur weiter solchen Mist.

Wissensbasis hat ein Fotograf - oder eben nicht. Die bringt er durch Drehen am Rädchen ein, wobei er i.d.R. rät - oder eben nicht.

Im Übrigen kannst auch du verifizieren, ob die Matrixmessund eine Integralmessung mit Betonung des Fokuspunktes ist. Du musst nur ein Motiv anvisieren, dass halb hell/dunkel mit ausgeprägter Kante ist. Fokuspunkt mal im Hellen bzw Dunklen Motivbereich ohne Kamerabewegung bringt die Erleuchtung.

Wolfgang
 
Um wirklich sicher zu gehen, daß die Belichtungsmessung gut bzw. in Toleranzgrenzen gut funktioniert (wie es nach dem Reset scheint) werde ich mal mit meiner D90 und der D700 losziehen und unter vergleichbaren Bedingungen ein paar Belichtungsmessungen durchführen. Dann habe ich Sicherheit. Ich bin aber zuversichtlich, daß, aus welchen Gründen auch immer, nur die Software durcheinandergekommen ist... :-)
Werde bescheid geben !
 
Den Ball spiel ich postwendent zurück. Jede Belichtungsmessung ist ein rein deterministisches Verfahren, weswegen keine rät. Zufälle gibt's woanders.

Aber verbreite nur weiter solchen Mist.

Wissensbasis hat ein Fotograf - oder eben nicht. Die bringt er durch Drehen am Rädchen ein, wobei er i.d.R. rät - oder eben nicht.
Tja, du wirst da schon Recht haben. Was weiss Nikon denn schon über die eigenen Geräte. Die schreiben doch tatsächlich den gleichen Mist wie ich.

Um wirklich sicher zu gehen, daß die Belichtungsmessung gut bzw. in Toleranzgrenzen gut funktioniert (wie es nach dem Reset scheint) werde ich mal mit meiner D90 und der D700 losziehen und unter vergleichbaren Bedingungen ein paar Belichtungsmessungen durchführen. Dann habe ich Sicherheit. Ich bin aber zuversichtlich, daß, aus welchen Gründen auch immer, nur die Software durcheinandergekommen ist... :-)
Werde bescheid geben !
Gute Idee. Du solltest dabei auch jeweils Bilder mit Offenblende und abgeblendet machen. Nikon hat eine mechanische Blendenübertragung, die auch mal für Fehler sorgen kann.
 
Zuletzt bearbeitet:
Um wirklich sicher zu gehen, daß die Belichtungsmessung gut bzw. in Toleranzgrenzen gut funktioniert (wie es nach dem Reset scheint) werde ich mal mit meiner D90 und der D700 losziehen und unter vergleichbaren Bedingungen ein paar Belichtungsmessungen durchführen. Dann habe ich Sicherheit. Ich bin aber zuversichtlich, daß, aus welchen Gründen auch immer, nur die Software durcheinandergekommen ist... :-)
Werde bescheid geben !
Ich glaube zwar eher nicht, dass die Software durcheinander gekommen ist, aber egal.

Ich würde empfehlen, bei der Belichtungsmessung mit der d700 so weiter zu machen, wie Du es mit der d90 machtest. So viel anders wird die d700 Elektronik da nicht sein.

Noch'n Gruß, Wolfgang
 
Tja, du wirst da schon Recht haben. Was weiss Nikon denn schon über die eigenen Geräte. Die schreiben doch tatsächlich den gleichen Mist wie ich.
Wo steht da was von raten?

Du glaubst doch wohl nicht im Ernst, kamerainterne Software würde 30000 zwangsweise dort abgespeicherte Bilder abscannen, um die Bel.-zeit um 1/3LW zu ändern? Das schafft ja ein ausgewachsener Datenbankserver erst in Minuten!

Ich habe auch vielfach an meinen D-Objektiven am Entfernungsring gedreht, um den Einfluss auf die Bel.-messung zu prüfen. Außer unwichtigem Kleinstkram bei extrem unscharf gestelltem Motiv passiert da gar nichts.

Aus gutem Grunde. Spielerei ist das!

Wer glaubt, was die Werbetrommeln da so rühren, soll das gerne tun. Dieses aber als Fakten weiter zu verkaufen, offenbar ohne einfachstes Gegenchecken, befeuert erst mal die rhetorische Attacke.

Mach also gerne weiter so.
Gruß, Wolfgang
 
Wo steht da was von raten?

Du glaubst doch wohl nicht im Ernst, kamerainterne Software würde 30000 zwangsweise dort abgespeicherte Bilder abscannen, um die Bel.-zeit um 1/3LW zu ändern? Das schafft ja ein ausgewachsener Datenbankserver erst in Minuten!
Erstens schafft das ein Datenbankserver bedeutend schneller, und zweitens wird man dabei eher auf ein künstliches neuronales Netz setzen.

Wer glaubt, was die Werbetrommeln da so rühren, soll das gerne tun. Dieses aber als Fakten weiter zu verkaufen, offenbar ohne einfachstes Gegenchecken, befeuert erst mal die rhetorische Attacke.

Mach also gerne weiter so.
Ich werde ganz gewiss so weitermachen dass ich mich zuerst einmal gründlich informiere.
 
Das würde gelten wenn er mittenbetont integral oder spot gemessen hätte.

Hier wurde die Matrixmessung verwendet. Die ist keine reine Messung, die Kamera rät auf der Grundlage der Messwerte eine Belichtungssituation. Dabei kann sie auch schon mal danebenliegen, und für mein Empfinden ist das Beispiel des Mahnmals in der Tat zu hell.

Wenn die Belichtungsmessung nicht schnell, sondern genau sein soll, dann muss man ein anderes Messverfahren nehmen und die Motivhelligkeit berücksichtigen.

Das ist grundsätzlich richtig aber nicht bei monochromen Bildern, wie im Fall des Denkmals, grau in grau. Da verhält sich, nach meinen Erfahrungen, die Matrixmessung ähnlich einer Integralmessung.
Hätten wir hier einen deutlichen Kontrast, wie beispielsweise einen Menschen mit ner schwarzen oder grellbunten Jacke, sähe das Ergebnis sicher anders aus. Die Matrix hätte dann vielleicht ihre Stärke ausgespielt oder schlicht vergeigt; ich habe schon mit der 801 und der F4s manche Bilder in den Acker geschoben, weil die Matrix keine Ahnung hatte.
Weshalb ich selbst heute noch meist mittenbetont knipse, da weiß ich, was ich mache.

Gruss Jakker
 
Zuletzt bearbeitet:
Das ist grundsätzlich richtig aber nicht bei monochromen Bildern, wie im Fall des Denkmals, grau in grau. Da verhält sich, nach meinen Erfahrungen, die Matrixmessung ähnlich einer Integralmessung.
Ich habe verschiedentlich die Erfahrung gemacht dass diese Bilder zu hell wurden. Die Matrixmessung macht in der Regel einen guten Job in Alltagssituationen, bei solchen ungewöhnlichen Beleuchtungen würde ich auf Integral- oder Spotmessung setzen und die Lage der Zielfläche gegenüber dem 18%-Grau grob schätzen. Spätestens die zweite Aufnahme mit Korrektur nach dem Histogramm sitzt dann.
 
Wo steht da was von raten?

Du glaubst doch wohl nicht im Ernst, kamerainterne Software würde 30000 zwangsweise dort abgespeicherte Bilder abscannen, um die Bel.-zeit um 1/3LW zu ändern? Das schafft ja ein ausgewachsener Datenbankserver erst in Minuten!

Ich habe auch vielfach an meinen D-Objektiven am Entfernungsring gedreht, um den Einfluss auf die Bel.-messung zu prüfen. Außer unwichtigem Kleinstkram bei extrem unscharf gestelltem Motiv passiert da gar nichts.

Aus gutem Grunde. Spielerei ist das!

Wer glaubt, was die Werbetrommeln da so rühren, soll das gerne tun. Dieses aber als Fakten weiter zu verkaufen, offenbar ohne einfachstes Gegenchecken, befeuert erst mal die rhetorische Attacke.

Mach also gerne weiter so.
Gruß, Wolfgang

Erstens schafft das ein Datenbankserver bedeutend schneller, und zweitens wird man dabei eher auf ein künstliches neuronales Netz setzen.


Ich werde ganz gewiss so weitermachen dass ich mich zuerst einmal gründlich informiere.

Sonst gehts euch aber gut oder!???
 
Ich habe verschiedentlich die Erfahrung gemacht dass diese Bilder zu hell wurden. Die Matrixmessung macht in der Regel einen guten Job in Alltagssituationen, bei solchen ungewöhnlichen Beleuchtungen würde ich auf Integral- oder Spotmessung setzen und die Lage der Zielfläche gegenüber dem 18%-Grau grob schätzen. Spätestens die zweite Aufnahme mit Korrektur nach dem Histogramm sitzt dann.

Dann sind wir uns ja einigermaßen einig, wobei ich mich schon frage, was du bei einem Bild, wie dem Denkmal mit dem Histogram willst?
Es gibt weder abgesoffene Schatten noch ausgefranzte Lichter!

Aber das ist jetzt ein anderes Thema, beschäftigt doch den TO, ob seine Kamera einen weg hat.
 
Erstens schafft das ein Datenbankserver bedeutend schneller, und zweitens wird man dabei eher auf ein künstliches neuronales Netz setzen.
Hört sich intelligent an, künstlich zwar aber intelligent. Aber mangels Netz nicht in der Kamera. Diese bekommt eine plumpe Eichkurve, meinetwegen werbewirksam so erzeugt. Mehr als diese kann die Kamera nicht verarbeiten.

Und das Alles für 'ne blöde Bel.-messung, ich lach mich echt wech. Und der Herr Moderator glaubt so'n Quatsch noch. :top:

Wolfgang
 
Hört sich intelligent an, künstlich zwar aber intelligent. Aber mangels Netz nicht in der Kamera. Diese bekommt eine plumpe Eichkurve, meinetwegen werbewirksam so erzeugt. Mehr als diese kann die Kamera nicht verarbeiten.
Natürlich kann die Kamera das. Sie hat auch keine Schwierigkeiten damit, Belichtungsindizes von 30000 Bildern (niemand hat geschrieben dass die Bilder selbst irgendwo gespeichert wären) per fuzzy logic abzugleichen. Das Verfahren ist auch nicht wirklich neu, es wurde schon zu analogen Zeiten bei Nikon verwendet.

Aber vielleicht lieferst du eine Quelle für deine Behauptung?

Und bleib doch bitte sachlich.
 
Die Sachlichkeit ist ein Problem bei einer albernen Bel.-messung.
Aber vielleicht lieferst du eine Quelle für deine Behauptung?
Eine Quelle hab ich natürlich außer ausgiebigen Spielereien mit vorhandenen Bel.-messung genau so wenig wie Du. Allerdings weiß jeder professionell arbeitende Computer Mensch weiß, dass Software nicht rät, es sei denn der Zufall wird via zB Monte Carlo eingebaut. Aber dann wird immer noch nicht geraten. Denn auch der Zufall ist determiniert.

Belichtung zu bestimmen, ist einfach zu simpel, um großes Theater daraus zu machen. Die Methoden in den Kameras sind hinreichend ausgreift, und jeder sollte einfach systematisch spielen, um für sich das Optimum heraus zu holen.

Zum aktuelle Problem habe ich mich schon vor Jakker so geäußert:
... Bei dem kontrastschlappen Motiv ist das Messverfahren total egal. Da überall gleich grau, kann beliebig gewichtet werden: grau bleibt grau.

Bei solchen Motiven ist sogar sinnvoll, hell zu belichten. Das fördert eine große Zahl einfallender Photonen und minimiert damit das Rauschen. Mit EBV kann hier auch am JPG gut korrigiert werden, wobei das Rauschen klein bleibt.
Das bleibt mein Maßstab zum Thema.

Gruß, Wolfgang
 
Natürlich kann die Kamera das. Sie hat auch keine Schwierigkeiten damit, Belichtungsindizes von 30000 Bildern (niemand hat geschrieben dass die Bilder selbst irgendwo gespeichert wären) per fuzzy logic abzugleichen. Das Verfahren ist auch nicht wirklich neu, es wurde schon zu analogen Zeiten bei Nikon verwendet.

Aber vielleicht lieferst du eine Quelle für deine Behauptung?

Und bleib doch bitte sachlich.

Also jetzt mal langsam, habe ich doch ein paar gute Jahre mit der F801 und noch länger mit der F4s geknipst.
Matrix war da noch eine 5-Feld-Messung und lag oft richtig aber auch manchmal total daneben.
Die heute angegebenen Werte in den Prospekten von wegen 30.000 Bilder hat mit Bildern nunmal gar nichts zu tun sondern ist ein hoch gerechneter Wert der hinterlegten Algorithmen. Tatsächlich sind da deutlich weniger Grunddaten in der Kamera hinterlegt.

@Stempel
von einer Eichkurve zu sprechen ist aber auch nicht richtig. Da wird schon ordentlich gerechnet aber eben nicht mit 30.000 hinterlegten Bildgrunddaten.
 
Die Sachlichkeit ist ein Problem bei einer albernen Bel.-messung. Eine Quelle hab ich natürlich außer ausgiebigen Spielereien mit vorhandenen Bel.-messung genau so wenig wie Du.
Ich habe eine Quelle verlinkt. Weitere mit gleichem Inhalt lassen sich über Google problemlos finden.

Die heute angegebenen Werte in den Prospekten von wegen 30.000 Bilder hat mit Bildern nunmal gar nichts zu tun sondern ist ein hoch gerechneter Wert der hinterlegten Algorithmen. Tatsächlich sind da deutlich weniger Grunddaten in der Kamera hinterlegt.
Ich tippe da weniger auf hinterlegte Algorithmen, sondern auf ein neuronales Netz, das mit Belichtungsdaten angelernt wurde. Das tatsächliche Speichervolumen wäre trotz einer Vielzahl von "gelernten" Bildern sehr klein. Der Vorteil eines neuronalen Netzes wäre dass man bei Änderungen an der Messung (die Zahl der Messzellen hat sich mehrfach vergrößert) keine neuen Algorithmen entwickeln muss, die lernen sich quasi selbst.

Es gibt tatsächlich einen Unterschied zu der alten 5-Feld-Matrixmessung deiner F801. Die arbeitete wohl wirklich mit (relativ wenigen) vorgegebenen Algorithmen, die hier ganz gut beschrieben sind.
 
...Und das Alles für 'ne blöde Bel.-messung, ich lach mich echt wech. Und der Herr Moderator glaubt so'n Quatsch noch. :top ...

Das glaubt der Herr Moderator nicht nur, sondern er weiß es. Und ich weiß es, wie sicher auch viele andere.

Die Basis zu diesen "Datenbanken" in der Kamera wurde schon zu analogen SLR- Zeiten entwickelt, als die Mikroprozessoren in den Kameras Einzug hielten.

Das Prinzip ist zig-mal beschrieben worden, immer mit dem Hinweis, dass diese künstliche Intelligenz nicht das Mitdenken ersetzt.

Grundsätzlich funktioniert das Verfahren gut. So gibt es z.B. wenig Probleme bei Winteraufnahmen mit Schnee. Die Kamera erkennt diese Situation, im Gegensatz zum herkömmlichen Belichtungsmesser, mit dem man in diesem Fall doch mehr mitdenken musste, um nicht total unterbelichtete Aufnahmen zu bekommen.

Ich selbst habe die Erfahrung gemacht, dass auch oder wegen ??? der mittlerweile fortgeschrittenen Matrixmessung schon kleine Änderungen der Bildkomposition zwischen Aufnahmen unter gleichen Beleuchtungsbedingungen zu deutlichen Belichtungsunterschieden führen kann, weil die Kamera die Situation anders bewertet.

Im Zweifelsfall hilft dann die mittenbetonte Messung da weiter.

Und natürlich das Histogramm.

Bei der D700, ich fotografiere ausschließlich RAW, stelle ich die Belichtungskorrektur übrigens meist um 0,3 bis 0,7 in Richtung Unterbelichtung.
Man kann im RAW- Konverter gut nachbelichten, ohne dass man in den Tiefen Störungen wie z.B. Banding befürchten muss.

Ein großer Vorteil der D700 gegenüber z.B. der 5D/5D MKII, bei denen man nicht selten mit unschönen Tiefen "belohnt" wurde.

Gruß
ewm
 
Die heute angegebenen Werte in den Prospekten von wegen 30.000 Bilder hat mit Bildern nunmal gar nichts zu tun sondern ist ein hoch gerechneter Wert der hinterlegten Algorithmen. Tatsächlich sind da deutlich weniger Grunddaten in der Kamera hinterlegt.
Warum denn nicht? Das ist ein Standardansatz in der Mustererkennung: Man hat z.B. ein neuronales Netz. Das wird mit 30000 Bildern und den dazugehörigen optimalen Belichtungswerten angelernt. Das geschieht außerhalb der Kamera im Entwicklungslabor. Das "Wissen" aus dieser Anlernaktion wird in die Kamera eingeimpft und die bestimmt dann mit diesem Wissen die Belichtung für ein individuelles Bild. Das "Wissen" sind im Grund bestimmte Merkmale und Gewichtungsfaktoren, die auf die Belichtung Einfluß nehmen. Das sind keine Phantasien eines bekifften Nikon Prospekttexters sondern real exisitierende Verfahren. Man kann z.B. den Algorithmus fuer eine Fouriertranformation mit Hilfe eines neuronalen Netzes "erlernen". ;)

Grüße
D80Fan
 
WERBUNG
Zurück
Oben Unten