Mag sein, nur schreiben tut er nichts gewaltiges - außer schöne Worte...
Ich lese da mehr.
Und ich zitiere mal aus der Beschreibung der D800, quasi der Weiterentwicklung der Technologie:
Zitat:
3D-Color-Matrixmessung III: 91K-Pixel-Sensor für Belichtungsmessung und AF-Messfeldsteuerung mit Gesichtserkennung.
Ende Zitat:
Spätestens hier sollte klar werden, welche "Macht" diese Belichtungssensoren haben.
...Wenn aber anders 'rum "meine d700" für mich via künstliche Intelligenz und auf der Basis "meiner 10000 Bilder pro Jahr" eine Datenbank erstellte mit "meinen eigenen Präferenzen", würde ich tatsächlich Abstand davon nehmen, dem Belichtungsmesser würden plumpe Eichkurven zur Belichtungsmessung mitgegeben...
Ich habe nicht behauptet, dass bei der D700 irgendeine künstliche Intelligenz als lernendes System eingesetzt wird.
1005 Datenpunkte einer Sensormatrix liefern je nach Farbfilterung und Auflösung pro Sensorpixel (genaueres dazu habe ich bisher nicht gefunden) eine Fülle von möglichen Mustern.
Es braucht nun keine kameraseitige Intelligenz, sondern nur eine einmalige Datenerfassung im Entwicklungsprozess, um möglichst viele Variationen zu erfassen.
Bleiben wir mal bei den 1005 Punkten und gestehen jedem Punkt eine "musterwirksame" Auflösung von 4 Bit zu, dann braucht man pro Muster 500 Byte.
In 16 KByte lassen sich also rund 30 000 Muster speichern.
Ein Vergleich der aktuellen Belichtungssituation mit diesen Mustern dürfte schnell erledigt sein.
Nach Ermittlung dieses Muster erfolgt sicher noch eine, musterspezifische Bewertung bestimmter Messpunkte der Matrix zur genaueren Belichtungsmessung.
Das wars und nun wird belichtet.
Wenn ich von künstlicher Intelligenz sprach, dann nicht im Sinne einer Lernfähigkeit, sondern im Sinne eines "sturen" Automatismus.
Die Musterauswahl einschließlich der, nach der Musterauswahl folgenden "Feinmessung" ist begrenzt.
Dadurch kann es vereinzelt zu Fehlbewertungen kommen.
Hier ist es dann wirklich von der Situation abhängig, ob eine integrale Messung genauer ist.
Ich behaupte mal, dass gerade in Extremsituationen die Matrixmessung häufiger zu guten Ergebnissen führt, die integrale Messung dagegen während einer Session unter gleichen Lichtbedingungen im Durchschnitt weniger Ausrutscher liefert.
Nachtrag:
Ich versuche mal den Algorithmus aus meiner Sicht zu beschreiben:
Schritt 1: Digitalisierung der1005 Sensorpunkte
Schritt 2: Vergleich des digitalen Abbildes der 1005 Sensorpunkte mit der internen "Datenbank", Auflösung und Entscheidungskriterien kenne ich nicht, es werden aber imho keine selbstlernenden Verfahren angewandt
Schritt 3: der Abgleich aktuelle Situation mit Musterdatenbank ist erfolgt. Das gefundene Muster enthält (schon bei der Kameraentwicklung vorgegebene) Koordinaten einzelner Belichtungssensoren, deren nun genauer bewertete Digitalwerte gemäß einer, für das gefundene Muster hinterlegte Regel in einen Belichtungswert umgerechnet wird.
Damit würde nach Schritt 3 die Regelauswertung erfolgen.
Schritt 4: das gefundene Muster gibt die Sensorpunkte vor, deren Belichtungswert genauer und gemäß Muster gewichtet in die Belichtung umgerechnet werden
Hinweis: Das ist allein meine Denke, wie ich das machen würde. Es erklärt nicht, wie die Kamerahersteller das umgesetzt haben!!!
Gruß
ewm