AW: D300(S) oder D700
Was soll denn die Größe/Auflösung des RGB-Messsensors mit der Größe des einzelnen AF-Sensors zu tun haben?
Die Lösung gibt Nikon aber selber auf seiner Seite:
http://imaging.nikon.com/history/scenes/08/index.htm
D2H CAM2000:
"You may notice the number "2000" in the name of this AF system. It indicates the number of pixels the sensor has. "
Also Pixel je AF-Sensor.
Wenn man das nun auf CAM3500 und CAM4800 transformiert, dann haben die AF-Sensoren der D7000 mehr Pixel. Zu der Farge, ob sie einfach nur länger sind oder kleinere Sensoren haben, äußert sich der (alte) Artikel (Vegleich F4 zu D2H) nicht.
@Michael.Doering
Zum "Phasen-AF" und wie sich die interne Zusammenarbeit mit dem RGB-Modul gestaltet hat MOD Andreas treffend geantwortet, tiefere Detailinfos dazu also gerade "was" der Phasen-AF ist und worin die Unterschiede zu "normalen" Triangulationsverfahren liegen findest du sicherlich in den Links die ich hier unten eingefügt habe.
...
Also Pixel je AF-Sensor...
@GymfanDE
Ähmm.. NÖ.
Ich denke du bist nicht der einzige der das ähh sagen wir unzutreffend interpretiert.
Mir ist aus geführten Interviews mit den Fachzentren diverser Kameraproduzenten vielmehr bekannt das ein AF-Modul genauso wie der Kamerasensor ein einzelner Chip ist, auf dessen Gesamtauflösungs-Fläche in geometrischer Anordnung eine Konkrete Zahl sensorischer Elemente ausgebildet wurden und zwar in exact bekannten Abständen zueinander.
Wobei der genauen Einhaltung der "gewollten" Abstände der einzelnen sensorisch aktiv Lichtempfindlichen Flächen zueinander grosse Bedeutung zukommt, denn diese Präzision schlägt sich direkt in der Qualität der erzielbaren AF-Leistung nieder.
Jeder Bruchteil an Abweichung nimmt direkt Einfluss da hier Parameter für eine Berechnung ! geliefert werden, eben der Triangulation.
Daher gilt auch "je feiner" (kleiner) diese Messsensoren sind, desto präziser sind die "Rechenergebnisse", weshalb eine Steigerung der erzielbaren AF-Leistung NICHT durch Vergrösserung der Senorik sondern im Gegenteil durch deren Verkleinerung erreicht wird. Unter Beibehaltung der Proportionen erreiche ich das indem die Gesamtauflösung ! des Chips vergrössere, also nicht 11 Spieler auf einem Fussballfeld sondern 11 Spieler verteilt auf 4 oder noch mehr Fussballfeldflächen!
Also statt 2k rauf auf 3,5k oder 4.0k usw.
Das lässt sich beweisen indem man sich ansieht wie Triangulation funktioniert um daraus den AF zu steuern:
Zunächst ist wichtig zu wissen das KEIN rückgekoppeltes Signal verwandt wird sondern nur das "einfallende Licht", das in bestimmten Winkel "auf das AF-Modul focussiert" wird.
Da kein Rücksignal mit Laufzeitlatenz im Spiel ist, können wir auch extrem weit entfernte Objekte wie z.B. den Mond oder den Planeten Saturn etc. in Echtzeit anfokussieren, denn alles was zur Entfernungsberechnung (AF) nötig ist wird schon im Strahlengang des Objektives eingeleitet.
Funktionsweise (vereinfacht):
Bei runtergeklappten Spiegel wird das "einfallende" Licht vom Objektiv über das Prisma in einem genau definierten Winkel auf den AF-Chip gelenkt; und trifft dabei auf die geometrisch angeordneten Sensorflächen des AF-Chips auf.
Wie, also in welchem spezifisch "veränderten" Einfallswinkel... wann welche Sensorzelle getroffen (anfocussiert) wird, hängt von der Entfernung des Objektes ab das eben auf sich aufteffendes Licht bis zum AF-Sensor reflektiert. Daraus resultiert immer ein Winkelverhälnis das sich mit jedem cm an Distanz verändert.
Somit lässt sich zusammen mit weiteren Parametern daraus eine Winkelfunktion ableiten, womit wir die Basis für eine Triangulation erhalten und deren Ergebnis liefert reichlich präzise den Objektabstand.. worauf dann das Objektiv "focussiert" wird.
Daher ist so wichtig das die Abstände der Sensorzellen zueinander seehr präzise bekannt sind.. und je feiner die Sensorik desto genauer wird die Messung, weshalb bei Kreuzsensoren auch noch deren Messabweichungen herangezogen werden, die sich durch ihren "Höhenaufbau" gegenüber den Messzellen direkt auf der Sensorfläche ergeben; und "als Zünglein ander Waage".. die Genauigkeit des "Messaufbaus" um Potenzen verbessert.
Ergo lässt sich aus der Funktionsweise bereits ableiten das die "AF-Auflösung" immer die Chip-Gesamtfläche meint und nicht eine Sensorfläche da deren Vergrösserung eine verschlechterung der Rechenergebnisse zur Folge hätte.
Wer sich näher mit der Funktionsweise des AF-Systems per Triangulation beschäftigen möchte findet zu den verschiedenen Nutzungsgrundlagen und Varianten gut und verständlich aufbereitetete Infos z.B. hier:
http://www.vvl.htwg-konstanz.de/3Dbildver/Labor/4/052.html
http://www.vvl.htwg-konstanz.de/3Dbildver/Labor/3/072.html
Was den RGB-Sensor und dessen Einfluss betrifft, hat MOD Andreas bereits die entscheidenden Infos im Post zuvor geliefert und eben dieses Gespann bildet zusammen mit der Rechenkapazität die dem Body spendiert wurde das "Gesamtpaket" namens AF.
LG
Gerd