Dass bei Nikon nur 1 Feld markiert wird, das hat seinen Grund:
Auch im dynamischen Modus ist immer nur ein Feld hauptsächlich aktiv. Erst, wenn der Fokuspunkt kurzzeitig aus dem einen Feld heraus wandert wird das nächste Feld aktiv. Aber dann ist nur dieses Feld kurz aktiv. Ähnlich ist es beim 3D Modus. Auch dort ist immer nur ein Feld aktiv. Nur wandert der aktive Sensor eben mit beim Verschwenken oder wenn sich das Objekt bewegt.
Die anderen, nicht markierten 9,21 oder 51 Felder (je nach AF-Modul) sind bei Nikon sozusagen nur "in Bereitschaft", falls der Fokuspunkt ganz kurz dorthin wandern sollte. Sie messen dann schon ständig die Fokusdistanz (bzw. bei 3D noch die Farbe), deswegen ist der 9-Feld AF auch einen ticken schneller als der 51-Felder AF bei älteren Kameras. Aber Priorität hat immer noch der zentrale Sensor. Kriegt das dynamische AF-System beu AF-C eine Weile nicht genug Kontrast für den Phasen-AF, dann fokussiert die Kamera neu mit dem mittleren Sensor auf den Hintergrund. Deswegen ist auch immer nur der ausgewählte Haupt-Sensor markiert. Wie schnell er den ursprünglichen Fokus verliert und komplett neu fokussiert, das kann man normal in der Kamera auch einstellen.
Man hat so durch die Markierung des einen aktiven Hauptfeldes also immer die fast volle Kontrolle über den AF-Punkt. Auch mit dem Mehrfeld-AF und dynamischer Automatik, die etwas unterstützt.
Anders sieht das dagegen beim Gruppen-AF aus. Hier ist nicht immer nur ein Hauptsensor aktiv, sondern gelich eine ganze Gruppe gleichberechtigter Sensoren aktiv. Und die Kamera wählt von den 5 gleichzeitig aktiven AF-Sensoren dann denjenigen, der auf die kürzeste Distanz zur Kamera hin fokussiert. Wobei hier dann auch oft noch eine Gesichtserkennung im Phasen-AF integriert ist (über den RGB-Belichtungsmesser), hier ist dann normal auch eine "intelligente" Porträt-Priorität gesetzt im AF-S Modus.
Das führt oft zu sehr guten Ergebnissen (die Automatik ist eben schneller als der Mensch.. gerade bei schnellen Porträts hat das schon Vorteile), aber es ist eben eine weit gehende Automatik und man hat keine 100% Kontrolle auf welchen Punkt genau die Kamera nun fokussiert. Das kann bei einem Vogel dann auch mal die Schnabelspitze sein, obwohl man das Auge wollte und der Schnabel nur eine Winzigkeit näher an der Kamera war.
("kleine" Kameras können nebenbei die Gesichtserkennung wenn überhaupt, dann nur im Liveview, der RGB-Sensor und/oder die Rechenleistung reicht dafür dann nicht aus).