• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die Welt aus Sicht eines AF Sensors

Dito. Ich brauche deutlich länger, aus den bewegten Gifs eine Information abzuleiten, da mein Gedankengang regelmäßig unterbrochen wird. Vielleicht könntest du noch eine Version ohne Animation erstellen?
Gif verlangsamt und Einzelbilder eingestellt.
 

Anhänge

Zuletzt bearbeitet:
Soll das im Klartext heißen, daß auf den Spot-AF verzichtet werden sollte, wenn höchste Genauigkeit des AF gewünscht wird (und es das Motiv/seine Umgebung zuläßt)?

Viele Grüße
Wolfgang
-------------------------
das würde mich auch sehr interessieren.
habe meist bei meiner (keine canon) das af-meßfeld nicht auf "Normal" sondern auf "klein" gestellt, weil ich bisher glaubte, daß da der af am wenigsten vom eigentlichen target abgelenkt werden könne (also von naheligenden anderen kontrastreichen details). bei schmetterlingmakros funzt das sehr zuverlässig, daß ich die augen anvisiere und diese dann wirklich scharf werden.
habe schon die vorstellung, daß der af dadurch etwas unempfindlicher würde (also zögerlicher) aber unschärfer? (habe noch nie systematisch getestet).

daher mein interesse, auch wenn das vielleicht bei meiner oly ein bißchen anders ist als bei der 7d.

lg gusti
 
Soll das im Klartext heißen, daß auf den Spot-AF verzichtet werden sollte, wenn höchste Genauigkeit des AF gewünscht wird (und es das Motiv/seine Umgebung zuläßt)?
Ja, ist eigentlich auch logisch. So eine AF Sensorzeile besteht im Schnitt aus 32 Pixel. Wenn ich also zwei Zeilen miteinander vergleiche, bekomme ich maximal 32 verschiedenen Verstellwege geliefert. Das wäre so grob, damit kannst nie auf den Punkt fahren, also musst du in Subpixel Auflösung vergleichen und Zwischenwerte interpolieren. Mit 32 gemessenen Punkten geht das noch recht gut, wenn du das mit dem Spot AF aber künstlich auf 16 reduzierst wird es schon schwerer. Hast viel Licht und starken Kontrast auf der Zeile geht das mit 16 Pixeln bei Spot AF noch ganz gut. Ist kaum Struktur vorhanden und auch noch dunkel sind selbst 32 Pixel sehr wenig, da handelst dir mit Spot AF eine Portion extra Ungenauigkeit ein.
Spot AF hat bei bestimmten Situationen schon seinen Sinn, aber wenn das ständig aktiviert hast würde ein AF Sensor mit nur halb so vielen Pixeln auch reichen und die Hersteller bauen die nicht zum Spaß ein.
 
Da die Bergsteigerin im echten Foto links steht, auf dem AF aber rechts abgebildet wird, frage ich mich, ob sie auf dem AF nicht eigentlich auch noch Kopf stehen müsste?
Ist ein echtes Problem mit der Darstellung. Betrachte ich den Sensor als Leinwand und schau wie das Bild darauf projiziert wird (wie bei der Sensorreinigung), oder schaue ich wie die Pixel von der anderen Seite in Richtung Objekt? Ist das gleiche Problem wie "in der oberen linken Ecke vom Bild sehe ich einen dunklen Fleck, wo muss ich ihn bei der Reinigung auf dem Sensor suchen?".

Ich habe mich für die Darstellung AF Sensor als Leinwand entschieden und hab dann das Bild um 180° gedreht. Die Drehung sieht man nicht, da der Sensor rotationssymmetrisch ist. Ich hoffe selbst bei den ganzen Drehungen keinen Fehler gemacht zu haben, aber die Lage der ganzen Sensorzeilen gibt der Darstellung recht.
 
@Nightshot,

das Prinzip war mir nicht zwar nicht fremd, so habe ich es z.B. auch als Irrglaube angesehen, dass lichtstärkere Objektive bei einem, auf Blende 5,6 ausgelegten AF- System bessere Ergebnisse bringen.

Die Idee, den AF aus Sicht der Sensoren mal per Spezialkamera aufzuzeichnen ist schon eine Sensation!

Und die Ergebnisse so gut strukturiert und verständlich aufzubereiten, dass ist in meinen Augen eine überragende Leistung.

Da kann man nur anerkennend den Hut ziehen und danke sagen, dass Du uns das hier zeigst!

Wie willst Du Dein Kompendium veröffentlichen?

Hochachtung und Gruß
ewm
 
Nun bin ich nun endlich zu meinem Test gekommen, wie der AF auf unterschiedliche Farbtemperaturen bei der Beleuchtung reagiert. Dazu wurde das Objektiv fest montiert (hier ein 50/1,8) und um jede Erschütterung oder Veränderung zu vermeiden die Farbfilter vor die Lampe gehalten. So sieht das Gesamtbild aus:

Übersicht_Farben.jpg

Um den kleinen Effekt am ehesten sehen zu können wurde der 2,8er AF Berech in der rechten unteren Ecke genauer untersucht. In dem gif ist das Bild mit der grünen Beleuchtung als mittlere Referenz zu sehen und wird einmal mit der blauen und einmal mit der roten Beleuchtung verglichen.

Farben.gif

Abhängig von der Farbe verschiebt sich das Bild auf dem Sensor ein kleines Stück, der AF würde also bei rotem oder blauem Licht auf einen anderen Punkt scharf stellen als bei grünem Licht.
Jetzt braucht es einen kleinen Exkurs in die Optik. Die meisten aktuellen Objektive sind achromatisch korrigiert:

Achromat_de.svg


Demnach ist die Fokusebene für grünes Licht weiter vorn als für Blau und Rot. Bei weißem Licht ist die Fokusebene an der Stelle, an der alle Farben zusammen den kleinsten Leuchtfleck hinterlassen. Jetzt denkt man super, dann macht der AF ja alles richtig. Er sieht, dass blaues Licht an einer anderen Stelle fokussiert und stellt das Objektiv auch dementsprechend leicht anders ein. So ist es auch und wenn nun der AF Sensor und der Bildsensor für alle Farben gleich empfindlich sind, ist die Welt in Ordnung. Und genau hier liegt ein Problem. Die Empfindlichkeit für Bau und Grün ist annähernd identisch, aber der AF Sensor ist für Rot viel empfindlicher als der Bildsensor (den Beweis muss ich erst mal schuldig bleiben, mein Spektrometer ist noch nicht da). Ein Grund dürfte wohl das rote Hilfslicht sein, das der Blitz zum Fokussieren aussendet, wäre er dafür nicht sehr empfindlich könnte sich das der Blitz gleich sparen.
Bei warmem Glühlampenlicht findet diese unterschiedliche Empfindlichkeit eine Rolle. Der AF Sensor sieht den stärkeren rötlichen Anteil sehr deutlich und stellt entsprechend auf eine leicht andere Stelle scharf. Auf dem eigentlichen Bild wird das Rot vor dem Sensor aber stärker gefiltert und wirkt sich daher nicht als Fokusshift auf das Bild aus und schon hat man sich einen Frontfokus gebaut. Neuere Kameramodelle messen daher die Farbtemperatur des Lichtes und versuchen diesen Versatz wieder zu kompensieren, indem sie gegenüber der eigentlichen Messung vom AF etwas den Fokus nach hinten schieben wenn sehr warmes Licht vor liegt.
 
Zuletzt bearbeitet:
Die Empfindlichkeit für Bau und Grün ist annähernd identisch, aber der AF Sensor ist für Rot viel empfindlicher als der Bildsensor (den Beweis muss ich erst mal schuldig bleiben, mein Spektrometer ist noch nicht da)

Vielleicht weil der AF keinen IR-Sperrfilter hat? Zumindest wurde mir das seinerzeit erzählt, als ich dazu mal "Messungen" gemacht habe.

Neuere Kameramodelle messen daher die Farbtemperatur des Lichtes und versuchen diesen Versatz wieder zu kompensieren, indem sie gegenüber der eigentlichen Messung vom AF etwas den Fokus nach hinten schieben wenn sehr warmes Licht vor liegt.

Interessanterweise ist der Effekt bei meiner 7D signifikant größer gewesen als bei der 5D MK II.

4 cm Fokusshift bei 7D:
https://www.dslr-forum.de/showthread.php?t=631386

5 mm Fokusshift bei 5D MK II:
https://www.dslr-forum.de/showpost.php?p=6347612&postcount=21

VG,
André
 
Die Empfindlichkeit für Bau und Grün ist annähernd identisch, aber der AF Sensor ist für Rot viel empfindlicher als der Bildsensor (den Beweis muss ich erst mal schuldig bleiben, mein Spektrometer ist noch nicht da). Ein Grund dürfte wohl das rote Hilfslicht sein, das der Blitz zum Fokussieren aussendet, wäre er dafür nicht sehr empfindlich könnte sich das der Blitz gleich sparen.

In erster Näherung, ohne Reemission oder Mischdotierung: Das Sensormaterial ist ein Photonenzähler, wenn Eines über einer gewissen Schwellenergie hereinkommt, dann wird es registriert. Unabhängig davon ob es gerade so ausreicht oder schon Richtung UV geht.
Am Anfang der Kette bekommt man allerdings aus der gleichen Energie viel mehr rote als blaue Photonen.(Und bei Einführung des AF-Hilfslicht waren blaue LEDs unbezahlbare Exoten, während helles Rot gut erhältlich war., oder das rot hat weniger Einfluss auf die Dunkeladaption des Auges, macht die Entscheidung auch leichter.)
 
Was mir bei der AF Konstruktion ein wenig unklar ist, wieso sich die Hersteller für diese eigenartigen Sensoren mit ihren einzelnen Pixelzeilen entschieden haben. Ein konventioneller Bildsensor mit "Riesenpixeln" (also quasi Nightshots Variante) wäre doch erheblich flexibler. Man hätte "beliebig" viele AF Felder und könnte beim Korrelieren ein bisschen was Aufwendigeres machen, als diese simple 1D Korrelation. Es wäre "lediglich" ein bisschen Rechenleistung notwendig. Wobei es sich bei der geringen Anzahl an Pixeln auch in Grenzen halten würde.
 
Ein bisschen Rechenleistung ist so eine Sache, wenn man daran denkt, wenn die Einführung war. :)
Dann wär da noch die Determiniertheit, also obs immer eine eindeutige Lösung gibt, oder ob sich der AF in Widersprüchen verstricken kann. Da ist eindimensional viel gutmütiger.
 
Na eben nicht. Bei einer 1D Korrelation ist es oft nicht so einfach, das richtige Maximum zu finden. Wenn man 2D korreliert, kann man auch bei schlechter strukturierten Objekten noch was machen, bzw. auch bei insgesamt schlechteren Bedingungen (wenig Licht, stärkeres Rauschen des Sensors, etc. ). Man hätte damit quasi überall einen "Kreuzsensor".
Und nur weil der erste AF Sensor ursprünglich nur aus einer Zeile bestand, heisst das doch nicht, dass man heute nicht etwas anderes machen könnte ;)
 
Die Maximum-Funktion in einer Dimension ist einfach; aber was machst du, wenn ein 2D-Sensor in nebeneinander liegenden Zeilen unterschiedliche Tiefenebenen sieht? Das wäre, als ob man den AF nicht mehr auf ein einzelnes Messfeld umschalten könnte.
Genauigkeit gewinnst du auch nicht, da helfen nur höhere Auflösung, breitere Messbasis oder weniger Rauschen.
Eher sehen wir einen Hybrid aus Kontrast und PD auf dem Bildsensor.
 
Na so leicht ist es leider nicht ;-) Wenn du zwei 1D Signale miteinander korrelierst, dann wirst du hoffentlich ein deutliches Maximum erhalten. Wenn aber die Signale nicht ideal sind, dann werden sich mehrere Maxima herausbilden, oder es wird nicht ein scharfen "peak" in der Faltungsantwort zu sehen sein, sondern ein mehr oder weniger breites Plateau. Und was ist dann richtig?
Wenn du allerdings ein 2D Muster nimmst (es wird ja letztlich immer noch entlang einer Richtung gefaltet, es wird nur ein eindeutigeres Muster gesucht), wirst du sicher einer eindeutigere Faltungsantwort erhalten. Wenn du das ganze komplett in 2D machst, dann hättest du ja einen (2d) Verschiebungsvektor (die Richtung ist ja bei dem AF Sensor zwangsläufig immer gleich (bis auf das Vorzeichen), somit ist ja nur die Länge des Vektors gesucht) - somit ist nur eine Dimension gefragt. Wenn man das ganze zweidimensional ausführen würde, könnte man sich allerdings jede Menge Justage ersparen, man könnte quasi einen autokalibrierten Autofokus bauen. Der Benutzer müsste lediglich die Kamera mal auf ein Stativ stellen und die Kalibrierprozedur anstossen, und schwups, wüsste die Kamera von selbst, wie sie bei der jeweiligen Optik sich verhalten müsste. Wenn man das ganze dann auch noch mit dem LiveView AF Algo abgleicht, wären wir hier im Forum 90% der Themen los :D
 
In erster Näherung, ohne Reemission oder Mischdotierung: Das Sensormaterial ist ein Photonenzähler, wenn Eines über einer gewissen Schwellenergie hereinkommt, dann wird es registriert. Unabhängig davon ob es gerade so ausreicht oder schon Richtung UV geht.
Du denkst schon viel zu weit, es sind einfach vor den Sensoren Filter mit unterschiedlicher spektraler Charakteristik montiert.

Was mir bei der AF Konstruktion ein wenig unklar ist, wieso sich die Hersteller für diese eigenartigen Sensoren mit ihren einzelnen Pixelzeilen entschieden haben. Ein konventioneller Bildsensor mit "Riesenpixeln" (also quasi Nightshots Variante) wäre doch erheblich flexibler.
Hat Canon ja auch über viele Jahre in der 1er Serie als Flächensensor gebaut und das war sicher nicht schlecht. Wenn ich mir den Trend in Richtung Spot-AF ansehe, bei der die Sensorzeile noch mal künstlich beschnitten wird, gehst du mit deinem Sensor in die andere Richtung und dehnst das AF Feld noch zusätzlich in die zweite Dimension aus.

Ist das zu fokussierende Objekt schön flach, bist mit so einem Sensor fein raus, erfasst dein dadurch vergrößertes AF Feld aber unterschiedliche Entfernungen hast nicht viel gewonnen.
 
Die Maximum-Funktion in einer Dimension ist einfach; aber was machst du, wenn ein 2D-Sensor in nebeneinander liegenden Zeilen unterschiedliche Tiefenebenen sieht? Das wäre, als ob man den AF nicht mehr auf ein einzelnes Messfeld umschalten könnte.

Das ist so nicht ganz richtig. Ich weiß ja nicht wie Canon den Algorithmus implementiert hat, aber normalerweise besteht die Aufgabe im Lösen eines überbestimmten Gleichungssystems. Da die Parameter des Gleichungssytems fehlerbehaftet sind (z.B Rauschen) wird das Ergebnis besser, je überbestimmter das Gleichungssytem ist.

Bei starker Überbestimmung hat man auch die Möglichkeit einer Voranalyse um z.B Ausreißer zu detektieren und nur die Gleichungen heranzuziehen, die ein bestimmtes Kriterium erfüllen, oder eine entsprechende Gewichtung vorzunehmen.

Gruß,
Manfred
 
Bei starker Überbestimmung hat man auch die Möglichkeit einer Voranalyse um z.B Ausreißer zu detektieren und nur die Gleichungen heranzuziehen, die ein bestimmtes Kriterium erfüllen, oder eine entsprechende Gewichtung vorzunehmen.

Es sei noch erwähnt, dass die Güte des Ergebnisses steigt, wenn die verschiedenen Gleichungen(Messungen) möglichst unbahängig voneinander sind. Bei Verwendung eines Kreuzsensors ist z.B. eine theoretisch absolute Unabhängigkeit gegeben. Bei Verwendung eines Fächensensors hätte man dann doch noch einige Constraints mehr.

Gruß,
Manfred
 
...
Hat Canon ja auch über viele Jahre in der 1er Serie als Flächensensor gebaut und das war sicher nicht schlecht. Wenn ich mir den Trend in Richtung Spot-AF ansehe, bei der die Sensorzeile noch mal künstlich beschnitten wird, gehst du mit deinem Sensor in die andere Richtung und dehnst das AF Feld noch zusätzlich in die zweite Dimension aus.

Ist das zu fokussierende Objekt schön flach, bist mit so einem Sensor fein raus, erfasst dein dadurch vergrößertes AF Feld aber unterschiedliche Entfernungen hast nicht viel gewonnen.
Gerade beim Spot AF wäre eine 2D Korrelation nützlich, da so das gesuchte Muster eindeutiger wird. Natürlich kann man keine beliebig grossen Flächen als Suchmuster wählen, aber lieber versuche ich z.B. ein 2x4 Patch zu korrelieren, als ein 1x8 Patch. Da ja die AF Sensorlinien ziemlich breite Pixel haben (wie du gemessen hast), wird da ja recht großflächig integriert, d.h. eine kleine Struktur geht völlig verloren.
Man müsst mal ausrechnen, was die kleinste mögliche Pixelgröße bei der von dir bestimmten f29 Apertur wäre.
 
WERBUNG
Zurück
Oben Unten