• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wie funktioniert der AF bei Canon genau?

Wenn es jemand weiß, bitte sofort an Canon weitergeben das die es auch Wissen :evil:

.
 
Ansonsten:Das halt ich für schwer nachvollziehbar. Warum sollte eine 2. Messung deutlich ungenauer sein?
Einfach weil sie so gut wie jede andere Messung ist, und damit mit einem Fehler behaftet. Der zu erwartende Fehler ergibt sich u.A. aus der Meßmethode und unterliegt einer Verteilung. Aus dem Grunde ist es auch völlig egal, ob eine geschlossene Regelung das Objektiv genau an den Sollpunkt bringt. Wenn die Messung zur Berechnung des Sollpunkts fehlerbehaftet war, dann steht es halt genau knapp daneben. Wenn man jetzt noch weiter annimmt, daß die Messung der Phasenverschiebung mit größerem Fehler behaftet ist als die Positionierung, dann kann man sich die Rückkopplung dabei gleich sparen.

Wie gesagt, ich habe leider weder Zahlen noch interne Kenntnisse zu den AF Systemen der verschiedenen Hersteller. Mir geht es nur um Deine pauschale Behauptung, Regelkreise mit Rückkopplung wären prinzipiell besser.
 
Klingt einleuchtend, aber wenn eine große Defokussierung kaum Auswirkungen hat, wie soll dann kleine zuverlässig gemessen werden?
Jede AF Sensorzeile kann zwar ein scharfes Bild sehen, aber die eigentliche Messung ist ja der Vergleich der beiden zugehörigen AF Sensorzeilen. Der Versatz gibt die Größe der Defokussierung vor.

Hier währen vielleicht ein paar Zahlen sinnvoll, wenn Du welche hast.
Ich hab zwar schon viel ausgemessen, aber die machen es nicht wirklich verständlicher, zudem die immer stark von dem Kameramodel und Objektiv abhängig sind.
 
Jede AF Sensorzeile kann zwar ein scharfes Bild sehen, aber die eigentliche Messung ist ja der Vergleich der beiden zugehörigen AF Sensorzeilen. Der Versatz gibt die Größe der Defokussierung vor.
Dazu nochmal eben eine Frage. Ich habe ja das Tamron 70-200. Dort ist es so, dass wenn ich z.B. bei 200mm auf Naheinstellgrenze bin und dann in die Ferne schaue ich praktisch nichts mehr sehe, weil alles logischer Weise unscharf ist. Jedoch sieht der AF-Sensor scheinbar auch nichts mehr, denn irgendwie schafft er es nicht das Objektiv wieder in die richtige Richtung zu drehen (Richtung Unendlich). Hängt das nun damit zusammen, dass der Phasenversatz dann zu groß ist, oder hängt es damit zusammen, dass das dann selbst für den AF-Sensor zu unscharf ist. Bei 200mm und f/2.8 ist der Schärfentiefe ja wirklich gering, besonders wenn der Fokus noch auf 0.95m steht. Es ist bloß manchmal sehr nervig, dass man ohne manuelles eingreifen gar nicht mehr aus dem Nahbereich rauskommt.
 
Dazu nochmal eben eine Frage. Ich habe ja das Tamron 70-200. Dort ist es so, dass wenn ich z.B. bei 200mm auf Naheinstellgrenze bin und dann in die Ferne schaue ich praktisch nichts mehr sehe, weil alles logischer Weise unscharf ist. Jedoch sieht der AF-Sensor scheinbar auch nichts mehr, denn irgendwie schafft er es nicht das Objektiv wieder in die richtige Richtung zu drehen (Richtung Unendlich). Hängt das nun damit zusammen, dass der Phasenversatz dann zu groß ist, oder hängt es damit zusammen, dass das dann selbst für den AF-Sensor zu unscharf ist. Bei 200mm und f/2.8 ist der Schärfentiefe ja wirklich gering, besonders wenn der Fokus noch auf 0.95m steht. Es ist bloß manchmal sehr nervig, dass man ohne manuelles eingreifen gar nicht mehr aus dem Nahbereich rauskommt.

Das sollte eigentlich nicht passieren, denn wenn der AF nichts erkennt durchfährt er normalerweise den gesamten Fokusbereich. Erkennt er währenddessen auch nichts bleibt er stehen.
 
Einfach weil sie so gut wie jede andere Messung ist, und damit mit einem Fehler behaftet. Der zu erwartende Fehler ergibt sich u.A. aus der Meßmethode und unterliegt einer Verteilung.
Bis auf die leichte Unschärfe auf der Sensorzeile bei starker Defokussierung ist der Messfehler unabhängig von der Messgröße. Der Messfehler resultiert aus der Pixelauflösung der Sensorzeilen. Dazu kommt auch noch das Rauschen bei wenig Licht. Ja, auch der AF Sensor hat Bildrauschen.

Wenn man jetzt noch weiter annimmt, daß die Messung der Phasenverschiebung mit größerem Fehler behaftet ist als die Positionierung, dann kann man sich die Rückkopplung dabei gleich sparen.
Das ist aber nicht der Fall.

Ich habe ja das Tamron 70-200. Dort ist es so, dass wenn ich z.B. bei 200mm auf Naheinstellgrenze bin und dann in die Ferne schaue ich praktisch nichts mehr sehe, weil alles logischer Weise unscharf ist. Jedoch sieht der AF-Sensor scheinbar auch nichts mehr, denn irgendwie schafft er es nicht das Objektiv wieder in die richtige Richtung zu drehen (Richtung Unendlich). Hängt das nun damit zusammen, dass der Phasenversatz dann zu groß ist, oder hängt es damit zusammen, dass das dann selbst für den AF-Sensor zu unscharf ist. Bei 200mm und f/2.8 ist der Schärfentiefe ja wirklich gering, besonders wenn der Fokus noch auf 0.95m steht.
Das lässt sich so pauschal nicht beantworten. Bei starker Defokussierung wird zuerst nur der 5,6er AF Sensor verwendet, erst später wird der 2,8er AF Sensor zugeschalten. Ist der Phasenversatz für den 5,6er Sensor zu groß kann je nach Kameramodel im mittleren AF Feld noch eine Zeilenerweiterung zugeschalten werden um doch zu einem direkten Messwert zu kommen. Ob nun das Bild auf der AF Sensorzeile zu unscharf ist oder der Phasenversatz zu groß lässt sich so nicht beantworten. Man könnte die Kamera an den Servicecomputer hängen, damit lässt sich das Bild auf der Sensorzeile auslesen, dann wüsste man es genau.

Es ist bloß manchmal sehr nervig, dass man ohne manuelles eingreifen gar nicht mehr aus dem Nahbereich rauskommt.
Also mit AF Search muss das Objektiv auch aus dem Nahbereich ohne Eingreifen raus fahren, sonst ist der Schalter für den Endanschlag defekt.
 
Entwarnung, habs gerade nochmal getestet, es fährt doch wieder zurück. Da war ich wohl ein paar mal zu ungeduldig und habe den Auslöser wieder losgelassen, bevor das Objektiv wieder zurückgedreht hat.
 
Das ist aber nicht der Fall.

Genau hier wären Zahlen interessant. Du selbst hast ja mit geringer Öffnung argumentiert, also einer Abbildungsleistung, die deutlich unter der des offenen Objektivs liegt. Natürlich spielt das nur eine geringe Rolle, wenn man die Schwerpunkte einer Linie im Schnittbild korrelieren will. Aber wie sieht es mit Mustern aus?
 
Natürlich spielt das nur eine geringe Rolle, wenn man die Schwerpunkte einer Linie im Schnittbild korrelieren will. Aber wie sieht es mit Mustern aus?
Ein periodisches Muster? Das geht schlicht nicht. Der AF kann auch nur Dinge scharf stellen, die du auch mit einem Schnittbild scharf stellen könntest. Eine weiße unstrukturierte Wand, ein periodisches Muster im Raster, kontrastlose Strukturen können schlicht nicht für die Fokussierung verwendet werden.

Ich hab einfach mal ein Beispiel angehängt. Eine schlichte Landschaft und rot markiert die Stelle auf der der AF Sensor zeigt und auf den Zweig soll scharf gestellt werden. Im zweiten Bild sind die Daten, die der AF Sensor sehen würde. Auch wenn er hier noch kein scharfes Bild erhält, aber die Phasendifferenz ist schon exakt bestimmbar.
 
Interessantes Beispiel - woher stammt das?
Nur mal so aus Interesse.
Und schön, das es mal langsam konkret wird :D - nach mehr als 100 Beiträgen...
 
Interessantes Beispiel - woher stammt das?
Nur mal so aus Interesse.
Ich würde sagen selbst gemacht. Kann man sich ja ganz leicht zusammenreimen. So eine AF-Sensorzeile ist nur eine Zeile, die entweder horizontal oder vertikal ausgerichtet ist. Die Auflösung ist also 1x?? Pixel (wie eine CCD-Zeile im Scanner). Da jede Zeile das Objekt aus einer anderen Position sieht hat man einen Versatz bedingt durch die andere räumliche Position des Sensors. Genauso wie die beiden Augen auch zwei unterschiedliche Bilder erzeugen, die dann im Gehirn zu einem 3D Bild zusammen gesetzt werden. Genau das gleiche macht die Kamera auch indem sie versucht den Fokus so zu korrigieren, dass die Beiden "Bilder" Der Sensorzeilen übereinander liegen.

Wenn du nun z.B. ein gleichmäßiges Muster hast (z.B. viele vertikale Linien im gleichem Abstand) dann kann es vorkommen, dass der Phasenversatz mehrere Mögliche Punkte hat wo der Phasenversatz "0" zu sein scheint. Folglich kann man dann nicht mehr scharfstellen. Dies passiert aber nur, wenn die Unterschiede wirklich fast 0 sind. In der Praxis hält man ja die Kamera z.B. etwas schräg, oder die Beleuchtung ist nicht ganz homogen etc. das reicht schon, dass die Kamera den Phasenversatz wieder richtig bestimmen kann. Es wird ja nicht nur nach den "stärksten" Stich vergleichen, sondern über Korrelation die größte Übereinstimmung. Das AF-System misst also "um wieviel Pixel muss ich Zeile 1 gegenüber Zeile 2 verschieben, sodass die Übereinstimmung am größten ist". Es spielen also auch die Pixel neben dem deutlichsten eine Rolle.
 
Zuletzt bearbeitet:
Die Korrelation ist sogar noch etwas komplizierter. Was du beschreibst ist die Fokussierung auf eine ebene Fläche parallel zur Sensoroberfläche und damit ein Idealfall. In der Regel wird das aber eine Mischung aus den unterschiedlichsten Ebenen sein was der Sensor zu sehen bekommt. Der Algorithmus ist so schlau, dass er die Ebenen identifizieren kann und wählt die mit dem geringsten Abstand zur Kamera.
 
Ich hoffe ich blamiere mich jetzt nicht mit meiner Frage und meinen Ueberlegungen. Aber da ich immer wieder "erstaunliche" Ergebnisse beim Autofocus erhalte, habe ich mir so meine Gedanken gemacht.

Vorausschicken moechte ich, dass ich mich nicht wirklich auskenne in dieser Technologie, und die Focusmessung daher in einer Art Black Box Prinzip zu verstehen versuche.

Und da ist meine erste Frage die nach der realen Groesse der Focuspunkte. Wenn ich einige der letzteren Beitraege jetzt richtig interpretiere, ist ein Focussensor keine Flaeche, sondern eine (1 oder wenig "real" Pixels breite) Linie. Und mit dem Kreuzsensorprinzip hab ich dann ein Kreuz aus zwei Linien, die eine Flaeche simulieren, aber dennoch nicht ueber der gesamten von ihnen aufgespannten Flaeche messen koennen. Ist das prinzipiell richtig?
Wenn ja, wie lange sind diese Linien?
Es gibt Hinweise von Canon in diversen Dokumentationen, dass die Groesse der angezeigten Autofokus"punkte" (ja eher Flaechen) nicht uebereinstimmt mit deren tatsaechlichen Dimensionen? Gibt es da eindeutige Antworten, so wie etwa "Bei der 1DMkIII sind sie etwa 50% laenger und 25% breiter als angezeigt: bei der 40D und 50D etwa doppelt so gross wie angezeigt", usw.?

Und, naechste Frage: Wie entscheidet sich der Autofocusprozessor im Fall, dass mehrere unterschiedliche Schaerfeebenen im Bereich des/der ausgewaehlten Sensorenbereiche liegen?
Kann der Sensor respektive der Algorhythmus etwa vereinfacht gesage folgendes feststellen:" Hier sind drei signifikante Schaerfeebenen im Sichtbereich des Sensors: Von links nach Rechts erst ca. 70 Meter (die ersten 32% der Laenge), dann 6.4 meter (22% der Laenge) und schliesslich 56 Meter bis zum Ende." Und dann greift eine programmierte Regel die besagt, auf die kuerzeste Entfernung wird eingestellt, falls diese Ebene mindestens 10% der Sensorlaenge entspricht. Ist diese aber fuer weniger als 10% verantwortlich, dann wird auf die naechst weiter entferntere Ebene scharf gestellt, und so weiter.
Also, kann der Phasenautofokus feststellen, dass mehrere Entfernungsebenen im ausgewaehlten Sensor existieren? Und falls nicht (und unter der Annahme, dass keine prinzipiellen Hindernisse fuer exakten Fokus in diesen Ebenen existieren, also keine Muster, Bereiche mit zu geringem Kontrast, unzuereichender Beleuchtung usw.), was macht er dann?

Im Beispielfoto von Nightshot ist das Dilemma ja gut zu erkennen: Ein grosser Teil des Sensors sieht den Hintergrund, nur ein Bruchteil kann den Ast wahrnehmen.

Ich habe oefters (jetzt mit der 7D) bei schlechten Lichtverhaeltnissen gravierende Fehlfocusergebnisse gehabt, wo (bei Einzelmesspunktauswahl!) das anvisierte Motiv unscharf war, und der nicht allzu weit entfernte Hintergrund (welcher heller und kontrastreicher war als das gewaehlte Motiv) scharf. Ich habe mir das bislang, unter der Annahme, der Sensor waere flaechig, aber eben groesser als angezeigt, damit erklaeren wollen, dass der Sensor eben den kontrastreichen Hintergrund auch gesehen hat, und halt, da das der einzige erfolgreiche Messpunkt war, darauf scharf gestellt hat. Aber da kann ich wohl auch schief liegen mit meiner Erklaerung.
 
Und da ist meine erste Frage die nach der realen Groesse der Focuspunkte. Wenn ich einige der letzteren Beitraege jetzt richtig interpretiere, ist ein Focussensor keine Flaeche, sondern eine (1 oder wenig "real" Pixels breite) Linie. Und mit dem Kreuzsensorprinzip hab ich dann ein Kreuz aus zwei Linien, die eine Flaeche simulieren, aber dennoch nicht ueber der gesamten von ihnen aufgespannten Flaeche messen koennen. Ist das prinzipiell richtig?
Ja, nur wird keine Fläche simuliert sondern eben eine horizontale und vertikale Messeinheit. Vertikale Kontraste werden nicht erkannt (dafür gibt es wieder andere Kreuzsensoren die vertikal ausgerichtet sind. Die "Fläche" die man im Sucher sieht dient nur zur optischen Hilfe.
Wenn ja, wie lange sind diese Linien?
Müsste man mal messen. Ich schätze anhand der Abbildungen aus dem Netz so ca. 1-2mm. Davor befindet sich aber noch ein Linsensystem dass die Lichtstrahlen bündelt.
Es gibt Hinweise von Canon in diversen Dokumentationen, dass die Groesse der angezeigten Autofokus"punkte" (ja eher Flaechen) nicht uebereinstimmt mit deren tatsaechlichen Dimensionen? Gibt es da eindeutige Antworten, so wie etwa "Bei der 1DMkIII sind sie etwa 50% laenger und 25% breiter als angezeigt: bei der 40D und 50D etwa doppelt so gross wie angezeigt", usw.?
Genaue Maße kenne ich nicht, aber die Fläche die man im Sucher sieht, ist auf jeden Fall etwas kleiner. Das kann man aber einfach ausprobieren (Blatt Papier mit einer Linie drauf und dann mal testen)
Und, naechste Frage: Wie entscheidet sich der Autofocusprozessor im Fall, dass mehrere unterschiedliche Schaerfeebenen im Bereich des/der ausgewaehlten Sensorenbereiche liegen?
Kann der Sensor respektive der Algorhythmus etwa vereinfacht gesage folgendes feststellen:" Hier sind drei signifikante Schaerfeebenen im Sichtbereich des Sensors: Von links nach Rechts erst ca. 70 Meter (die ersten 32% der Laenge), dann 6.4 meter (22% der Laenge) und schliesslich 56 Meter bis zum Ende." Und dann greift eine programmierte Regel die besagt, auf die kuerzeste Entfernung wird eingestellt, falls diese Ebene mindestens 10% der Sensorlaenge entspricht. Ist diese aber fuer weniger als 10% verantwortlich, dann wird auf die naechst weiter entferntere Ebene scharf gestellt, und so weiter.
Nee so klappt das nicht. Der Sensor hat einen Algorithmus an den er sich auch hält. Wenn der Algorithmus sagt größte Übereinstimmung bei Phase X dann ist der Phasenversatz halt X.
Also, kann der Phasenautofokus feststellen, dass mehrere Entfernungsebenen im ausgewaehlten Sensor existieren? Und falls nicht (und unter der Annahme, dass keine prinzipiellen Hindernisse fuer exakten Fokus in diesen Ebenen existieren, also keine Muster, Bereiche mit zu geringem Kontrast, unzuereichender Beleuchtung usw.), was macht er dann?
Er macht dann gar nichts, er bewegt das Objektiv dazu den Fokus hin und her zudrehen und der Hoffnung bei einer anderen Fokusstellung vielleicht doch noch einen Kontrast zu finden.
Im Beispielfoto von Nightshot ist das Dilemma ja gut zu erkennen: Ein grosser Teil des Sensors sieht den Hintergrund, nur ein Bruchteil kann den Ast wahrnehmen.
Genau und genau deswegen kann der Sensor den Phasenversatz gut erkennen.
Ich habe oefters (jetzt mit der 7D) bei schlechten Lichtverhaeltnissen gravierende Fehlfocusergebnisse gehabt, wo (bei Einzelmesspunktauswahl!) das anvisierte Motiv unscharf war, und der nicht allzu weit entfernte Hintergrund (welcher heller und kontrastreicher war als das gewaehlte Motiv) scharf. Ich habe mir das bislang, unter der Annahme, der Sensor waere flaechig, aber eben groesser als angezeigt, damit erklaeren wollen, dass der Sensor eben den kontrastreichen Hintergrund auch gesehen hat, und halt, da das der einzige erfolgreiche Messpunkt war, darauf scharf gestellt hat. Aber da kann ich wohl auch schief liegen mit meiner Erklaerung.
So ist es aber schon ganz richtig.
 
Danke fuer die Antworten. Vielleicht reden wir ja aneinander vorbei, und ich kapier was nicht, aber:

Was genau passiert, wenn mehrere Schaerfeebenen im Bereich welchen der Sensor umfasst, existieren, wie im Bild von Nightshot (Aeste im Vordergrund vs. Landschaft im Hintergrund)? Ist die Entscheidung fuer entweder VG oder HG jetzt zufaellig? Oder davon abhaengig, wo mehr Kontrast ist? Und wenn Letzteres, was waere wenn beide Bereiche gleiche Kontrasteigenschaften haben? Stell Dir vor zwei Tafeln mit kontrastreichen Zeichnungen, eine 5 Meter die andere 20 Meter entfernt. Der Sensor sieht beide Tafeln, eine links und eine rechts. Auf welche Entfernung fokussiert er?
 
Danke fuer die Antworten. Vielleicht reden wir ja aneinander vorbei, und ich kapier was nicht, aber:

Was genau passiert, wenn mehrere Schaerfeebenen im Bereich welchen der Sensor umfasst, existieren, wie im Bild von Nightshot (Aeste im Vordergrund vs. Landschaft im Hintergrund)? Ist die Entscheidung fuer entweder VG oder HG jetzt zufaellig? Oder davon abhaengig, wo mehr Kontrast ist? Und wenn Letzteres, was waere wenn beide Bereiche gleiche Kontrasteigenschaften haben? Stell Dir vor zwei Tafeln mit kontrastreichen Zeichnungen, eine 5 Meter die andere 20 Meter entfernt. Der Sensor sieht beide Tafeln, eine links und eine rechts. Auf welche Entfernung fokussiert er?

So wie Nightshot oben geschrieben hat, ist die Entscheidung nicht zufällig. Existieren mehrere Schärfeebenen und werden die auch erkannt, dann entscheidet sich die Kamera für den Vordergrund. Die Motivsituation ist ja auch häufig so, dass man ein Motiv im Vordergrund hat und der Hintergrund unscharf sein soll.
 
So wie Nightshot oben geschrieben hat, ist die Entscheidung nicht zufällig. Existieren mehrere Schärfeebenen und werden die auch erkannt, dann entscheidet sich die Kamera für den Vordergrund.
Danke fuer die Antwort, jetzt wird es klarer.


Die Motivsituation ist ja auch häufig so, dass man ein Motiv im Vordergrund hat und der Hintergrund unscharf sein soll.

Haeufig so, ja. Aber auch manchmal anders. Gut zu wissen was passiert. Wenn ich jetzt noch wuesste, wie dimensioniert die Sensoren sind, koennte ich wohl gut abschaetzen, welcher Bereich fokussiert wird, respektive durch Wahl des Sensors und des Ausschnitts welchen der Sensor sieht, die "richtige" Entscheidung beeinflussen.
 
Zuletzt bearbeitet:
Wenn ich jetzt noch wuesste, wie dimensionirt die Sensoren sind, koennte ich wohl gut abschaetzen, welcher Bereich fokussiert wird, respektive durch Wahl des Sensors die "richtige" Entscheidung beeinflussen.

Die Sensoren haben im Allgemeinen eine größere Ausdehnung als die Markierung im Sucher. Wieviel größer ist sicher abhängig vom Kameramodell und lässt sich nicht pauschal beantworten. Am besten, Du testest es selbst mal aus (siehe Post von MasterFX). Hat auch den Vorteil, dass Du dabei ein Gefühl für den AF an Deiner Kamera bekommst. Das ist sicher hilfreicher als irgendeine Zahl.
 
WERBUNG
Zurück
Oben Unten