Wenn es jemand weiß, bitte sofort an Canon weitergeben das die es auch Wissen 
.

.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Einfach weil sie so gut wie jede andere Messung ist, und damit mit einem Fehler behaftet. Der zu erwartende Fehler ergibt sich u.A. aus der Meßmethode und unterliegt einer Verteilung. Aus dem Grunde ist es auch völlig egal, ob eine geschlossene Regelung das Objektiv genau an den Sollpunkt bringt. Wenn die Messung zur Berechnung des Sollpunkts fehlerbehaftet war, dann steht es halt genau knapp daneben. Wenn man jetzt noch weiter annimmt, daß die Messung der Phasenverschiebung mit größerem Fehler behaftet ist als die Positionierung, dann kann man sich die Rückkopplung dabei gleich sparen.Ansonstenas halt ich für schwer nachvollziehbar. Warum sollte eine 2. Messung deutlich ungenauer sein?
Jede AF Sensorzeile kann zwar ein scharfes Bild sehen, aber die eigentliche Messung ist ja der Vergleich der beiden zugehörigen AF Sensorzeilen. Der Versatz gibt die Größe der Defokussierung vor.Klingt einleuchtend, aber wenn eine große Defokussierung kaum Auswirkungen hat, wie soll dann kleine zuverlässig gemessen werden?
Ich hab zwar schon viel ausgemessen, aber die machen es nicht wirklich verständlicher, zudem die immer stark von dem Kameramodel und Objektiv abhängig sind.Hier währen vielleicht ein paar Zahlen sinnvoll, wenn Du welche hast.
Dazu nochmal eben eine Frage. Ich habe ja das Tamron 70-200. Dort ist es so, dass wenn ich z.B. bei 200mm auf Naheinstellgrenze bin und dann in die Ferne schaue ich praktisch nichts mehr sehe, weil alles logischer Weise unscharf ist. Jedoch sieht der AF-Sensor scheinbar auch nichts mehr, denn irgendwie schafft er es nicht das Objektiv wieder in die richtige Richtung zu drehen (Richtung Unendlich). Hängt das nun damit zusammen, dass der Phasenversatz dann zu groß ist, oder hängt es damit zusammen, dass das dann selbst für den AF-Sensor zu unscharf ist. Bei 200mm und f/2.8 ist der Schärfentiefe ja wirklich gering, besonders wenn der Fokus noch auf 0.95m steht. Es ist bloß manchmal sehr nervig, dass man ohne manuelles eingreifen gar nicht mehr aus dem Nahbereich rauskommt.Jede AF Sensorzeile kann zwar ein scharfes Bild sehen, aber die eigentliche Messung ist ja der Vergleich der beiden zugehörigen AF Sensorzeilen. Der Versatz gibt die Größe der Defokussierung vor.
Dazu nochmal eben eine Frage. Ich habe ja das Tamron 70-200. Dort ist es so, dass wenn ich z.B. bei 200mm auf Naheinstellgrenze bin und dann in die Ferne schaue ich praktisch nichts mehr sehe, weil alles logischer Weise unscharf ist. Jedoch sieht der AF-Sensor scheinbar auch nichts mehr, denn irgendwie schafft er es nicht das Objektiv wieder in die richtige Richtung zu drehen (Richtung Unendlich). Hängt das nun damit zusammen, dass der Phasenversatz dann zu groß ist, oder hängt es damit zusammen, dass das dann selbst für den AF-Sensor zu unscharf ist. Bei 200mm und f/2.8 ist der Schärfentiefe ja wirklich gering, besonders wenn der Fokus noch auf 0.95m steht. Es ist bloß manchmal sehr nervig, dass man ohne manuelles eingreifen gar nicht mehr aus dem Nahbereich rauskommt.
Bis auf die leichte Unschärfe auf der Sensorzeile bei starker Defokussierung ist der Messfehler unabhängig von der Messgröße. Der Messfehler resultiert aus der Pixelauflösung der Sensorzeilen. Dazu kommt auch noch das Rauschen bei wenig Licht. Ja, auch der AF Sensor hat Bildrauschen.Einfach weil sie so gut wie jede andere Messung ist, und damit mit einem Fehler behaftet. Der zu erwartende Fehler ergibt sich u.A. aus der Meßmethode und unterliegt einer Verteilung.
Das ist aber nicht der Fall.Wenn man jetzt noch weiter annimmt, daß die Messung der Phasenverschiebung mit größerem Fehler behaftet ist als die Positionierung, dann kann man sich die Rückkopplung dabei gleich sparen.
Das lässt sich so pauschal nicht beantworten. Bei starker Defokussierung wird zuerst nur der 5,6er AF Sensor verwendet, erst später wird der 2,8er AF Sensor zugeschalten. Ist der Phasenversatz für den 5,6er Sensor zu groß kann je nach Kameramodel im mittleren AF Feld noch eine Zeilenerweiterung zugeschalten werden um doch zu einem direkten Messwert zu kommen. Ob nun das Bild auf der AF Sensorzeile zu unscharf ist oder der Phasenversatz zu groß lässt sich so nicht beantworten. Man könnte die Kamera an den Servicecomputer hängen, damit lässt sich das Bild auf der Sensorzeile auslesen, dann wüsste man es genau.Ich habe ja das Tamron 70-200. Dort ist es so, dass wenn ich z.B. bei 200mm auf Naheinstellgrenze bin und dann in die Ferne schaue ich praktisch nichts mehr sehe, weil alles logischer Weise unscharf ist. Jedoch sieht der AF-Sensor scheinbar auch nichts mehr, denn irgendwie schafft er es nicht das Objektiv wieder in die richtige Richtung zu drehen (Richtung Unendlich). Hängt das nun damit zusammen, dass der Phasenversatz dann zu groß ist, oder hängt es damit zusammen, dass das dann selbst für den AF-Sensor zu unscharf ist. Bei 200mm und f/2.8 ist der Schärfentiefe ja wirklich gering, besonders wenn der Fokus noch auf 0.95m steht.
Also mit AF Search muss das Objektiv auch aus dem Nahbereich ohne Eingreifen raus fahren, sonst ist der Schalter für den Endanschlag defekt.Es ist bloß manchmal sehr nervig, dass man ohne manuelles eingreifen gar nicht mehr aus dem Nahbereich rauskommt.
Ui, gut dass du es sagst. Da ich das Objektiv eh gerade wegen Frontfokus einschicken wollte werde ich das gleich mal mit vermerken.Also mit AF Search muss das Objektiv auch aus dem Nahbereich ohne Eingreifen raus fahren, sonst ist der Schalter für den Endanschlag defekt.
Der Versatz gibt die Größe der Defokussierung vor.
Das ist aber nicht der Fall.
Ein periodisches Muster? Das geht schlicht nicht. Der AF kann auch nur Dinge scharf stellen, die du auch mit einem Schnittbild scharf stellen könntest. Eine weiße unstrukturierte Wand, ein periodisches Muster im Raster, kontrastlose Strukturen können schlicht nicht für die Fokussierung verwendet werden.Natürlich spielt das nur eine geringe Rolle, wenn man die Schwerpunkte einer Linie im Schnittbild korrelieren will. Aber wie sieht es mit Mustern aus?
Ich würde sagen selbst gemacht. Kann man sich ja ganz leicht zusammenreimen. So eine AF-Sensorzeile ist nur eine Zeile, die entweder horizontal oder vertikal ausgerichtet ist. Die Auflösung ist also 1x?? Pixel (wie eine CCD-Zeile im Scanner). Da jede Zeile das Objekt aus einer anderen Position sieht hat man einen Versatz bedingt durch die andere räumliche Position des Sensors. Genauso wie die beiden Augen auch zwei unterschiedliche Bilder erzeugen, die dann im Gehirn zu einem 3D Bild zusammen gesetzt werden. Genau das gleiche macht die Kamera auch indem sie versucht den Fokus so zu korrigieren, dass die Beiden "Bilder" Der Sensorzeilen übereinander liegen.Interessantes Beispiel - woher stammt das?
Nur mal so aus Interesse.
Ja, nur wird keine Fläche simuliert sondern eben eine horizontale und vertikale Messeinheit. Vertikale Kontraste werden nicht erkannt (dafür gibt es wieder andere Kreuzsensoren die vertikal ausgerichtet sind. Die "Fläche" die man im Sucher sieht dient nur zur optischen Hilfe.Und da ist meine erste Frage die nach der realen Groesse der Focuspunkte. Wenn ich einige der letzteren Beitraege jetzt richtig interpretiere, ist ein Focussensor keine Flaeche, sondern eine (1 oder wenig "real" Pixels breite) Linie. Und mit dem Kreuzsensorprinzip hab ich dann ein Kreuz aus zwei Linien, die eine Flaeche simulieren, aber dennoch nicht ueber der gesamten von ihnen aufgespannten Flaeche messen koennen. Ist das prinzipiell richtig?
Müsste man mal messen. Ich schätze anhand der Abbildungen aus dem Netz so ca. 1-2mm. Davor befindet sich aber noch ein Linsensystem dass die Lichtstrahlen bündelt.Wenn ja, wie lange sind diese Linien?
Genaue Maße kenne ich nicht, aber die Fläche die man im Sucher sieht, ist auf jeden Fall etwas kleiner. Das kann man aber einfach ausprobieren (Blatt Papier mit einer Linie drauf und dann mal testen)Es gibt Hinweise von Canon in diversen Dokumentationen, dass die Groesse der angezeigten Autofokus"punkte" (ja eher Flaechen) nicht uebereinstimmt mit deren tatsaechlichen Dimensionen? Gibt es da eindeutige Antworten, so wie etwa "Bei der 1DMkIII sind sie etwa 50% laenger und 25% breiter als angezeigt: bei der 40D und 50D etwa doppelt so gross wie angezeigt", usw.?
Nee so klappt das nicht. Der Sensor hat einen Algorithmus an den er sich auch hält. Wenn der Algorithmus sagt größte Übereinstimmung bei Phase X dann ist der Phasenversatz halt X.Und, naechste Frage: Wie entscheidet sich der Autofocusprozessor im Fall, dass mehrere unterschiedliche Schaerfeebenen im Bereich des/der ausgewaehlten Sensorenbereiche liegen?
Kann der Sensor respektive der Algorhythmus etwa vereinfacht gesage folgendes feststellen:" Hier sind drei signifikante Schaerfeebenen im Sichtbereich des Sensors: Von links nach Rechts erst ca. 70 Meter (die ersten 32% der Laenge), dann 6.4 meter (22% der Laenge) und schliesslich 56 Meter bis zum Ende." Und dann greift eine programmierte Regel die besagt, auf die kuerzeste Entfernung wird eingestellt, falls diese Ebene mindestens 10% der Sensorlaenge entspricht. Ist diese aber fuer weniger als 10% verantwortlich, dann wird auf die naechst weiter entferntere Ebene scharf gestellt, und so weiter.
Er macht dann gar nichts, er bewegt das Objektiv dazu den Fokus hin und her zudrehen und der Hoffnung bei einer anderen Fokusstellung vielleicht doch noch einen Kontrast zu finden.Also, kann der Phasenautofokus feststellen, dass mehrere Entfernungsebenen im ausgewaehlten Sensor existieren? Und falls nicht (und unter der Annahme, dass keine prinzipiellen Hindernisse fuer exakten Fokus in diesen Ebenen existieren, also keine Muster, Bereiche mit zu geringem Kontrast, unzuereichender Beleuchtung usw.), was macht er dann?
Genau und genau deswegen kann der Sensor den Phasenversatz gut erkennen.Im Beispielfoto von Nightshot ist das Dilemma ja gut zu erkennen: Ein grosser Teil des Sensors sieht den Hintergrund, nur ein Bruchteil kann den Ast wahrnehmen.
So ist es aber schon ganz richtig.Ich habe oefters (jetzt mit der 7D) bei schlechten Lichtverhaeltnissen gravierende Fehlfocusergebnisse gehabt, wo (bei Einzelmesspunktauswahl!) das anvisierte Motiv unscharf war, und der nicht allzu weit entfernte Hintergrund (welcher heller und kontrastreicher war als das gewaehlte Motiv) scharf. Ich habe mir das bislang, unter der Annahme, der Sensor waere flaechig, aber eben groesser als angezeigt, damit erklaeren wollen, dass der Sensor eben den kontrastreichen Hintergrund auch gesehen hat, und halt, da das der einzige erfolgreiche Messpunkt war, darauf scharf gestellt hat. Aber da kann ich wohl auch schief liegen mit meiner Erklaerung.
Danke fuer die Antworten. Vielleicht reden wir ja aneinander vorbei, und ich kapier was nicht, aber:
Was genau passiert, wenn mehrere Schaerfeebenen im Bereich welchen der Sensor umfasst, existieren, wie im Bild von Nightshot (Aeste im Vordergrund vs. Landschaft im Hintergrund)? Ist die Entscheidung fuer entweder VG oder HG jetzt zufaellig? Oder davon abhaengig, wo mehr Kontrast ist? Und wenn Letzteres, was waere wenn beide Bereiche gleiche Kontrasteigenschaften haben? Stell Dir vor zwei Tafeln mit kontrastreichen Zeichnungen, eine 5 Meter die andere 20 Meter entfernt. Der Sensor sieht beide Tafeln, eine links und eine rechts. Auf welche Entfernung fokussiert er?
Danke fuer die Antwort, jetzt wird es klarer.So wie Nightshot oben geschrieben hat, ist die Entscheidung nicht zufällig. Existieren mehrere Schärfeebenen und werden die auch erkannt, dann entscheidet sich die Kamera für den Vordergrund.
Die Motivsituation ist ja auch häufig so, dass man ein Motiv im Vordergrund hat und der Hintergrund unscharf sein soll.
Wenn ich jetzt noch wuesste, wie dimensionirt die Sensoren sind, koennte ich wohl gut abschaetzen, welcher Bereich fokussiert wird, respektive durch Wahl des Sensors die "richtige" Entscheidung beeinflussen.