• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

E SONY a6300

Ist, wenn man dem Video glaubt, immer noch so. Und natürlich sind das Standbilder.

*gna* Ja, aber es ist eine sehr schnelle Abfolge von Standbildern. Wenn Du es so sehen möchtest, besteht jeder Film aus Standbildern...
 
Um was geht es hier denn?

Ob Standbild oder nicht ist gar nicht entscheidend um ein Objekt zu verfolgen, sondern die Frage, ob es sich in dem Moment, wo es angezeigt wird noch an der angezeigten Position befindet. Jedes Video besteht aus Standbildern und im H-Mode zeigt die a6300 ein Live-Video mit 8fps.

Der Knackpunkt ist, dass jedes einzelne Bild live ist, während im 11fps-Modus das letzte gemachte Bild angezeigt wird, d.h. die gesamte 11fps-Videosequenz hat durchweg Belichtung + Auslesezeit Verzögerung oder anders ausgedrückt: dort wo das zu verfolgende Objekt angezeigt wird, ist es im 11fps -Modus in dem Moment nicht mehr.
 
Zuletzt bearbeitet:
Genau so ist es.
Wobei 8 Bilder pro Sekunde, auch wenn sie live, d.h. ohne Verzögerung sind, natürlich keinen flüssigen Bewegungsablauf zeigen.
Das ist der Unterschied zu einer DSLR, die zwischen den Dunkelphasen eben nicht Bilder vom Sensor abgreift, sondern den Blick durch optischen Sucher/Prisma/Objektiv zeigt, der natürlich nicht aus "Standbildern" besteht. Deshalb sieht man im Video von dpreview bei der DSLR zwischen den Dunkelphasen den Bewegungsablauf, bei der A6300 eine Folge von Momentaufnahmen. Aber bis 8fps eben ohne Verzögerung.
Zumindest würde ich mir das so erklären...
Ist das bei Panasonic wirklich anders?
 
Zuletzt bearbeitet:
Ich glaube was Don meint ist folgendes: das "Live Bild" der A6300 zeigt, zwischen den gemachten Bildern, 5 Bilder an (was bei 100 bzw. 120hz bedeutet, dass insgesamt 1/25 Sekunde für Live View jedes mal zur Verfügung steht. Also insgesamt eine gute viertel Sekunde).
Nur dass diese 5 Bilder eben alle gleich sind. Der Sensor wäre in der Lage, hier wirklich Live Bilder zu liefern, also ist die Frage, warum es nicht passiert.

Und nachdem sich nichts bewegt, kann man auch nicht unbedingt sagen, ob da wirklich der Moment nach der Aufnahme gezeigt wird, oder eben doch nur das zu letzt gemachte Bild.
(Andere interessante Dinge, wären zum Beispiel das Sucher Lag).


Ob es sich in der Praxis bemerkbar macht (positiv oder negativ) müssen die Sport/Vogelfotografen beurteilen. Auf alle Fälle ist es technologisch ein Schritt in die richtige Richtung, vielleicht kommt ja auch noch irgendwas per Firmware.
 
Was mich an der a6300 besonders interessieren würde, wäre die Möglichkeit, Porträts mit Hilfe des Augen-Autofokus zu schießen.

Dazu würde sich mein neues Objektiv Batis 85/1.8 gewiss besonders gut eignen.

Worüber ich mir aber noch nicht im Klaren bin:
Funktioniert der Augen-AF immer oder muss man das Gesicht der Person vorher in der Kamera "registrieren"?
 
Der Augen-AF funktioniert immer. Bei einem Gruppenbild kann es schlau sein, ein oder mehrere Gesichter zu registrieren, die dann fokussiert werden.
 
Ich glaube was Don meint ist folgendes: das "Live Bild" der A6300 zeigt, zwischen den gemachten Bildern, 5 Bilder an (was bei 100 bzw. 120hz bedeutet, dass insgesamt 1/25 Sekunde für Live View jedes mal zur Verfügung steht. Also insgesamt eine gute viertel Sekunde).
Nur dass diese 5 Bilder eben alle gleich sind. Der Sensor wäre in der Lage, hier wirklich Live Bilder zu liefern, also ist die Frage, warum es nicht passiert.

Angenommen eine viertel Sekunde steht für den Live View zur Verfügung. Mit welcher Belichtungszeit wird nun das Video des Live-Views belichtet und ausgelesen? Was bleibt am Ende übrig um mehr als 8 Bilder anzuzeigen? :) Wohlegemerkt: wenn man nur zwei Bilder zwischen den Blackouts anzeigen wollte, müsste man 16 Videobilder + die 8 Fotos in einer Sekunde belichten und auslesen und die 8 Fotos auch noch abspeichern.

Und nachdem sich nichts bewegt, kann man auch nicht unbedingt sagen, ob da wirklich der Moment nach der Aufnahme gezeigt wird, oder eben doch nur das zu letzt gemachte Bild.
(Andere interessante Dinge, wären zum Beispiel das Sucher Lag).

Doch, das kann man sagen, weil ich es per abgefilmtem Timer überprüft habe. Bei Erscheinen des Bildes nach dem Blackout gibt es zeitlich keinen Unterschied zum normalen EVF Lag.

vielleicht kommt ja auch noch irgendwas per Firmware.

Du meinst sowas wie 2s Belichtung in eine Sekunde zu packen? :)
 
Zuletzt bearbeitet:
Angenommen eine viertel Sekunde steht für den Live View zur Verfügung. Mit welcher Belichtungszeit wird nun das Video des Live-Views belichtet und ausgelesen? Was bleibt am Ende übrig? :)

Das war nur schnell überschlagen, nagelt mich da nicht an ein paar Prozenten fest.
Der Sensor sollte mit rund 100fps ausgelesen werden, dass passt dann auch ziemlich perfekt für die Sucher Synchronisation. Somit ist die Belichtungszeit des Live Views 1/100s. Und 5 Stück werden wie gesagt angezeigt. Bzw. es wird eines angezeigt, aber 5 mal. (Wobei es ja Berichte gibt, dass bei 100/120fps die Auflösung geringer sei. Damit wäre auch ein schnellerer Sensor Readout möglich. Hab dazu aber noch keine richtigen Tests/Infos gefunden)

Und genau hier sollte es möglich sein, mittels Firmware nachzubessern (interessant wäre wie gesagt, das Lag zwischen Sensor und Sucher. Von der A6300/A6000 weiß ich es nicht, aber die A7S hatte ein relativ großes Lag)


Doch, das kann man sagen, weil ich es per abgefilmtem Timer überprüft habe. Bei Erscheinen des Bildes nach dem Blackout gibt es zeitlich keinen Unterschied zum normalen EVF Lag.
Gibts da ein Video. Würd mich wirklich interessieren.

Du meinst sowas wie 2s Belichtung in eine Sekunde zu packen? :)

Naja fast ;)
 
Das war nur schnell überschlagen, nagelt mich da nicht an ein paar Prozenten fest.
Der Sensor sollte mit rund 100fps ausgelesen werden, dass passt dann auch ziemlich perfekt für die Sucher Synchronisation. Somit ist die Belichtungszeit des Live Views 1/100s. Und 5 Stück werden wie gesagt angezeigt. Bzw. es wird eines angezeigt, aber 5 mal. (Wobei es ja Berichte gibt, dass bei 100/120fps die Auflösung geringer sei. Damit wäre auch ein schnellerer Sensor Readout möglich. Hab dazu aber noch keine richtigen Tests/Infos gefunden)

Die Ingenieure werden nicht so blöd sein, für die Sucheranzeige den Sensor in voller Grösse und voller Farbtiefe auszulesen. Die werden nur nutzen, was gebraucht wird. Bei Olympus scheint z.B. im 240fps-Modus jede sechste Zeile zu genügen. Daher sollte m.E. die Auslesezeit für das Livebild deutlich kürzer sein als die für das Vollbild.
 
Die Ingenieure werden nicht so blöd sein, für die Sucheranzeige den Sensor in voller Grösse und voller Farbtiefe auszulesen. Die werden nur nutzen, was gebraucht wird. Bei Olympus scheint z.B. im 240fps-Modus jede sechste Zeile zu genügen. Daher sollte m.E. die Auslesezeit für das Livebild deutlich kürzer sein als die für das Vollbild.

Natürlich. Nur der ganze Sensor kann niemals in 1/100 sek ausgelesen werden. Das war schon die Angabe, die näherungsweise für den Sucher passen sollte.

Was Olympus macht, weiß ich nicht. Bei 240fps gehe ich davon aus, dass entweder das selbe Bild mehrfach wiedergegeben wird, oder dass die Auflösung deutlich verringert wird.
 
Die Ingenieure werden nicht so blöd sein, für die Sucheranzeige den Sensor in voller Grösse und voller Farbtiefe auszulesen. Die werden nur nutzen, was gebraucht wird. Bei Olympus scheint z.B. im 240fps-Modus jede sechste Zeile zu genügen. Daher sollte m.E. die Auslesezeit für das Livebild deutlich kürzer sein als die für das Vollbild.

Es geht doch aber nicht nur darum den Sensor auszulesen. Jeder Frame des LiveViews ist ein ganz normal belichtetes Bild mit einer Belichtungszeit, die bei schlechten Lichtverhältnissen auch länger werden kann (deswegen ruckelt der Sucher ja dann auch, obwohl er mit 60/120fps refresht).

Ich bin sicher, dass man mit allen stattfindenden Vorgängen an der Grenze des mit der Hardware möglichen ist und da nichts per Firmware zu drehen ist, denn da deutet ja schon die Tatsache drauf hin, dass selbst die Wiedergabe eines einzelnen Live-Standbilds im 11fps-Modus nicht mehr möglich ist.
 
Also diese theoretischen Diskussionen sind zwar hochinteressant, doch mich interessiert nur Eines: sehe ich im Sucher/auf dem Display ein sich flüssig bewegendes Bild, mit dem ich ein sich schnell und unregelmäßig bewegendes Motiv verfolgen kannm wenn ich's kann, oder Einzelbilder, mit denen das nicht geht.
 
Zuletzt bearbeitet:
Also diese theoretischen Diskussionen sind zwar hochinteressant, doch mich interessiert nur Eines: sehe ich im Sucher/auf dem Display ein sich flüssig bewegendes Bild oder Einzelbilder.

Du siehst das:
https://www.youtube.com/watch?v=Fei3gg_iwaU

Ein flüssiges Video siehst Du schon aufgrund der Blackouts nicht, die Bilder dazwischen sind gar nicht entscheidend.

Aber vor allem in der Mitte sieht man sehr gut, dass wenn der normale Sucherbetrieb weiter geht, sich das Motorrad genau an der Stelle befindet, wo es zuletzt im Serienbildmodus angezeigt wurde.

Es ist sicherlich kein Kinogenuss, trotzdem sieht man, dass der Kollege im Video zielgerichtet das anvisieren kann, was er möchte.
 
Ich bin sicher, dass man mit allen stattfindenden Vorgängen an der Grenze des mit der Hardware möglichen ist und da nichts per Firmware zu drehen ist

Olympus hat bei der E-M1 das Lag zwischen Sensor und Sucher fast halbiert, Fuji hat es beinahe eliminiert. Die Qualität im EVF der Leica SL wurde deutlich verbessert.
Und all diese Dinge wurden mittel Firmware erreicht - es gibt also noch genügend Möglichkeiten der Verbesserung.
 
Also diese theoretischen Diskussionen sind zwar hochinteressant, doch mich interessiert nur Eines: sehe ich im Sucher/auf dem Display ein sich flüssig bewegendes Bild, mit dem ich ein sich schnell und unregelmäßig bewegendes Motiv verfolgen kannm wenn ich's kann, oder Einzelbilder, mit denen das nicht geht.

Vielleicht solltest Du erst einmal eine ausprobieren. Ich kann meine Inline-Skaterhockeyspieler mit der A6300 jetzt richtig gut verfolgen und sie laufen mir bei Serien nicht mehr aus dem Bild. Was Du machst, sind eben jene theoretischen Diskussionen, weil Du ja behauptest, das ginge nicht ...
 
Vielleicht solltest Du erst einmal eine ausprobieren. Ich kann meine Inline-Skaterhockeyspieler mit der A6300 jetzt richtig gut verfolgen und sie laufen mir bei Serien nicht mehr aus dem Bild. Was Du machst, sind eben jene theoretischen Diskussionen, weil Du ja behauptest, das ginge nicht ...
Also was die A6300 betrifft frage ich nur und behaupte gar nix. Ich weiß nur von meiner E-M1, die im Modus H bis 10 FPS nur Einzelbilder zeigt, dass das Verfolgen von sich schnell und unvorhjersehbaren Motiven damit fast unmöglich ist. Drum hab' ich mir ja das Punktvisier angeschafft. Und ausprobieren werde ich die Cam definitiv, sobald sie bei meinem befreundeten Foto-Dealer inklusive Tele ausreichend vorhanden ist.
 
Zuletzt bearbeitet:
Also was die A6300 betrifft frage ich nur und behaupte gar nix. Ich weiß nur von meiner E-M1, die im Modus H bis 10 FPS nur Einzelbilder zeigt, dass das Verfolgen von sich schnell und unvorhjersehbaren Motiven damit fast unmöglich ist.

Aber die Problemanalyse ist nicht hinreichend.

Der Unterschied ist, dass die E-M1 erst ein Bild macht und es danach anzeigt, während die A6300 erst das Livebild anzeigt und es dann aufnimmt. D.h. im Sucher der A6300 sieht man bei 8fps was die Kamera aufnehmen wird, hingegen bei der E-M1 das, was sie vor einer gewissen Zeit aufgenommen hat. Ergo sieht man bei der E-M1 die Vergangenheit und kann deswegen Motive nicht vorhersehbar verfolgen. Dieser Modus ist nur dann sinnvoll zu gebrauchen, wenn man eine Bewegung aufnimmt, wo man den Bildausschnitt nicht ändern muss.
 
Zuletzt bearbeitet:
Olympus hat bei der E-M1 das Lag zwischen Sensor und Sucher fast halbiert, Fuji hat es beinahe eliminiert. Die Qualität im EVF der Leica SL wurde deutlich verbessert.
Und all diese Dinge wurden mittel Firmware erreicht - es gibt also noch genügend Möglichkeiten der Verbesserung.

Verbesserungen sind immer dann möglich, wenn die Limitierung nicht die Physik ist. Das vermute ich hier aber. Vereinfachtes Beispiel: Du kannst eine Kamera mit Firmware ev. dazu bringen, dass sie in einer Sekunde 25 Aufnahmen mit 1/25s Belichtungszeit macht. Du wirst sie aber niemals dazu bringen, dass sie 26 Aufnahmen mit 1/25s innerhalb einer Sekunde macht. ;)
 
Der Unterschied ist, dass die E-M1 erst ein Bild macht und es danach anzeigt, während die A6300 erst das Livebild anzeigt und es dann aufnimmt. D.h. im Sucher der A6300 sieht man bei 8fps was die Kamera aufnehmen wird, hingegen bei der E-M1 das, was sie vor einer gewissen Zeit aufgenommen hat.

So schauts (scheinbar) aus.
Ist natürlich Fortschritt. Die Frage ist eben: ginge vielleicht doch noch mehr? (die Frage ist außerdem: wie viel näher an der Realität ist die A6300? Andere Kameras zeigen ja wie gesagt, das zu letzt gemachte Bild an. Wie weit liegt das in der Vergangenheit? Etwas mehr als das Auslesen dauert. Bei der A6300 dürfte dies irgendwas im Bereich 1/20-1/40 (0.05-0.025) Sekunde sein. Das ist schon eine Menge Holz und da kann einiges darin passieren. (und wie auf Seiten weiter vorne geschrieben, sind andere Sensoren spürbar langsamer als jener der A6300, folglich ist auch das Blackout länger)
Da darf man aber den anderen Punkt den ich angesprochen habe nicht vergessen: wie viel der Suchen hinter dem Sensor her hinkt (also das Lag). Zur A6300 gibts da noch keine Daten. Bei der A6000 (und den A7 Modellen) war es aber deutlich mehr als bei der Konkurrenz. Im Bereich von ~0.045 Sekunden)

Und (ohne die A6300 vorverurteilen zu wollen), dahin geht ja auch meine Aussage: es gibt immer was zu verbessern ;) (wenn 5 unterschiedliche Bilder anstelle von 1 Bild 5 mal angezeigt wird, dann würde man beispielsweise noch mehr Bewegung erahnen können)
 
WERBUNG
Zurück
Oben Unten