• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Juli 2025.
    Thema: "Unscharf"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juli-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wobble-Effekt: Nikon vs. Canon

Martini Snowfox

Themenersteller
Moin moin,

ich weiss nicht wo ichs hinposten soll, drum mach ich mich mal hier breit:
Wie der Titel es schon verrät würde ich gerne wissen, warum die Canon - also jetzt nach meinen Recherchen - keinen bzw nur einen geringen Wobble-Effekt aufweist, ganz im Gegensatz zu den Nikons.

Die Canon scheint mir irgendwie ein besseres Bild zu liefern - jetzt nicht wegen 1080p - irgendwie ist das Bild was ich bisher sehen konnte von der Bewegungsunschärfe her harmonischer oder sehe ich es nur falsch?

Was meint ihr dazu?
 
AW: Wobble-Effekt: Nikon VS Canon

ok dann weiß ich es auch nicht
 
AW: Wobble-Effekt: Nikon VS Canon

Die CMOS-Chips werden zeilenweise ausgelesen. Bis so der gesamte Sensor ausgelsen ist, dauert es eine Weile.
Offenbar macht der Canon-Chip das besser bzw. schneller als der in der D90 verbaute.
Die bisherigen Infos sind so, dass der Canon Chip das Bild alle 1/40 Sekunde neu ausliest bzw. neu auslesen kann.

Auch viele bzw. alle anderen Camcorder leiden unter dem selben Effekt - nur erheblich weniger als die DSLRs mit Video-Funktion.
Auch die RedOne bleibt nicht davon verschont. Allerdings ist es bei ihr auch weniger ausgeprägt.
 
AW: Wobble-Effekt: Nikon VS Canon

Hängt es vielleicht damit, dass Canon einen besseren Codec verwendet und Nikon bis jetzt nur Motion JPEG?
 
Danke für die Antworten.

Ich gehe mal davon aus, das die Erfahrung seiten Canon mit HDV Kameras dem zu gute kommt?

Dass sich dieser Effekt nicht abschalten lässt ist mir nun klar - nur ist das was man bei Nikon sieht einfach sehr extrem.
 
Danke für die Antworten.

Ich gehe mal davon aus, das die Erfahrung seiten Canon mit HDV Kameras dem zu gute kommt?
Das glaube ich nicht.
Ich glaube, das der Effekt bei Canon und Nikon ziemlich ähnlich ist. Der Sensor wird in 1/20, 1/24 oder 1/30 sec ausgelesen (vorgebinnt, sonst würde man bei 300 bis 600 MPixel/sec Auslesegeschwindigkeit landen) und der Effekt ergibt sich genau aus dieser Auslesegeschwindigkeit, die so schon schwer zu beherrschen ist.

Unterschiede könnten sich allein durch Wechsel von Zeilen und Spalten ergeben. Man verlagert damit das Problem von horizontalen zu vertikalen Schwenks, was durchaus sinnvoll ist.

Weitere Möglichkeit ist ein vollständig elektronischer Verschluß mit Zwischenspeicher.
Dann wäre der Effekt vollständig weg.

Eine weitere Möglichkeit ist eine separate Zeilenauslesung in hoher Geschwindigkeit (Sony-Chips werden so ausgelesen).

Dass sich dieser Effekt nicht abschalten lässt ist mir nun klar - nur ist das was man bei Nikon sieht einfach sehr extrem.

Ich würde beide Kameras nebeneinander laufen lassen und den Effekt ausmessen. Bei dieser Messung erhält man den Offset der Auslesezeit des Sensors. Bei 30p kann das ein Wert zwischen 0 und 33 ms sein.

Man sieht diesen Effekt, wenn dieser Effekt nicht beim Display in genau der gleichen Weise auftritt. Eine Kamera mit 50p und Rolling Shutter von oben nach unten paßt zu einem CRT-Progressiv-Display mit 50p.
 
Das glaube ich nicht.
Ich glaube, das der Effekt bei Canon und Nikon ziemlich ähnlich ist. Der Sensor wird in 1/20, 1/24 oder 1/30 sec ausgelesen (vorgebinnt, sonst würde man bei 300 bis 600 MPixel/sec Auslesegeschwindigkeit landen) und der Effekt ergibt sich genau aus dieser Auslesegeschwindigkeit, die so schon schwer zu beherrschen ist.
Soweit ich das gelesen habe, wird bei Video auf der 5DII nicht gebinnt, das wäre angesichts des Bayerpatterns auch nicht einfach.
Weitere Möglichkeit ist ein vollständig elektronischer Verschluß mit Zwischenspeicher.
Dann wäre der Effekt vollständig weg.
Ich kenne bis dato erst einen CMOS Sensor mit Global Shutter, und der ist für 640x480. In Zukunft kann das natürlich anders sein.
Ich würde beide Kameras nebeneinander laufen lassen und den Effekt ausmessen. Bei dieser Messung erhält man den Offset der Auslesezeit des Sensors. Bei 30p kann das ein Wert zwischen 0 und 33 ms sein.

Man sieht diesen Effekt, wenn dieser Effekt nicht beim Display in genau der gleichen Weise auftritt. Eine Kamera mit 50p und Rolling Shutter von oben nach unten paßt zu einem CRT-Progressiv-Display mit 50p.

Man müsste doch eigentlich beim post processing noch einiges machen können, ich verstehe nicht, warum das nicht schon in der Kamera so gemacht wird. Wenn ihr euch anschaut, wie Kameras debayering betreiben, da werden ja auch Pixel verschoben. Genauso müsste man eben bei Rolling Shutter die Pixel im Zeitbereich verschieben/interpolieren. Möglicherweise reicht die Rechenleistung einer DSLR dafür nicht.
 
Soweit ich das gelesen habe, wird bei Video auf der 5DII nicht gebinnt, das wäre angesichts des Bayerpatterns auch nicht einfach.
Dann müßten

  • Im LiveView-Ganzbild-Modus 5616x3744x30 Pixel/sec ~ 631 MPixel/sec vom Sensor geschafft werden.
  • Im 1080p30-Modus 5616x3159x30 Pixel/sec ~ 532 MPixel/sec vom Sensor geschafft werden.
  • Im 480p30-Modus 4992x3744x30 Pixel/sec ~ 561 MPixel/sec vom Sensor geschafft werden.
  • Während normaler Aufnahmen hat man es, wenn man von einer Auslesezeit von 200 ms ausgeht (bei 3,9 fps bleiben dann noch 56 ms zwischen den Belichtungen) mit "nur" 100...110 MPixel/sec zu tun, daher gehe ich von einer gewissen Vorverarbeitung On-Chip aus.


Man müsste doch eigentlich beim post processing noch einiges machen können, ich verstehe nicht, warum das nicht schon in der Kamera so gemacht wird.
Weil es quasi nicht geht. Du mußt dazu Objekte verfolgen und das batteriebetrieben.


Wenn ihr euch anschaut, wie Kameras debayering betreiben, da werden ja auch Pixel verschoben. Genauso müsste man eben bei Rolling Shutter die Pixel im Zeitbereich verschieben/interpolieren.
Wo bekommst Du die Richtung und den Betrag her? Wie stehst Du zu Artefakten wegen Fehlinterpretation des Bildes?
 
Dann müßten

  • Im LiveView-Ganzbild-Modus 5616x3744x30 Pixel/sec ~ 631 MPixel/sec vom Sensor geschafft werden.
  • Im 1080p30-Modus 5616x3159x30 Pixel/sec ~ 532 MPixel/sec vom Sensor geschafft werden.
  • Im 480p30-Modus 4992x3744x30 Pixel/sec ~ 561 MPixel/sec vom Sensor geschafft werden.
  • Während normaler Aufnahmen hat man es, wenn man von einer Auslesezeit von 200 ms ausgeht (bei 3,9 fps bleiben dann noch 56 ms zwischen den Belichtungen) mit "nur" 100...110 MPixel/sec zu tun, daher gehe ich von einer gewissen Vorverarbeitung On-Chip aus.
Ich habe gelesen (keine authorative Quelle allerdings), dass die beim ersten Bild die 1., 4., 7., ... Zeile auslesen, beim zweiten Bild die 2., 5., 8., .... Zeile, beim 3. die 3., 6., 9., ...
Somit ist die benötigte Auslesegeschwindigkeit automatisch 1/3 der von dir angegebenen Werte. Da der Abstand eine ungerade Zeilenanzahl ist, kann man auch debayern. Wenn man auch in horizontaler Richtung nur jedes dritte Pixel liest, hat man bereits den Faktor 9 eingespart.
Weil es quasi nicht geht. Du mußt dazu Objekte verfolgen und das batteriebetrieben.

Wo bekommst Du die Richtung und den Betrag her? Wie stehst Du zu Artefakten wegen Fehlinterpretation des Bildes?
Bei Bayer weißt du, dass das blaue Pixel etwas versetzt zum roten ist und rechnest die Interpolation entsprechend (am Schluss hat ja jedes Pixel alle Farben, sonst gäbe es keine 24 MP DSLRs). Das selbe müsste man ja auch im Zeitbereich machen können. Gehen tut das, weil ja auch Framerates umgerechnet werden. Rein theoretisch könnte man aus 30 fps 300 fps machen und dabei beachten, dass die unteren/rechten Pixel definiert später aufgenommen wurden und entsprechend interpolieren, dann wieder runtersamplen. Natürlich kann ich mir wesentlich effizientere Implementierungen als die hier vorgeschlagene vorstellen.

Selbst wenn die Kamera zu langsam ist für sowas, könnte man da ja später am Computer entsprechend aufbereiten, da muss ja nichts mehr in Echtzeit gehen. Schließlich werden ja HD-Filme nicht für's Kamera-LCD aufgenommen und die Leute haben sich ja auch bei Einzelbildern an die RAWs gewöhnt.
 
Ich habe gelesen (keine authorative Quelle allerdings), dass die beim ersten Bild die 1., 4., 7., ... Zeile auslesen, beim zweiten Bild die 2., 5., 8., .... Zeile, beim 3. die 3., 6., 9., ...
Somit ist die benötigte Auslesegeschwindigkeit automatisch 1/3 der von dir angegebenen Werte. Da der Abstand eine ungerade Zeilenanzahl ist, kann man auch debayern. Wenn man auch in horizontaler Richtung nur jedes dritte Pixel liest, hat man bereits den Faktor 9 eingespart.
Würde erheblich rauschen und erheblich zu Artefakten neigen.
Jede dritte Zeile nur auslesen, erhöht das Rauschen um 5 dB.
Jede dritte Zeile nur auszulesen, würde an Kanten leichte Artefakte und an strukturierten Flächen unübersehbare Artefakte bewirken. Das ganze bei Bewegtbilder, die empfindlicher als Standbilder auf Artefakte reagieren.

Beides sind K.O.-Kriterien, das so zu machen.
 
Artefakte gibt es bei der 5DMKII im Videomodus - in Form von starkem Moire bei entsprechenden Flächen mit feinen Strukturen wie Hausdächern oder Zäunen.
 
Sorry, wenn ich Frage....aber was ist ein Wobble-Effekt :confused::confused::confused:.

Gruß
Daniel
Der Sensor wird nicht auf einmal ausgelesen, sondern Zeilenweise...
Bewegt man die Kamera nun schnell von links nach rechts (z.B.) verzerrt sich das Bild dadurch trapezförmig. Durch die schnelle Bewegung und das relativ langsame, kontinuierliche Auslesen verschieben sie die Bildinhalte.

Beispiel der D90.
http://www.youtube.com/watch?v=y484jV_2IfA

Sehr nettes Beispiel hier... gerade Münze oder doch nicht?
http://www.youtube.com/watch?v=LPOaH7uK9ho&feature=related
 
Artefakte gibt es bei der 5DMKII im Videomodus - in Form von starkem Moire bei entsprechenden Flächen mit feinen Strukturen wie Hausdächern oder Zäunen.

Nein die lesen erstmal alle Pixel (jeder Zeile) vom Sensor aus und skalieren die dann on-the-fly. Das geht mit dem Chip schneller als jede 3., 5. Zeile usw. auszulesen. Da ein kompletter Durchgang ein paar µs dauert, gibts halt auch einen minimalen Wobble-Effekt, der aber nur bei argen Schwenks sichtbar wird.
 
Sorry, wenn ich Frage....aber was ist ein Wobble-Effekt

Schwenkt man die Kamera zur Seite, so scheint sich ein kerzengerade stehendes Objekt zur Seite zu neigen, scheint also auf dem Video schief zu stehen. Schwenkt man die Kamera jetzt schnell hin und her, so scheint das eigentlich kerzengerade stehende Objekt hin und her zu schwanken - wie Wackelpudding.

Quelle meiner Information: c`t special - Digitale Fotografie - 2009
 
Würde erheblich rauschen und erheblich zu Artefakten neigen.
Jede dritte Zeile nur auslesen, erhöht das Rauschen um 5 dB.
Jede dritte Zeile nur auszulesen, würde an Kanten leichte Artefakte und an strukturierten Flächen unübersehbare Artefakte bewirken. Das ganze bei Bewegtbilder, die empfindlicher als Standbilder auf Artefakte reagieren.

Beides sind K.O.-Kriterien, das so zu machen.
Rauschen war noch nie ein K.O.-Kriterium, sonst hätte vor 10 Jahren niemand DSLRs gekauft und Kompaktknipsen/Handykameras wären unverkäuflich :ugly:
Außerdem: selbst wenn man nur jede 21. Zeile ausliest, rauscht ein Pixel nicht mehr als wenn man alle ausliest. Klar kannst du mit pixel binning das Rauschen weiter absenken, aber wenn das Rauschen bei 21 MP akzeptabel ist, dann ist es das auch bei 21/9 MP.

Ich sehe momentan wenig alternativen zur Theory vom mehrfach-Interlacing, da pixel binning mit bayer pattern Sensoren schwierig bis unmöglich ist. Nach dem debayering kannst du natürlich runterrechnen, aber dazu musst du vorher schon alle Bytes ausgelesen haben (was du ja schon als unmöglich vorgerechnet hast).

@mayuka: Wenn du den pixel clock konstant hältst (weil du eh am Maximum arbeitest), kannst du durch selektives Auslesen die Framerate enorm erhöhen. Bei typischen machine vision Kameras kannst du die frame rate mühelos verdoppeln, indem du nur ein Teilbild ausliest, die haben dafür sogar ein ROI setting.Ich kann mir schwer vorstellen, dass das bei DSLR-Sensoren anders wäre.
 
@mayuka: Wenn du den pixel clock konstant hältst (weil du eh am Maximum arbeitest), kannst du durch selektives Auslesen die Framerate enorm erhöhen. Bei typischen machine vision Kameras kannst du die frame rate mühelos verdoppeln, indem du nur ein Teilbild ausliest, die haben dafür sogar ein ROI setting.Ich kann mir schwer vorstellen, dass das bei DSLR-Sensoren anders wäre.

Der Bottleneck ist ja auch nicht der Sensor oder der Chip, sondern die Datenleitung zur Speicherkarte. In 2-3 Jahren wird in der Hinsicht deutlich mehr möglich sein.
 
WERBUNG
Zurück
Oben Unten