Da mit einer sinnvollen und halbwegs vollständigen Erklärung wohl sonst nicht zu rechnen ist, fang ich einfach mal an.
Auf Kamera und Objektiv wirken von außen (Zittern des Bedieners, Auslösebewegung, Wind, schwankender/bewegter Standort usw.) und innen (Spiegelschlag, Verschlussablauf) zeitlich veränderliche Kräfte und Drehmomente ein. Diese führen zu ebenso zeitlich veränderlichen Bewegungen von Kamera und Objektiv als ganzes ("starrer Körper") und zu winzigen Verformungen. Die Verformungen dürfen hier getrost vernachlässigt werden, sie sind zu klein.
Kamera und Objektiv dürfen also als starrer Körper betrachtet werden, der federnd und (stark) gedämpft in der Hand des Bedieners gelagert ist. Wie stark dieser Körper nun auf innere und äußere Anregungen reagiert, hängt von seiner Trägheit (Masse und Massenträgheitsmomente), der Nachgiebigkeit und Dämpfung der Lagerung (in der Hand des Fotografen) und natürlich von der Stärke der Anregungen ab. Und all diese Punkte unterscheiden sich von Kamera/Objektiv zu Kamera/Objektiv, von Fotograf zu Fotograf und sogar von Foto zu Foto. Aber wie die Bewegungen nun von diesen Größen abhängen, ist hier gar nicht das Thema. Wir können einfach davon ausgehen, dass während der Belichtung eine Bewegung stattfindet, und dass diese so klein ist, dass das entstehende Bild entweder noch ausreichend scharf oder nur gerade eben unscharf erscheint.
Die Bewegungen eines starren Körpers können in 6 Komponenten, seine "Freiheitsgrade", zerlegt werden, nämlich in reine Drehungen um die Hoch-, Quer- und Längs-(Objektiv-)achse, und in reine Verschiebungen entlang diesen Achsen. Die Auswirkungen einer Bewegung in diesen 6 Freiheitsgraden auf das vom Objektiv auf Film/Sensor projizierte Bild und schließlich auf das betrachtete Foto ist offensichtlich unterschiedlich. Um die abzuschätzen, muss nun gleich mehrfach nacheinander der Strahlensatz benutzt werden. Außerdem ist die Kenntnis der Winkelfunktionen und deren Linearisierung bei kleinen Winkeln hilfreich, ein grundsätzliches physikalisches und mathematisch/geometrisches Verständnis sowieso.
Zunächst führe ich die zeitabhängigen Winkelgeschwindigkeiten ωh, ωv und ωa ein (Indices für horizontale, vertikale und Objektivachse), sowie die Geschwindigkeiten vh, vv und va, außerdem, weil er gleich gebraucht wird, den Abbildungsmaßstab β, die Brennweite f und die Bildweite b (ich gehe davon aus, dass die Linsengleichung bekannt ist?).
Mit der Annahme, nur kleine Bewegungen betrachten zu müssen, können wir vereinfachend eine während der Belichtungszeit t gleichförmige Bewegung in jedem der Freiheitsgrade annehmen (ich tue es jedenfalls einfach mal). Die Drehungen um die 3 Raumachsen führen dann zu Verdrehwinkeln ∆φh=ωh*t, ∆φv=ωv*t und ∆φa=ωa*t, die Verschiebungen zu Wegen xh=vh*t, xv=vv*t und xa=va*t, und zwar jeweils des gesamten starren Körpers Kamera+Objektiv gegenüber der unbewegten Umgebung und dem fotografierten Objekt.
Ein Lichtpunkt dieses fotografierten Objekts führt nun je nach Bewegungsform zu unterschiedlichen, meist strichförmigen Abbildungen auf Film/Sensor. Hier beschränke ich mich auch noch auf achsnahe Strahlen und später auf eine zentrierte Betrachtung des fertigen Bilds. Und wo ich gerade dabei bin: Auch sekundäre Effekte durch minmale Änderungen in Perspektive, Abstand/Abbildungsmaßstab, Parallaxe usw. vernachlässige ich.
Die für Verwacklungen i.a. wichtigsten Bewegungen sind die Verdrehungen um horizontale und vertikale Achse (Gieren und Nicken). Ein Lichtpunkt erzeugt hier einen geraden Strich der Länge δrh≈b*tan(∆φrh) bzw. δrv≈b*tan(∆φrv) (Indez r für Rotation). Da kleine Bewegungen betrachtet werden sollen, kann tan(∆φ)≈∆φ angenommen werden und außerhalb des Makrobereichs kann die Bildweite b durch die Brennweite f ersetzt werden. Wir können für ein "normales Foto" also annehmen:
δrh≈f*∆φh≈f*ωh*t und
δrv≈f*∆φv≈f*ωv*t
Die Länge dieser "Verwackelspuren" auf dem Sensor ist also näherungsweise proportional zur Brennweite und zur Belichtungszeit. Übrigens sind das auch die beiden Größen, die in der beliebten Faustformel für unverwackelte Bilder vorkommen (zusammen mit dem Cropfaktor, wie wir noch sehen werden). Und diese beiden Bewegungsanteile sind auch die einzigen, die von ausnahmslos allen "vibrationsreduzierenden" Systemen detektiert und kompensiert werden, woraus man auf deren Dominanz bei Verwacklungsunschärfe schließen darf.
Eine Verdrehung um die Objektivachse (Rollen) führt zu einem kurzen bogenförmigen Strich, der um so länger ist, je weiter entfernt der Lichtpunkt vom Bildmittelpunkt (auf Film/Sensor) abgebildet wird. Mit dem Abstand r vom Bildmittelpunkt ist seine Bogenlänge:
δra≈r*∆φa≈r*ωa*t
Diese Form der Verwacklung ist interessanterweise völlig unabhängig von Objektiv oder Fokusdistanz. Ihre größte Ausdehnung hat sie in den Ecken des Films/Sensors, und ist dort umgekehrt proportional zum Cropfaktor. In der Bildmitte ist sie null, nach außen steigt sie linear an. Angeblich wird diese Komponente von vibrationsreduzierenden Sytemen im Kameragehäuse (Pentax, Sony, Olympus etc.) detektiert und kompensiert, das weiß ich nicht. All zu relevant ist sie offenbar nicht, wie die Ergebnisse mit stabilisierten Objektiven von Nikon oder Canon zeigen.
Reine geradlinige Bewegungen entlang der horizontalen und vertikalen Achse führen ebenfalls zu geraden Strichen auf Film/Sensor. Deren Längen sind (Index t für Translation):
δth≈xh*β≈vh*β*t und
δtv≈xv*β≈vv*β*t
Diese Verwacklung hängt also nicht von der Brennweite ab, sondern vom Abbildungsmaßstab und ist deshalb i.a. nur bei Makros relevant. Meines Wissens werden diese Komponenten nur von einem einzigen Makroobjektiv von Canon detektiert und kompensiert.
Und schließlich führt eine geradlinige Bewegung entlang der Objektivachse zu gar keinem Strich, sondern nur zu sekundären Effekten, die vernachlässigbar sind, und damit:
δta≈0
Damit bleiben auf Sensor/Film-Ebene 2 dominante Anteile, die proportional zur Brennweite sind, 2 nur im Makrobereich relevante proportional zum Abbildungsmaßstab, ein 5. (in gleicher Entfernung vom Bildmittelpunkt) unabhängig von beiden und der 6. ist null. Alle 5 sind proportional zur Belichtungszeit.
Bei der Vergrößerung der Bilder auf das zu betrachtende Ausgabeformat (den Betrachtungsabstand nehme ich mal als konstant an) werden alle diese "Verwackelspuren" im gleichen Maß mitvergrößert, wie auch das eigentlich Bild selbst.
Außerdem muss noch geklärt werden, wie sich diese Verwackelspuren auf Film/Sensor unterscheiden, wenn mit verschieden großen Sensoren aus der gleichen Entfernung mit der gleichen Belichtungszeit der gleiche Bildwinkel fotografiert wird. Dann benutzt man (wieder außerhalb des Makrobereichs) Brennweiten, die um den Cropfaktor cF (Index F für Format) kleiner sind als an Vollformat. Auch der Abbildungsmaßstab ist dann um den Cropfaktor kleiner. Und die Verwacklung (an gleicher relativer Position im Bild, also z.B. in den Ecken) um die Objektivachse ist auch um den Cropfakor kleiner.
All das gilt natürlich nur unter der Annahme gleicher Verwackelgeschwindigkeiten und -winkelgeschwindigkeiten. Beim Vergleich ähnlich großer/schwerer Kameras (D800/D700/D300) darf man diese Annahme wohl treffen, zumindest im ganz groben Mittelwert. Bei deutlich unterschiedlichen Kameras, Objektiven, Fotografen, Umgebungsbedingungen usw. wird der Fehler in dieser Annahme immer größer.
Und jetzt müssen mehrer Fälle unterschieden werden:
1. Äquivalente Bilder bei gleicher Ausgabegröße
Hier wird das Bild des kleinen Sensors um den Cropfaktor stärker vergrößert als das vom Vollformat, und ebenso alle Verwackelspuren. Da aber äquivalente Fotos gemacht werden sollen und dann alle 5 Verwackelspuren auf dem Film/Sensor um den Cropfaktor kleiner sind, ist der Effekt auf dem fertigen Bild gleich, der Cropfaktor kürzt sich raus. Das war der triviale Fall.
2. Gleiche Brennweite bei 100%-Ansicht
Hier führe ich erstmal analog zum (Format-) Cropfaktor cF den Pixel-"Cropfaktor" cP ein, und zwar als Verhältnis der (linearen) Pixelabmessungen so, dass für kleinere Pixel der Faktor>1 ist (genau wie beim Formatfaktor). Die Bildvergrößerung auf das (beschnittene) Ausgabeformat in einer 100%-Ansicht ist dann bei kleineren Pixeln um dieses cP größer. (hatte ich schon erwähnt, dass ich nicht "in Pixeln" denke, deshalb auch hier die "analoge" Bildvergrößerung). Jetzt sind also bei gleicher verwendeter Brennweite die 5 verschiedenen Verwackelspuren auf dem Sensor gleich groß, in der 100%-Ansicht unterscheiden sie sich dann im wesentlichen um diesen "Pixel-Cropfaktor", nur der kleine Anteil aus der Rollbewegung ist in beiden Fällen gleich groß (bevor der zu erwartende Aufschrei kommt: Aufmalen, nachrechnen!). Insbesondere sind sie natürlich alle gleich groß, wenn auch die Pixel gleich groß sind. Auch das ist trivial.
3. Kombinationen aus beiden Annahmen
...wie gleiche äquivalente Brennweiten/Bilder in, wegen verschiedener Pixelgröße, verschiedenen 100%-Ansichten oder gleiche Brennweite bei gleicher Ausgabegröße, kann sich jeder hieraus selber zusammenbasteln. Und auch sonst noch diverse Kombinationen. Aber wozu?
So, all das bisher habe ich vorhin im Zug sitzend in mein Handy getippselt (inkl. Formatierung und Sonderzeichen). Ich hoffe, das ist alles lesbar? Auf destruktive Querschläge zum Inhalt werde ich nicht eingehen, auf konstruktive Kritik gern.
Gruß, Matthias