• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wie verhält es sich mit der Verwacklungsempfindlichkeit der d800?

Das tut "man" doch, denn in der Formel steckt der zulässige Zerstreuungskreis, und der hängt genau davon ab (und dem individuellen Schärfeanspruch).


Gruß, Matthias

Hallo Matthias,

ja, wenn "man" diese Formel verwendet, dann schon. Viele tun das aber nicht.

Aber schau mal, was z.B. hier bei der Angabe der förderl. Blende steht:

http://www.colorfoto.de/testbericht/olympus-om-d-e-m5-1274187.html

und

http://www.colorfoto.de/testbericht...u-canon-5d-mark-ii-und-sigma-sd1-1195159.html

Gruß,

Karl-Heinz
 
Edit: sehe gerade du hast dein Posting editiert. In 100%-Ansicht siehst du bei der D800 mehr Unschärfe - aber nicht wegen der längeren Brennweite, sondern wegen des kleineren, stärker hineingezoomten Bildausschnitts - Äpfel mit Birnen...

Ja, sorry mit dem Edit. Ich wollte es nur verdeutlichen. Aber was meinst Du mit kleinerem, stärker hineingezoomten Bildausschnitt?

In meinem Beispiel habe ich doch 2 mal den genau gleichen Bildausschnitt (die Kirche, auf den Seiten die Bäume, oben den Berg und das alles formatfüllend). Auf z.B. A3 sehen beide Bilder dann genau gleich aus. Auf dem Bildschirm bei 100% sind die Objekte auf dem D800- Bild einfach grösser weil die D800 36MP hat.
 
Aber schau mal, was z.B. hier bei der Angabe der förderl. Blende steht:

Ja, das steht da aber in einer Zeile mit der Pixelgröße, ist also vermutlich darauf bezogen/daraus berchnet. Das ist nun wieder ein Ansatz, mit dem ich grundsätzlich auf dem Kriegsfuß stehe. Aber das ist wieder eine andere Geschichte.


Gruß, Matthias
 
Ja, sorry mit dem Edit. Ich wollte es nur verdeutlichen. Aber was meinst Du mit kleinerem, stärker hineingezoomten Bildausschnitt?

In meinem Beispiel habe ich doch 2 mal den genau gleichen Bildausschnitt (die Kirche, auf den Seiten die Bäume, oben den Berg und das alles formatfüllend). Auf z.B. A3 sehen beide Bilder dann genau gleich aus. Auf dem Bildschirm bei 100% sind die Objekte auf dem D800- Bild einfach grösser weil die D800 36MP hat.
Ja - genau das meinte ich. Von der ursprünglich gleichen Bildkomposition siehst du bei 100% bei der D7000 zB die obere Hälfte des Kirchturms am Bildschirm, bei der D800 nur das obere Drittel. Logisch sieht man dann auf Grund der stärkeren Vergrößerung eher Verwacklungsunschärfe, der Vergleich ist aber relativ nichtssagend.
 
Ja - genau das meinte ich. Von der ursprünglich gleichen Bildkomposition siehst du bei 100% bei der D7000 zB die obere Hälfte des Kirchturms am Bildschirm, bei der D800 nur das obere Drittel. Logisch sieht man dann auf Grund der stärkeren Vergrößerung eher Verwacklungsunschärfe, der Vergleich ist aber relativ nichtssagend.

Sorry, ich kann Dir nicht folgen. Du hast in einem früheren Beispiel dargestellt, dass eine Zittern des Fotografen auf dem Sensor z.B. eine horizontale Verwackelung von 0.6mm zur Folge hat. Aber die 0.6mm die bleiben doch 0.6mm in beiden Fällen meines Beispiels, deshalb verstehe ich Deine Aussage nicht, warum es auf dem D800- Bild mehr auffallen sollte. Ob jetzt ein grösseres Objekt (D800) oder ein kleineres Objekt (D7000) um z.B. 0.6mm verschoben ist, fällt doch nicht auf?
 
...Du hast in einem früheren Beispiel dargestellt, dass eine Zittern des Fotografen auf dem Sensor z.B. eine horizontale Verwackelung von 0.6mm zur Folge hat. ...
Nein - ich hatte geschrieben:
Wenn man beide Bilder in gleicher Ausgabegröße (zB A3) betrachtet, sieht man darauf jweils eine gleiche Verwacklungsunschärfe von 0,6 mm. Diese 0,6 mm entstehen aber nicht auf dem Sensor, dort ist der "Verwacklungsweg" ja auch durchaus unterschiedlich; siehe in meinem früheren Beispiel: 10 Pixel bei der D800, 6 Pixel bei der D7000, was auch in mm gemessen unterschiedlich ist.
Diese Voraussetzung gleicher Ausgabegröße ist aber in deinem Fall mit der erwähnten 100%-Ansicht auf dem Bildschirm nicht mehr gegeben. Dazu ebenfalls ein Rechenbeispiel:

Die D800 hat eine Auflösung von 7360 x 4912 Pixel, die D7000 4928 x 3264.
Nehmen wir weiter an dein Monitor hat eine Auflösung von 1080 Pixel in der Bildhöhe, und das Bild ist 30 cm hoch. Du kannst also beide Bilder 30 x 45 cm groß darstellen.

Vom Bild der D800 siehst du dann 1080 / 4912 = 22% der Bildhöhe, das ganze Bild wäre dann umgekehrt 136 x 205 cm groß.
Das Bild der D7000, von dem du 1080 / 3264 = 33% siehst, dann entsprechend 91 x 136 cm.
Auf welchem wirst du nun eine größere Unschärfe sehen? Nur logisch, dass eine stärkere Vergrößerung mehr Fehler sichtbar macht.

Das gilt eben nur für die 100%-Ansicht, die mMn für Vergleiche nicht aussagekräftig ist. Man sollte gleiche Bilder in gleicher Ausgabegröße (und Abstand) betrachten, oder meinetwegen gleiche Bildausschnitte, zB jeweils 33% der Bildhöhe. Aber nicht 33% mit 22%, oder 136 cm große mit 205 cm großen vergleichen wie oben. ;)


Nein - Vergrößerungen beziehen sich auf lineare Dimensionen (cm, mm) und nicht auf Flächen.
Genauso spricht man vom Cropfaktor, der ja Größenverhältnisse zwischen verschiedenen Sensoren beschreibt, zB als 1,5 oder 2,0 bei FT - und nicht Cropfaktor 2,25 oder 4,0... ;)
 
Zuletzt bearbeitet:
Ein Bild ist und bleibt zweidimensional.

Und Du hast sicher nicht darüber geredet, das Bild nur in eine Richtung zu vergrößern (zu verzerren).
 
@ Michael Döring:

So kann man einen Thread auch zerreden...
auch wenn in beide Richtungen um 1,5fach vergrößert wird bleibt es trotzdem eine 1,5fache Vergrößerung.
 
@ Michael Döring:

So kann man einen Thread auch zerreden...

Er hält das für "diskutieren" und das ist genau das, was ich lange vorher mit "plattsabbeln" meinte. Ist sein Prinzip, und deshalb ist der Versuch einer ernsthaften Diskussion vollkommen sinnlos.


Gruß, Matthias
 
In diesem Thread geht es doch sehr lange schon nur um das Rechthaben. Klar, daß diejenigen am lautesten Schreien, die am Ende der sachlichen Argumente angekommen die persönliche Schiene bedienen.

Überspitzt formuliert:

Der Verwackler ereignet sich im Raum (dreidimensional),
er manifestiert sich auf der Abildungsebene (zweidimensional),
die Diskussion ist teilweise auf eine Ebene reduziert (eindimensional).

Kann natürlich nicht gut gehen. ;)
 
In diesem Thread geht es doch sehr lange schon nur um das Rechthaben. Klar, daß diejenigen am lautesten Schreien, die am Ende der sachlichen Argumente angekommen die persönliche Schiene bedienen.

Statt hier weiter zu provozieren, könntest Du einfach mal ein einziges wahres Argument anbringen. Oder noch besser: Erklär doch einfach mal die Zusammenhänge vollständig. Angefangen vom zittern des Bedieners bis hin zu dem, wie sich das dann im fertigen Bild äußert. All das unterschieden nach 100%-Ansichten und gleich großen Ausgabegrößen, und nach gleichen tatsächlichen und äquivalenten Brennweiten. Wir sind bestimmt alle sehr gespannt, wieviel Substanz hinter der heißen Luft steckt.


Gruß, Matthias
 
OK, da ich sachlich nur darauf hingewiesen habe dass Vergrößerungen sich auf die Länge beziehen und nicht auf die Fläche, deine Replik darauf aber von Ende von sachlichen Argumenten, eindimensionaler Diskussion etc. schreibt:

Ich gebe zu unrecht zu haben.
Nur Circular Fisheyes haben sowohl horizontale als auch vertikale und diagonale Bildwinkel. ;)
Und mein altes 100-300er verkaufe ich jetzt hier als Neunfachzoom - es vergrößert bei 300 mm gegenüber 100 schließlich horizontal und vertikal jeweils um das 3fache. ;)
 
Und mein altes 100-300er verkaufe ich jetzt hier als Neunfachzoom - es vergrößert bei 300 mm gegenüber 100 schließlich horizontal und vertikal jeweils um das 3fache. ;)
300 mm = 3 * 100 mm = 3-fach Zoom.
2,25 *16,2 MP (D7000) = 36,3 MP (D800) = 2,25.

Im übrigen hatte ich direkt zu Beginn auf die Bedeutung der Sensorgröße hingewiesen und auch darauf hingewiesen, daß sich der Verwackler im Raum ereignet.
In der Diskussion hat sich das bedauerlicher Weise nicht niedergeschlagen.

Gleiches gilt für die Annahmen zu den Bildwinkeln.
Es kommt keinesfalls ein identisches Bild heraus, wenn man an FX die Brennweite um den crop-Faktor verlängert.
Weil sich bei gleicher Blende die Tiefenschärfe verringert und man daher abblenden muß und dann wiederum bei gleichem Lichtwert eine entsprechend längere Belichtungszeit erhält.

Aber das sind Alles Feinheiten die man hier nicht diskutieren will.
 
Aber das sind Alles Feinheiten die man hier nicht diskutieren will.

Fang doch einfach erstmal mit dem groben an:

Erklär doch einfach mal die Zusammenhänge vollständig. Angefangen vom zittern des Bedieners bis hin zu dem, wie sich das dann im fertigen Bild äußert. All das unterschieden nach 100%-Ansichten und gleich großen Ausgabegrößen, und nach gleichen tatsächlichen und äquivalenten Brennweiten.

Edit: Ich bin auch sehr gespannt, wie Du das Verwackeln in der 3. Dimension (in Objektivachs-Richtung) modellierst, und welchen Effekt das dann wohl hat im Vergleich zu Drehbewegungen um die 3 Achsen und ggf. Translationen in der Bildebene. Und vielleicht offenbarst Du uns bei der Gelegenheit noch die "Feinheiten" der fotografischen Äquivalenz. Die hat zwar nicht direkt was mit dem Thema zu tun, aber wenn Du das Thema schon einbringst.....




Gruß, Matthias
 
Zuletzt bearbeitet:
300 mm = 3 * 100 mm = 3-fach Zoom.
2,25 *16,2 MP (D7000) = 36,3 MP (D800) = 2,25.
Da kommt mir mein Physiklehrer mit seinem Lieblingsausbruch in den Sinn: "Diese Beleidigung des Gleichheitszeichens sollte man Ihnen um die Ohren schlagen!"

Gleiches gilt für die Annahmen zu den Bildwinkeln.
Es kommt keinesfalls ein identisches Bild heraus, wenn man an FX die Brennweite um den crop-Faktor verlängert.
Weil sich bei gleicher Blende die Tiefenschärfe verringert und man daher abblenden muß und dann wiederum bei gleichem Lichtwert eine entsprechend längere Belichtungszeit erhält.

Aber das sind Alles Feinheiten die man hier nicht diskutieren will.
Das ist von anfang an NICHT das Thema gewesen. Was alles noch zu berücksichtigen sei, um mit FX ein "gleiches" Bild zu erhalten, wie mit DX, ob das möglich sei, was Brennweite, Blende, Belichtungszeit, ISO... papipapo etc. und usw. noch beitragen, interessiert nicht. Akzeptier doch einfach mal die Ausgangslage: D800. Vergleich sie meinetwegen mit der D700...

Da kommt die - leider zu häufige, immer wieder gestellte - Frage auf: Ist die D800 aufgrund ihrer hohen Pixelzahl verwackelungsanfälliger?

Verwacklungsanfälliger ALS? Als eine andere FX-Kamera z.B?

Die Antwort ist ganz einfach: Nein, nein nein und nein. Nur schon "aufgrund der Pixel" würde bedeuten, dass gerade WEGEN der Pixel irgend etwas verwackeln soll. Der Verwacklung - egal wie detailliert du sie betrachten möchtest - weiss überhaupt nichts von Pixeln, die sind ihr herzlich egal, und sie verwackelte schon munter vor sich hin, bevor ein Pixel überhaupt erfunden war.

Es klingt banal, aber einige scheinen es nicht begreifen zu können (oder zu wollen): Die Pixel sind nicht ursächlich für irgend eine Verwackelung.

Sie verleiten aber dazu, Bilder verschieden zu vergrössern - eben weil der dümmliche 100%-Knopf zu vielen zu sehr in Fleisch und Blut übergegangen ist. Alles, was ab jetzt unterschiedlich ist, unterscheidet sich aber (URSÄCHLICH!) zuallererst mal wegen der unterschiedlichen Vergrösserung bei Betrachtung, nicht wegen irgend einer willkürlich festgelegten Zahl, die sich Pixelanzahl nennt...
 
Gut, lass uns die Kurve zurück zu einer sachlichen Diskussion wieder kriegen. :)
300 mm = 3 * 100 mm = 3-fach Zoom.
2,25 *16,2 MP (D7000) = 36,3 MP (D800) = 2,25.
Das mit dem Neunfachzoom habe ich geschrieben, um mittels Übertreibung darauf hinzuweisen dass man bei Vergrößerungen nicht einmal von Längen (mm, cm) ausgehen kann und dann wieder von Flächen (mm², Megapixel).

Im übrigen hatte ich direkt zu Beginn auf die Bedeutung der Sensorgröße hingewiesen und auch darauf hingewiesen, daß sich der Verwackler im Raum ereignet.
In der Diskussion hat sich das bedauerlicher Weise nicht niedergeschlagen
Ja, der Verwackler ereignet sich im Raum, da stimme ich gänzlich zu.
Es gibt hier 6 Freiheitsgrade:
o Verschieben der Kamera um vertikale Achse
o Verschieben un horizontale Achse
o Verschieben um Längsachse
o Drehbewegung um vertikale Achse
o Drehbewegung un horizontale Achse
o Drehbewegung um Längsachse

Während die ersten 3 allenfalls bei Nahaufnahmen von Bedeutung sind - in dem genannten Bildbaispiel mit der Kirche spielt es für die Schärfe keine Rolle ob ich die Kamera um 2 mm nach links oder rechts verschiebe -, haben die letzten 3 immer Einfluss und stellen in ihrer Kombination das typische Verwackeln dar.
Die Betrachtung "Schwenkbewegung um horizontale Achse" und deren Auswirkung auf den (2-dimensionalen) Sensor sowie in Folge dann auf das fertige, ebenfalls 2-dimensionale Bild habe ich versucht in meinen Postings darzustellen - zB in Nr. 25, 51, 110.

An Hand dieser für die anderen 3 Fälle stellvertretenden Betrachtung kann man herausarbeiten ob nun ein Unterschied besteht in der Verwacklungsempfindlichkeit einer D800 (Threadthema!) im Vergleich zu einer Kamera mit weniger Megapixel, und/oder mit kleinerem Sensor.
Drehbewegung um vertikale Achse unterscheidet sich davon nur in der Bezeichnung. Und die Drehbewegung um die optische Längsachse könnten wir uns später kümmern.

Gleiches gilt für die Annahmen zu den Bildwinkeln.
Es kommt keinesfalls ein identisches Bild heraus, wenn man an FX die Brennweite um den crop-Faktor verlängert.
Weil sich bei gleicher Blende die Tiefenschärfe verringert und man daher abblenden muß und dann wiederum bei gleichem Lichtwert eine entsprechend längere Belichtungszeit erhält.
Letzteres kann man durch angepasste ISO-Einstellung ausgleichen, um wieder ein identisches/vergleichbares Bild zu erhalten.
 
Da mit einer sinnvollen und halbwegs vollständigen Erklärung wohl sonst nicht zu rechnen ist, fang ich einfach mal an.

Auf Kamera und Objektiv wirken von außen (Zittern des Bedieners, Auslösebewegung, Wind, schwankender/bewegter Standort usw.) und innen (Spiegelschlag, Verschlussablauf) zeitlich veränderliche Kräfte und Drehmomente ein. Diese führen zu ebenso zeitlich veränderlichen Bewegungen von Kamera und Objektiv als ganzes ("starrer Körper") und zu winzigen Verformungen. Die Verformungen dürfen hier getrost vernachlässigt werden, sie sind zu klein.

Kamera und Objektiv dürfen also als starrer Körper betrachtet werden, der federnd und (stark) gedämpft in der Hand des Bedieners gelagert ist. Wie stark dieser Körper nun auf innere und äußere Anregungen reagiert, hängt von seiner Trägheit (Masse und Massenträgheitsmomente), der Nachgiebigkeit und Dämpfung der Lagerung (in der Hand des Fotografen) und natürlich von der Stärke der Anregungen ab. Und all diese Punkte unterscheiden sich von Kamera/Objektiv zu Kamera/Objektiv, von Fotograf zu Fotograf und sogar von Foto zu Foto. Aber wie die Bewegungen nun von diesen Größen abhängen, ist hier gar nicht das Thema. Wir können einfach davon ausgehen, dass während der Belichtung eine Bewegung stattfindet, und dass diese so klein ist, dass das entstehende Bild entweder noch ausreichend scharf oder nur gerade eben unscharf erscheint.

Die Bewegungen eines starren Körpers können in 6 Komponenten, seine "Freiheitsgrade", zerlegt werden, nämlich in reine Drehungen um die Hoch-, Quer- und Längs-(Objektiv-)achse, und in reine Verschiebungen entlang diesen Achsen. Die Auswirkungen einer Bewegung in diesen 6 Freiheitsgraden auf das vom Objektiv auf Film/Sensor projizierte Bild und schließlich auf das betrachtete Foto ist offensichtlich unterschiedlich. Um die abzuschätzen, muss nun gleich mehrfach nacheinander der Strahlensatz benutzt werden. Außerdem ist die Kenntnis der Winkelfunktionen und deren Linearisierung bei kleinen Winkeln hilfreich, ein grundsätzliches physikalisches und mathematisch/geometrisches Verständnis sowieso.

Zunächst führe ich die zeitabhängigen Winkelgeschwindigkeiten ωh, ωv und ωa ein (Indices für horizontale, vertikale und Objektivachse), sowie die Geschwindigkeiten vh, vv und va, außerdem, weil er gleich gebraucht wird, den Abbildungsmaßstab β, die Brennweite f und die Bildweite b (ich gehe davon aus, dass die Linsengleichung bekannt ist?).

Mit der Annahme, nur kleine Bewegungen betrachten zu müssen, können wir vereinfachend eine während der Belichtungszeit t gleichförmige Bewegung in jedem der Freiheitsgrade annehmen (ich tue es jedenfalls einfach mal). Die Drehungen um die 3 Raumachsen führen dann zu Verdrehwinkeln ∆φhh*t, ∆φvv*t und ∆φaa*t, die Verschiebungen zu Wegen xh=vh*t, xv=vv*t und xa=va*t, und zwar jeweils des gesamten starren Körpers Kamera+Objektiv gegenüber der unbewegten Umgebung und dem fotografierten Objekt.

Ein Lichtpunkt dieses fotografierten Objekts führt nun je nach Bewegungsform zu unterschiedlichen, meist strichförmigen Abbildungen auf Film/Sensor. Hier beschränke ich mich auch noch auf achsnahe Strahlen und später auf eine zentrierte Betrachtung des fertigen Bilds. Und wo ich gerade dabei bin: Auch sekundäre Effekte durch minmale Änderungen in Perspektive, Abstand/Abbildungsmaßstab, Parallaxe usw. vernachlässige ich.

Die für Verwacklungen i.a. wichtigsten Bewegungen sind die Verdrehungen um horizontale und vertikale Achse (Gieren und Nicken). Ein Lichtpunkt erzeugt hier einen geraden Strich der Länge δrh≈b*tan(∆φrh) bzw. δrv≈b*tan(∆φrv) (Indez r für Rotation). Da kleine Bewegungen betrachtet werden sollen, kann tan(∆φ)≈∆φ angenommen werden und außerhalb des Makrobereichs kann die Bildweite b durch die Brennweite f ersetzt werden. Wir können für ein "normales Foto" also annehmen:

δrh≈f*∆φh≈f*ωh*t und
δrv≈f*∆φv≈f*ωv*t

Die Länge dieser "Verwackelspuren" auf dem Sensor ist also näherungsweise proportional zur Brennweite und zur Belichtungszeit. Übrigens sind das auch die beiden Größen, die in der beliebten Faustformel für unverwackelte Bilder vorkommen (zusammen mit dem Cropfaktor, wie wir noch sehen werden). Und diese beiden Bewegungsanteile sind auch die einzigen, die von ausnahmslos allen "vibrationsreduzierenden" Systemen detektiert und kompensiert werden, woraus man auf deren Dominanz bei Verwacklungsunschärfe schließen darf.

Eine Verdrehung um die Objektivachse (Rollen) führt zu einem kurzen bogenförmigen Strich, der um so länger ist, je weiter entfernt der Lichtpunkt vom Bildmittelpunkt (auf Film/Sensor) abgebildet wird. Mit dem Abstand r vom Bildmittelpunkt ist seine Bogenlänge:

δra≈r*∆φa≈r*ωa*t

Diese Form der Verwacklung ist interessanterweise völlig unabhängig von Objektiv oder Fokusdistanz. Ihre größte Ausdehnung hat sie in den Ecken des Films/Sensors, und ist dort umgekehrt proportional zum Cropfaktor. In der Bildmitte ist sie null, nach außen steigt sie linear an. Angeblich wird diese Komponente von vibrationsreduzierenden Sytemen im Kameragehäuse (Pentax, Sony, Olympus etc.) detektiert und kompensiert, das weiß ich nicht. All zu relevant ist sie offenbar nicht, wie die Ergebnisse mit stabilisierten Objektiven von Nikon oder Canon zeigen.

Reine geradlinige Bewegungen entlang der horizontalen und vertikalen Achse führen ebenfalls zu geraden Strichen auf Film/Sensor. Deren Längen sind (Index t für Translation):

δth≈xh*β≈vh*β*t und
δtv≈xv*β≈vv*β*t

Diese Verwacklung hängt also nicht von der Brennweite ab, sondern vom Abbildungsmaßstab und ist deshalb i.a. nur bei Makros relevant. Meines Wissens werden diese Komponenten nur von einem einzigen Makroobjektiv von Canon detektiert und kompensiert.

Und schließlich führt eine geradlinige Bewegung entlang der Objektivachse zu gar keinem Strich, sondern nur zu sekundären Effekten, die vernachlässigbar sind, und damit:

δta≈0

Damit bleiben auf Sensor/Film-Ebene 2 dominante Anteile, die proportional zur Brennweite sind, 2 nur im Makrobereich relevante proportional zum Abbildungsmaßstab, ein 5. (in gleicher Entfernung vom Bildmittelpunkt) unabhängig von beiden und der 6. ist null. Alle 5 sind proportional zur Belichtungszeit.

Bei der Vergrößerung der Bilder auf das zu betrachtende Ausgabeformat (den Betrachtungsabstand nehme ich mal als konstant an) werden alle diese "Verwackelspuren" im gleichen Maß mitvergrößert, wie auch das eigentlich Bild selbst.

Außerdem muss noch geklärt werden, wie sich diese Verwackelspuren auf Film/Sensor unterscheiden, wenn mit verschieden großen Sensoren aus der gleichen Entfernung mit der gleichen Belichtungszeit der gleiche Bildwinkel fotografiert wird. Dann benutzt man (wieder außerhalb des Makrobereichs) Brennweiten, die um den Cropfaktor cF (Index F für Format) kleiner sind als an Vollformat. Auch der Abbildungsmaßstab ist dann um den Cropfaktor kleiner. Und die Verwacklung (an gleicher relativer Position im Bild, also z.B. in den Ecken) um die Objektivachse ist auch um den Cropfakor kleiner.

All das gilt natürlich nur unter der Annahme gleicher Verwackelgeschwindigkeiten und -winkelgeschwindigkeiten. Beim Vergleich ähnlich großer/schwerer Kameras (D800/D700/D300) darf man diese Annahme wohl treffen, zumindest im ganz groben Mittelwert. Bei deutlich unterschiedlichen Kameras, Objektiven, Fotografen, Umgebungsbedingungen usw. wird der Fehler in dieser Annahme immer größer.

Und jetzt müssen mehrer Fälle unterschieden werden:

1. Äquivalente Bilder bei gleicher Ausgabegröße

Hier wird das Bild des kleinen Sensors um den Cropfaktor stärker vergrößert als das vom Vollformat, und ebenso alle Verwackelspuren. Da aber äquivalente Fotos gemacht werden sollen und dann alle 5 Verwackelspuren auf dem Film/Sensor um den Cropfaktor kleiner sind, ist der Effekt auf dem fertigen Bild gleich, der Cropfaktor kürzt sich raus. Das war der triviale Fall.

2. Gleiche Brennweite bei 100%-Ansicht

Hier führe ich erstmal analog zum (Format-) Cropfaktor cF den Pixel-"Cropfaktor" cP ein, und zwar als Verhältnis der (linearen) Pixelabmessungen so, dass für kleinere Pixel der Faktor>1 ist (genau wie beim Formatfaktor). Die Bildvergrößerung auf das (beschnittene) Ausgabeformat in einer 100%-Ansicht ist dann bei kleineren Pixeln um dieses cP größer. (hatte ich schon erwähnt, dass ich nicht "in Pixeln" denke, deshalb auch hier die "analoge" Bildvergrößerung). Jetzt sind also bei gleicher verwendeter Brennweite die 5 verschiedenen Verwackelspuren auf dem Sensor gleich groß, in der 100%-Ansicht unterscheiden sie sich dann im wesentlichen um diesen "Pixel-Cropfaktor", nur der kleine Anteil aus der Rollbewegung ist in beiden Fällen gleich groß (bevor der zu erwartende Aufschrei kommt: Aufmalen, nachrechnen!). Insbesondere sind sie natürlich alle gleich groß, wenn auch die Pixel gleich groß sind. Auch das ist trivial.

3. Kombinationen aus beiden Annahmen

...wie gleiche äquivalente Brennweiten/Bilder in, wegen verschiedener Pixelgröße, verschiedenen 100%-Ansichten oder gleiche Brennweite bei gleicher Ausgabegröße, kann sich jeder hieraus selber zusammenbasteln. Und auch sonst noch diverse Kombinationen. Aber wozu?

So, all das bisher habe ich vorhin im Zug sitzend in mein Handy getippselt (inkl. Formatierung und Sonderzeichen). Ich hoffe, das ist alles lesbar? Auf destruktive Querschläge zum Inhalt werde ich nicht eingehen, auf konstruktive Kritik gern.


Gruß, Matthias
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten