• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Warum sind kleinere Pixel anfälliger für Verwackeln?

bevor ich mich in die falle werfe:

die frage ist doch überhaupt nicht geklärt, das wichtigeste hat bisher nämlich noch keiner vorgerechnet/belegt...

den bezug von den winzig kleinen pixeln zu realen bezugsgrößen. klar, dass man wohl mehr als 4µm zittert ABER bei kurzen zeiten (und langen brennweiten, oder doch kurzen?) könnte es ev. einen reproduzierbaren unterschied geben.

da es ja scheinbar wissende gibt könnten die uns das ja mal vorrechnen. egal ob wirs verstehen oder nicht :top:
 
Sind kleinere Pixel anfälliger fürs Verwackeln?

1. Antwort: Ja, klar wenn man z.B. eine 5D mit einer 5D Mk II vergleicht, ein ganz leicht verwackeltes Bild fällt bei der alten nicht auf, bei der neuen schon, wenn man die Bilder bei 100% am Bildschirm ansieht.

2. Antwort: Nein, warum sollte es. Wenn ich das leicht verwackelte Bild von der Mk II aus dem gleichen Abstand betrachte (oder auf die gleiche Auflösung runter rechne) wie das der Mk I sehe ich auch genauso wenig Verwacklung wie bei der Mk I.

3. Antwort: Ja, logo sind kleine Pixel anfälliger. Ich nehmen eine Cropkamera (z.B. Cropfaktor 2) mit 12 MPixeln und eine VF-Kamera mit 12 MPixeln. Wenn ich bei gleicher Brennweite Fotografiere sind auf dem Bild der Cropkamera die Bewegungsunschärfen über doppelt so viele Pixel verteilt, wie bei der VF-Kamera.

4. Antwort: Blödsinn das mit der Crop- und VF-Kamra. Ich passe meine Brennweite ja dem Cropfaktor an und wenn ich vom gleichen Ort mit halber Brennweite fotografiere um die gleichen Bilder zu machen, verwackle ich nicht mehr und nicht weniger mit der Cropkamera als mit der KB-Kamera. Das gleicht sich exakt aus, wenn ich die Brennweite dem Crop anpasse.


Alle Antworten sind richtig. Man kann sich einfach die passende raussuchen. :D
 
Ich baue die 2 Kameras auf ein Karussel. An einer bestimmten Position werden beide Kameras bei jeder Umdrehung mit unterschiedlichen Zeiten ausgelöst. Wenn ich jetzt alle Bilder auf A4 ausbelichten lasse, sind alle Fotos die bei der alten 5D scharf waren auch bei der Mk II scharf und alle Bilder die bei der Mk I unscharf sind, sind es auch bei der Mk II => kein Unterschied zwischen Mk I und Mk II. (Ansicht nach Antwort 2)

Aber: nutze ich die größere Auflösung der Mk II und belichte alle Bilder mit 300 DPI aus (die Mk II Bilder sind nun deutlich größer), zeigen Bilder mit Zeiten die bei den kleineren Mk I Bildern noch scharf aussehen bei der Mk II schon leichte Unschärfen. (Das ist Antwort 1)
 
Die Erklärung klingt auf den ersten Blick einleuchtend. Ist im Endeffekt aber totaler Humbug, weils in der Praxis keinen Unterschied macht.

Praxistest:
Schraub mal ein 200er Tele auf Deine Kamera und setze sie auf ein Stativ. Mach dann zwei Aufnahmen, eines mit kleinem APS-C Sensor mit 10 oder 12 Mio Pixeln und eines mit Vollformat-Sensor.

Wenn man die Auslösung mal ohne Spiegelvorauslösung vornimmt, dürfte der alleine Spiegelschlag ausreichen, um bei entsprechender Belichtungszeit einen Verwackler zu produzieren. Der wird bei beiden Kameras gleich stark zu beobachten sein.

Deshalb halte ich das für eine extrem weit hergeholte Theorie!
 
So,

wie schon geschrieben, ausführliche Informationen bekommt man mit der Suche nach "Critical Sampling", hier daher nur in Kürze ein paar Zahlen zur Auflösung, die vielleicht das Verständnis erleichtern - wie man merkt ist die Pixelgröße entscheidend:

k100d: (6MP)
3008 x 2008 Pixel
23,5 x 15,7 mm
Pixelgröße 7,8 µm
an 300mm:
Bildfeld (gesamt) 266 x 177 Bogenminuten
Bildfeld (einzelnes Pixel) 5,31 Bogensekunden

k20d: (14,6MP)
4672 x 3120 Pixel
23,4 x 15,6 mm
Pixelgröße: 5µm
An 300mm:
Bildfeld (gesamt) 266 x 177 Bogenminuten
Bildfeld (einzelnes Pixel) 3,41 Bogensekunden

Was also deutlich wird, ist das ein einzelnes Pixel bei einem höher auflösenden Sensor ein wesentlich engeres Feld abbildet.
Wenn wir also eine punktförmige Lichtquelle haben, die sich durch unser Zittern oder ihre Eigenbewegung um 5 Bogensekunden bewegt, fällt ihr Licht bei der k100d im Idealfall auf das selbe Pixel - man bemerkt also kein Verwackeln.
Bei der k20d fällt ihr Licht im Idealfall auf zwei unterschiedliche Pixel (sagen wir, auf eines sehr lange, auf das andere nur sehr kurz) - man bemerkt also Verwackeln, man sieht einen hellen und einen weniger hellen Punkt oder eben einen Strich anstatt einem Punkt.
Schlimmstenfalls fällt in diesem Beispiel das Licht an der k100d auf 2 Pixel, bei der k20d auf drei - hier bemerken wir das Verwackeln bei beiden Systemen, nur wirds an der k20d deutlicher bzw. der Strich wird länger abgebildet.
 
Das, was mein Vorredner geschrieben hat, finde ich sehr gut nachvollziehbar und man kann es sich leicht merken.
 
Die Informationen zu der Fragestellung präzisieren sich mittlerweile dank vieler kompetenter Beiträge auf beeindruckende Weise und ich kann die Berechnungen sehr gut nachvollziehen. Trotzdem möchte ich noch einmal auf meine in Post 35 gestellte Frage zurück kommen, weil sich bisher leider niemand dazu geäußert hat: Inwiefern relativieren die AA-Filter vor dem Sensor die beschriebenen (Mikro-)Verwacklungsunschärfen in der Praxis nicht wieder, zumindestens teilweise. Durch die beabsichtigte Streuung und Unschärfe der Filter fällt ohnehin immer etwas Licht eines Bildpunktes auf eine bestimmte, je nach Filter und Pixelgröße definierte Weise auch auf die benachbarten Pixel. Dabei sind die AA-Filter in ihrer Streuwirkung meines Wissens nach jeweils auf die Sensoren angepasst und im Detail in ihrer Wirkung bei verschiedenen Kameras nicht genau vergleichbar. Diese Unschärfen werden später aus der Sensor-Bildinformation wieder heraus gerechnet.
Könnte es nicht sein, daß dadurch auch ein mehr oder weniger großer Anteil der Mikro-Verwackler ebenfalls eliminiert werden?

Gruß, Jürgen
 
Inwiefern relativieren die AA-Filter vor dem Sensor die beschriebenen (Mikro-)Verwacklungsunschärfen in der Praxis nicht wieder, zumindestens teilweise. Durch die beabsichtigte Streuung und Unschärfe der Filter fällt ohnehin immer etwas Licht eines Bildpunktes auf eine bestimmte, je nach Filter und Pixelgröße definierte Weise auch auf die benachbarten Pixel.

Das ist ganz einfach. Es gibt bei DSLRs zwei Auflösungen, die die im Prospekt steht, und die die der "echten" Bildinformation entspricht. Ich verwende als echte Auflösung immer ein viertel der Pixelzahl. Ein Drittel lässt sich auch sehr gut rechtfertigen. Dies ist in der Tat vom AA-Filter abhängig.

Das heißt für eine 5D Mk II nehme ich ~6 MPixel echte Auflösung an. Ein Kleinbilddia hat ~1 Mpixel echte Auflösung (das entspricht dem Zerstreuungskreis den +-alle Hersteller dafür verwenden). Wer also minimale Belichtungszeit, Schärfentiefe, Hyperfokaldistanz etc. auf diese alten Werte rechnet bzw. diese aus Erfahrung nimmt, wird bei 100% nur durch Zufall wirklich scharfe Bilder bekommen.
 
Man kann auch einfach analog zurückdenken:
Foto auf extrem hochauflösenden Film machen (Informationen für 1 GigaPixel sauber aufgelöst). Das Foto extrem hochauflösend auf A4 ausbelichten (alle Infos bleiben erhalten).
Nachdem es nur ein Foto gibt sind hier wohl unstrittig keine Unterschiede bzgl. Verwacklung vorhanden.
Dann nach Lust und Laune mit 6MP, 10MP, 24MP, ... Auflösung einscannen und die Sache wird schnell klar. Ganz ohne Winkel und Rechnerei.

Hier noch ne Gegenfrage (Denkanstoß in Richtung anathbushs Antwort 2):
Wird mein Foto schlechter bzgl. Verwacklung wenn ich eine höher auflösende Kamera verwende? Bzw. wäre ich bei Belichtungszeiten im Bereich der alten Faustregel (z.B. 1/320/s bei 200mm an Crop) besser dran ne 10D zu verkaufen und ne 10D zu verwenden? :evil:
Dateigröße ist nicht relevant!
 
Zwischendurch möchte ich mal ausdrücklich meinen Dank an alle diejenigen richten, die hier mit interessanten Denkanstößen und Erläuterungen Licht ins Dunkel gebracht haben.

Außerdem haben alle Beteiligten eine sehr angenehme Gesprächsatmosphäre beibehalten. Klasse.
 
Könnte es nicht sein, daß dadurch auch ein mehr oder weniger großer Anteil der Mikro-Verwackler ebenfalls eliminiert werden?

Gruß, Jürgen


Letztlich läßt sich die ganze Fragestellung wohl wieder mal auf das Thema "Zerstreuungskreise" zurückführen. Ein AA-Filter sorgt dafür, das Zerstreungskreise eine gewisse Größe nicht UNTER-schreiten. Dies deshalb, damit immer etwa eine Matrix aus 4 Pixeln beleuchtet wird und somit eine hinreichend genaue Basis für eine saubere Farbinterpolation gewärleistet ist.
Ein Verwackler vergrößert Zerstreuungskreise allerdings -zusätzlich- .

Der entscheidende Punkt:
Wenn eine Verwacklung oder ein anderer Bildfehler eine kritische Größe nicht ÜBER-schreitet, empfinden unsere Augen den abgebildeten Punkt als scharf, weil wir keinen Unterschied zu einem idealen Punkt erkennen können. Selbst dann, wenn dieses Bild rein messtechnisch bereits vom Ideal abweicht. Unsere unbewaffneten Augen haben halt nur eine begrenzte "Messauflösung".

Anders gesagt:
Jedes Bild enthält "Verwackler" und andere Abbildungsfehler, nur können wir sie erst von einer bestimmten Größenordnung an erkennen.

Ähnlich dürfte es auch bei Kameras sein.
Eine Kamera mit mehr und damit kleineren Pixeln hat einfach eine höhere "Messgenauigkeit", so das AUCH Abbildungsfehler jeder Art genauer registriert werden. Wenn ich andererseits ihre positiven Fähigkeiten möglichst gut ausreizen will, muss ich halt auch präziser arbeiten.

Wie stark wir Fehler auf einem ausbelichteten Bild erkennen können, hängt - wie üblich - von der Größe des Bildes, den Fähigkeiten des Druckers und den Betrachtungsbedingungen ab.

Haben wir das Thema nicht schon mal bei der "100 Prozent Darstellung" durchgekaut?
 
Inwiefern relativieren die AA-Filter vor dem Sensor die beschriebenen (Mikro-)Verwacklungsunschärfen in der Praxis nicht wieder, zumindestens teilweise.

Das geht jetzt in Richtung wie lange bringt eine Verkürzung der Belichtungszeit noch eine Bildverbesserung.

AA-Filter ist einer der Aspekte - wobei ich nen Faktor 4 arg hoch finde, ist aber verhandelbar :D - Objektivqualität und Rauschen kommen auch noch hinzu.
Bei ISO100 hat die 50D genug Spielraum für nen nachträglichen Crop mit Faktor 2. Bei ISO1600 wirds dagegen wegen Rauschen bzw. Unschärfen aus der Rauschreduzierung schon eng.

Kit-Objektiv leicht abgeblendet, Belichtungszeit entsprechend Faustregel (Crop berücksichtigt) und ISO1600 liefern an ner 50D gute Bildqualität. Wenns besser werden soll müssen alle Parameter gleichmäßig verbessert werden. Die Kunst ist halt das ganze auszutarieren...
Nur an nem einzelnen Parameter zu schrauben (z.B. Belichtungszeit auf ein Viertel) bringt wenig weil die anderen Faktoren die Qualität begrenzen.
 
AA-Filter ist einer der Aspekte - wobei ich nen Faktor 4 arg hoch finde, ist aber verhandelbar :D

Auf Faktor vier komme ich aus drei Gründen:

Der einfache Grund: Bayerpattern - 2x2 Pixel zu einem zusammengefast ergibt einen RGB-Pixel (zugegeben mit 2x grün).

Der mathematische Grund (so bin ich drauf gekommen): Flächengleichheit von 3 Pixeln (3*Pixellänge^2) und einem entsprechenden Zerstreuungskreis (Pi*Pixellänge^2). Das heißt ein Zerstreuungskreis mit dem Radius Pixxellänge hat fast die selbe Fläche wie drei Pixel (RGB).

Der praktische Grund (darum verwende ich es in all meinen Programmen): Ich habs ausprobiert und bei Faktor 4 die überzeugendsten Ergebnisse gehabt.

Ich würde aber auch andere Faktoren zwischen 3 und 4 für zulässig halten.
 
Hmm. 10MP kann ich recht bedenkenlos auf 5MP eindampfen. Da geht kaum was verloren. (Sind eh nur 5MP Helligkeitsinfo, AA-Filter reduzierts nochmals, Interpolation aus anderen Kanälen holt wieder ein wenig raus)

Danach wirds schwieriger: Von 5 auf 2.5MP gehen finde ich Infos verloren, aber deutlich weniger als die Zahlenverhältnise vermuten lassen. Sogar über nen Faktor 4 hinaus wirken sich Interpolation und AA-Filter noch ein wenig aus.

Auf ne einzelne Zahl reduziert passt dann 3-4 schon.
 
Ja, den Versuch habe ich auch schon hinter mir. Die Kamera macht ja aus 10 Megesubpixel 30 Megasubpixel. Faktor 3 geht also schon mal irgendwie.

Das Problem beim Eindampfen auf ein viertel der Pixel bzw. vielmehr beim erneuten Aufblasen ist, dass man nur bilineare Interpolation und etwas Schärfen oder so verwenden. Während der Algorithmus in der Kamera extrem ausgefeilt und auf die Sensordaten optimiert sein dürfte (und zudem sicher auch mogelt).

Ich denke es ist nicht so ohne weiteres möglich das Bild um Faktor 4 (oder auch nur Faktor 3) zu verkleinern und dann wieder herzustellen.

Das klingt im ersten Moment so als wäre damit die schöne Theorie hinfällig, aber es geht ja nicht darum wie weit man ein aus Bayerpattern interpoliertes Bild wieder verkleinern kann ohne Information zu verlieren, sondern um die Bestimmung eines zum Sensor passenden zKreises, um die Verwacklungsgefahr einschätzen zu können.

Je größer man den Kreis festlegt umso "nachlässiger" ist man. Da ich aber bei Faktor 4 keine Unschärfe bei all meinen Versuchen finden konnte, sehe ich nicht ein das strengere Kriterium zu verwenden.
 
WERBUNG
Zurück
Oben Unten