• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Verschlusszeit und Verwacklungsunschärfe bei APS-C

Danke für die Quelle. Tatsächlich beeindruckende Pixelzahlen - hatte nämlich bisher bei mehreren Quellen (die ich jetzt leider nicht finde...) gelesen, dass Farb-Diafilm nur max. ca. 10 MPx erreichte.

Da Photoscaler eher zu verlässlichen Quellen für zählen glaube ich was da drin steht. Ich lasse mich aber auch gerne eines Besseren belehren.
 
...Das Bild der D300 (bei gleicher Ausgabegröße) immer um den Faktor 1,5 im Vergleich zur D700 mehr vergrößert wird...

Hab' ich etwas verpasst? Ich dachte, man nimmt an einer D700 eine um den Crop-Faktor längere Brennweite - selbst bei gleicher Ausgabegröße (obwohl beide disjunkt sind).

...Eine 12MP APS-C verhält sich zu einer 18 MP exakt genauso. Es ist das selbe Thema aus verschiedenen Blickwinkeln.

Hier hatte ich nun verstanden, dass die Belichtungszeit (näherungsweise) um den Faktor Wurzel(1,2) respektive Wurzel(1,8) zu verkürzen ist (obwohl dies im Nicht-Pixel-Bereich vernachlässigbar ist).

Wat stimmt denn nu?
 
Zuletzt bearbeitet:
Hier wurde scheinbar mit einem (schlechten?) Objektiv ein Vergleich angestellt mit ISO 100 - 3 Mpx:
http://www.henner.info/vergl.htm#KB-Kamera

ISO 25 (sehr praxisgerecht...) - 16 MPx:
https://de.wikipedia.org/wiki/Kleinbildkamera#Bildqualit.C3.A4t

Ergänzung:
Mal ganz praktisch:
Ich habe gerade jede Menge Negativfilme gescannt. Bei realen 4000 dpi (etwa 20 MPix) geht jedem Negativfilm komplett die Puste aus. Da kann man schon die Körner zählen.
Mein persönliches Fazit:
Ein "handelsüblicher" Farbnegativfilm entspricht in der Auflösung bestenfalls einem 5MPix Sensor. Viel mehr ist nicht drin.
Ein Diafilm hat etwas mehr Auflösung, kommt aber an einen 8MPix Sensor nicht wirklich heran.
 
Zuletzt bearbeitet:
Das Bild der D300 (bei gleicher Ausgabegröße) immer um den Faktor 1,5 im Vergleich zur D700 mehr vergrößert wird.
Hab' ich etwas verpasst? Ich dachte, man nimmt an einer D700 eine um den Crop-Faktor längere Brennweite - selbst bei gleicher Ausgabegröße (obwohl beide disjunkt sind).

Alles gut: die um den Cropfaktor kürzere Brennweite der Cropkamera brauchst Du für den gleichen Ausschnitt - die um die Cropfaktor stärkere Vergrößerung ergibt sich daraus, daß der Vergrößerungsfaktor zwischen (unterschiedlicher) Sensorgröße und (gleicher) Ausgabegröße sich genau um den Cropfaktor unterscheidet.
Wegen dieser stärkeren Vergrößerung (und damit einhergehenden "stärkeren" Sichtbarkeit der Verwacklung) brauchst Du bei der Cropkamera eine kürzere Belichtungszeit (nach Faustformel: 1/(Brennweite*Cropfaktor) als bei der KB-Kamera mit gleicher Brennweite nötig wäre. Da bei der KB-Kamera aber hier eine ebenfalls um den Cropfaktor längere Brennweite gewählt wird, kommt man (welch Wunder der Mathematik) bei beiden auf die gleiche Belichtungszeit.
(PS: Pixel kommen in diesen Berechnungen gar nicht vor.)

So wie ich die Diskussion verstanden habe, wurde den Aussagen nicht wiedersprochen - zumindest hatte ich nicht die Absicht. Wenn man von "Positionen" reden will, so ist denen gemein, das es zwar theoretisch richtig ist (höhrere Auflösung lässt Verwacklung besser/früher erkennen), praktisch aber irrelevant - zumindest für das, was "üblicherweise" mit solchen Aufnahmen passiert. Daraus schließe ich, dass es sich nicht lohnt, in eine höhere Auflösung zu investieren, solange ich mich mit "üblichen" Dimensionen begnüge - oder wie waartfarken schon am Anfang gesagt hatte: ich diese Auflösung gar nicht nutzten will. Das gilt sicher auch für andere Formen der Unschärfe, was ja auch bedeutet, dass man auch Objektive mit entsprechender Abbildungsleistung haben sollte, um die Auflösung "an die Wand" bringen zu können - was ich schon anfangs gesagt hatte.

So ist es, die Aussagen widersprechen sich nicht im geringsten:
Wenn jemand ein Bild maximal vergrößern will, vergrößert er sozusagen solange, bis die Pixelgröße die Größe des maximal tolerierten Zerstreuungskreises erreicht.
Da ist es doch nicht weiter verwunderlich, daß unter diesem Anspruch die Verwacklung (die ja, um unsichtbar zu bleiben, höchstens dem maximal tolerierten Zerstreuungskreis entsprechen soll) ebenfalls maximal der Pixelgröße entsprechen darf - weil die Pixelgröße in diesem Fall dem maximalen tolerierten Zerstreuungskreis entspricht. Diese Festlegung der Verwacklungsgrenze über die Pixelgröße ist also (wie bereits gesagt) nur ein Grenzfall der allgemeinen Festlegung - dahinter steckt genau der gleiche Zusammenhang.
(Man verzeihe mir, hier vereinfachend von "Pixelgröße" zu sprechen.)
 
Zuletzt bearbeitet:
"Die Verwacklung wird dadurch auf der Pixelebene schneller sichtbar, weil nicht nur das Bild, sondern auch die Verwacklung feiner aufgelöst wird" (siehe: http://slr-foto.de/freihandgrenze_verwacklungsgrenze.htm)

Die Verwacklung ist nur dummerweise nicht das gleiche wie die subjektive Unschärfe. Um diese (auf Pixelebene) sichtbaren Fehler zu sehen, muss man (weil unser Auge das in Original-Sensorgröße nicht ansatzweise erkennt) das resultierende Foto umso stärker vergrößern, bis die "Unschärfe" als solche sichtbar wird.

Die wird aber genauso sichtbar, wenn da weniger Pixel sind, weil einfach mit dieser starken Vergrößerung die Auflösung (dpi) schlechter wird und je schlechter die Auflösung, umso "unschärfer" erscheint ein Foto.

Diese ganze Pixeldenkerei ist definitiv für den Eimer, die ganze Aussage, dass ein Foto bis zu einer bestimmten Belichtungszeit in Abhängigkeit von der Brennweite "scharf" erscheint, basiert natürlich auf mehreren Grundannahmen und eine davon ist natürlich die Annahme, dass man einen Standardabzug betrachtet. Wenn man statt eines normalen Abzugs ein Monsterposter aus 10cm anschaut, verschiebt sich diese Grenze natürlich.

Das hat nur alles nichts mit der Anzahl Pixel zu tun, je stärker man vergrößert und je näher man "rangeht", umso unschärfer wird der Abzug. Das ist immer so.
 
Das hat nur alles nichts mit der Anzahl Pixel zu tun, je stärker man vergrößert und je näher man "rangeht", umso unschärfer wird der Abzug. Das ist immer so.
Spätestens wenn die dpi in Keller gehen, weil großes Ausgabeformat (und kurze Betrachtungsdistanz) gewählt wurde, sieht man Pixel (Körnung) mit den Augen. Unter der Annahme, dass die Belichtungszeit gerade (perfekt) so gewählt wird, dass ein Pixel (Korn) nicht mehr sichtbar verwackelt erscheint, dann wird ein weiteres, kürzeres Belichten nichts mehr bez. Verwacklungsunschärfe bringen - egal wie groß das Plakat noch gedruckt wird.

Ergo: Es gibt einen klaren Zusammenhang mit Sensorgröße in Abhängigkeit der Pixelanzahl (Korngröße), Brennweite (Betrachtungswinkel) und dem Individualfaktor-Mensch-Body-Objektiv bez. Verwacklung - wenn man das letzte aus dem Sensor (Film) holen will,... was viele Leute aber nicht müssen/brauchen/wollen.
 
Spätestens wenn die dpi in Keller gehen, weil großes Ausgabeformat (und kurze Betrachtungsdistanz) gewählt wurde, sieht man Pixel (Körnung) mit den Augen. Unter der Annahme, dass die Belichtungszeit gerade (perfekt) so gewählt wird, dass ein Pixel (Korn) nicht mehr sichtbar verwackelt erscheint, dann wird ein weiteres, kürzeres Belichten nichts mehr bez. Verwacklungsunschärfe bringen - egal wie groß das Plakat noch gedruckt wird.
Ich stehe nachts mit einer leuchtenden Fackel auf einem quadratischen Grundstück mit einer Kantenlänge von 20 Metern, ein direkt angrenzendes Nachbargrundstück hat die gleiche Form und Größe.
Welche Strecke muss ich mindestens zurücklegen, um auf das Nachbargrundstück zu gelangen und welche Auswirkung hat das auf ein Luftbild, das gerade 20 Meter auflösen kann? Muss ich die Pixel des Bildes auf die Grundstücksgrenzen ausrichten? Ist es sinnvoll, Pixel derart zu betrachten?
Antwort auf die letzte Frage: Nein, natürlich nicht. Es geht nicht um Pixel, es geht um Auflösung. Es geht darum, ob die Verwacklung aufgelöst wird.

Dein Zusammenhang ist der, daß die Verwacklung im betrachteten Bild niemals aufgelöst werden kann, wenn sie schon im aufgenommenen Bild nicht aufgelöst wird. Das hat vom Prinzip her nichts mit Pixeln zu tun.

Ergo: Es gibt einen klaren Zusammenhang mit Sensorgröße in Abhängigkeit der Pixelanzahl (Korngröße), Brennweite (Betrachtungswinkel) und dem Individualfaktor-Mensch-Body-Objektiv bez. Verwacklung - wenn man das letzte aus dem Sensor (Film) holen will,... was viele Leute aber nicht müssen/brauchen/wollen.
Wurde das bestritten? Es wurde darauf hingewiesen, daß es immer der gleiche Zusammenhang ist.
 
Zuletzt bearbeitet:
Ergo: Es gibt einen klaren Zusammenhang mit Sensorgröße in Abhängigkeit der Pixelanzahl (Korngröße), Brennweite (Betrachtungswinkel) und dem Individualfaktor-Mensch-Body-Objektiv bez. Verwacklung - wenn man das letzte aus dem Sensor (Film) holen will,... was viele Leute aber nicht müssen/brauchen/wollen.
Der Grad der Sorgfalt die ich bei der Aufnahme dem Bild Angedeihen lassen muss hat nichts damit zu tun wie hoch ich das Bilde vergrößern könnte sondern nur wie groß ich es tatsächlich vergrößere.

Sonst stimme ich Dir in Deiner Aussage völlig zu.
 
Ja eh - aber wisst ihr das immer wirklich vorher?

Bei einer Discofotografie mit nachträglicher Homepage-Ausgabe ist wahrscheinlich vorhersehbar - ok.

Nein, natürlich nicht immer, aber oft. Meist habe ich das Bild das entstehen soll schon vorher im Kopf. Bei diesen Bildern weiß ich es.
Bei anderen z.B. Reportagefotos (Sport oder andere Veranstaltungen) brauche ich i.d.R keine Hochauflösenden Fotos, da ist der Moment viel wichtiger als die letzten 10% technische Bildqualität.
Auf Wanderungen muss ich halt den besten Kompromiss finden. Da findet fotografie eher nebenbei statt. Da kann es schon mal vorkommen das ich ein Bild nicht in der Qualität bekomme wie ich es gerne hätte. Wenn alles andere Stimmt habe ich "nur" ein gutes aber kein hervorragendes Bild, so ist das Leben.
Bei studioartigen Situationen und bei speziellen Fototouren lasse ich das Pendel eher in Richtung Bildqualität ausschlagen.
 
Ja eh - aber wisst ihr das immer wirklich vorher?

Ich habe noch nie die Belichtungszeit auf die später geplante Vergrößerung ausgerichtet. Diese doofe kleine Faustformel gibt mir nur einfach eine grobe Idee von dem Risiko, ein Bild zu verwackeln. Auch bei 50mm und 1/1000s halte ich die Kamera still. Wenn ich mit 50mm bei 1/30s lande, halte ich noch stiller. Und bei 1/4s rechne ich vielleicht gar nicht mehr mit einem unverwackelten Bild und freue mich aber, wenn es doch was geworden ist.
 
Klingt vernünftig bzw. so passiert es in der Praxis einfach! Man knipst ja trotzdem bei 1/30s (bei bereits 4 stelligen ISO´s) weiter und hofft auf die Statistik, dass auch gute dabei sind!

Und die grobe Formel dient halt auch dazu, um zu überlegen, ob man bei Tele die vorhandene VC/OS/VR-Sicherheitsreserve aktivieren soll, oder nicht. Unnötig aktivierter Stabi soll ja schon manches Bokeh leicht verunstaltet haben...
 
wenn man das letzte aus dem Sensor (Film) holen will

Wenn...

Genau da liegt der Hase im Pfeffer. Diese alte Grundregel (1/Brennweite) basiert nicht auf der Annahme, die maximal mögliche Auflösung sichtbar zu machen, sondern Fotos in standardisierter Größe und Entfernung zu betrachten.

Das ist doch vollkommen klar, dass so eine Annahme zu Grunde liegt. Aber es wird diese Annahme gerne unter den Teppich gefegt und einfach argumentiert, je mehr Pixel umso weniger gilt die Regel und spätestens das ist falsch.

Natürlich kann man theoretisch mit einem höher auflösenden Sensor noch größere Poster abziehen die theoretisch noch schärfer erscheinen, als mit einem weniger auflösenden Sensor geschossen. Und diese noch schärferen Riesenposter können Verwacklungen noch filigraner sichtbar machen, weswegen die alte Faustregel da nicht gilt. Nur darum ging es bis an dieser Stelle nicht.

Ganz gemein wird es aber, wenn man bedenkt, dass die hohe Pixeldichte eigentlich gar keinen großen Sinn mehr hat, denn wie man aus den einschlägigen Tests erkennen kann, liegt die Linienauflösung selbst der besten Objektive meilenweit unter der Pixeldichte der Sensoren. Es ist die berechtigte Frage, ob man ein Foto, welches mit einem weniger dichten besiedelten Sensor schießt, der aber immer noch besser auflöst als das verwendete Objektiv, nicht einfach hochskalieren kann - sieht das dann unschärfer aus (wenn man jeweils das gleiche Poster druckt) als das Pendant mit dem höher auflösenden Sensor geschossen?
 
Naja, hierzu möchte ich die Audiotechnik einmal einblenden:
Hier wird eig. nicht darüber diskutiert, ob 96khz oder 192kHz Samplingrate bei 24bit besser oder sinnvoll sind als eine CD mit 44,1kHz und nur 16bit - dort ist es Fakt. Ein sogenanntes Oversampling hat Vorteile, speziell beim Moire-/AA-Filtern. Es ist immer besser wenn das Moire (bedingt durch die Sensorauflösung) erst weit oberhalb der tatsächlichen Objektivauflösung auftreten kann - und somit real nie zum Thema wird. Und wie man sieht, kann man dank hoher Sensorauflösung heute bereits den AA-Filter sogar weglassen, und gewinnt dadurch 10-15% oftmals Schärfe (bei gleichem Objektiv). Da kann ein (zwangsweise AA-gefilterter) 12..16MPx Sensor einfach nicht mehr mithalten.
 
Hier wird eig. nicht darüber diskutiert, ob 96khz oder 192kHz Samplingrate bei 24bit besser oder sinnvoll sind als eine CD mit 44,1kHz und nur 16bit - dort ist es Fakt.

Da das auch zu meinen Steckenpferden gehört, kann ich das nicht so stehen lassen. Und diese Diskussion ist genauso sinnlos und da ist gar nichts Fakt, denn auch dort gelten bestimmte Grundannahmen und die wichtigste Grundannahme ist dort, was kann das menschliche Ohr überhaupt hören und unterscheiden.

Ich habe selbst vor 20 Jahren einen groß angelegten Blindtest veranstaltet mit über 40 Teilnehmern (auch mit "Goldohren" dabei, u.a. auch ausgebildete Tontechniker), da war (wie erwartet) nachher gar nichts mehr, die Leute hören noch nicht einmal MP3 als solches. Es gab überhaupt nur einen einzigen Teilnehmer, der halbwegs signifikant (aber auch meilenweit von 100% Trefferquote entfernt) die schlechteste Codierung mit 128kbit/s "erahnen" konnte.

Aber wie das mit Vergleichen ist, es ist sinnlos etwas völlig anderes zu vergleichen, es ging hier um die Frage der Schärfe im Zusammenhang mit dieser alten "Bauernregel" 1/Brennweite und diese Bauernregel basiert nun einmal auf bestimmten Grundannahmen, es geht auch gar nicht anders. Wir können andere Annahmen treffen, aber dann ist die Frage auch eine andere.

Jetzt ist aber noch die spannende Frage offen, was nützen die vielen Pixel, wenn es das Objektiv nicht bringt??
 
Ganz gemein wird es aber, wenn man bedenkt, dass die hohe Pixeldichte eigentlich gar keinen großen Sinn mehr hat, denn wie man aus den einschlägigen Tests erkennen kann, liegt die Linienauflösung selbst der besten Objektive meilenweit unter der Pixeldichte der Sensoren.

Die Gesamtauflösung wird immer durch Objektiv und Sensor zusammen bestimmt.

Deswegen bringt eine Erhöhrung der Pixelzahl immer auch eine Verbesserung der Gesamtauflösung, selbst bei schlechten Objektiven. Nur ist da die Verbesserung nicht so deutlich wie bei guten Optiken.

Wenn "einschlägige Tests" etwas anderes behaupten, sind sie falsch, zumal wenn auf eine "Linienauflösung" abgestellt wird, bei der ohnehin unklar ist, um was es sich dabei handeln soll.

Schau dir doch mal z.B. bei DxO an, wie die Gesamtauflösung durch Verwendung höher auflösender Sensoren steigt, und das sogar bei mittelprächtigen Objektiven.
 
Da das auch zu meinen Steckenpferden gehört, kann ich das nicht so stehen lassen. Und diese Diskussion ist genauso sinnlos und da ist gar nichts Fakt, denn auch dort gelten bestimmte Grundannahmen und die wichtigste Grundannahme ist dort, was kann das menschliche Ohr überhaupt hören und unterscheiden.
Damit´s (viell.) nicht heißt, ich habe keine Ahnung: Ich war 7 Jahre bei AKG Acoustics Elektronik-Hardware-Entwickler. Ich weiß, wie man einen ADC bez. AA beschalten muss...

Es geht mir nicht darum, ob jemand die niedrige MP3-Bitrate oder den Unterschied zu Dolby-True-HD erkennt bzw. ob jemand bei einer viell. kleinen Ausgabegröße die verwackelten Pixel überhaupt (nicht) sehen kann. Mir geht es "nur" um´s technisch richtig Aufnehmen bei Ausnutzung der vollen Sensorauflösung.

Es gilt (scheinbar nur für mich) daher als Faustformel für Verwacklung @ 24 MPx DX-Format:
1 / (Brennweite x Cropfaktor x Wurzel aus [Sensorauflösung vs. alter typ. KB-Filmauflösung])
1 / (Brennweite x 1,5 x Wurzel aus [24 MPx / 10 MPx*]

1 / (Brennweite x 2,5) ...gerundet

*da gibt es meinetwegen Diskussionsmöglichkeit von Mainstream-ISO400-Diafilmen mit ca. 10Mpx bis Highend-ISO50-Farbnegativen mit 22 MPx
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten