• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Brauchen Sensoren mit größerer Pixeldichte eine kürzere Belichtungszeit?

Bei mir sind das Belichtungszeiten zwischen 1/800s und 1/1250s. Das reicht um die Fechter einzufrieren, nicht für die sich wesentlich schneller bewegenden Waffen.

Wie gesagt, mir wäre kein physikalischer Einfluss bekannt, der wenn man alle anderen Einflüsse beseitigt, Bewegungsunschärfe und Pixel-Pitch verknüpfen könnte.
 
Solche dynamischen Aufnahmen - finde ich/finden wir - mit einer D7100/D800 "schwieriger".
Reine Beispiele:
So soll es also nicht aussehen.
Bei 1/1250s klappt es halt qualitativ gut, aber da geht die Dynamik schon sehr verloren (-->stehende Reifen). Belichtet man länger (also wie mit den anderen Kameras gewohnt), so tauchen die Probleme auf, die es bei D300/D700/D4 so in der Praxis bei den längeren Zeiten nicht gibt.
So oder so oder so soll es aussehen.
:top: Dann hatte ich es richtig Verstanden.

Jetzt zur zweiten Unstimmigkeit (wo wir hier mal am klären sind:p) für mich: Was wird verglichen?
Wie geschrieben habe ich 2 Bilder in Vollauflösung und ein gecroptes Bild gesehen. Da zu die Aussage der Effekt wäre auf vielen Bildern zu sehen. Sind die alle gecrop?
Eine zweite Aussage war, das wenn nicht gecropt wird, die Unschärfe durch die Verkleinerung nicht gänzlich verschwindet. So ein Vergleich habe ich aber nicht gesehen.

Beim Vergleich von TK zu Crop wundern die Ergebnisse mich nicht.
Beim Verkleinern spielt mMn auch der Algorithmus mit dem verkleinert wird eine nicht unerhebliche Rolle. Für mich gibt halt zu viele Parameter an den gedreht wird um es wirklich am Pixelpitch festzumachen. Auch müsste sich in dieser Hinsicht ein relevanter unterschied zwischen Canon und Nikon herausgebildet haben. Da Canon lange Zeit Sensoren mit kleinerem Pixelpitch verbaut hat.

Für mich kling das einfach nicht plausibel.

Gruß
Rainer
 
Zuletzt bearbeitet:
Erstmal zwei Beispiele:
D3 AF-S 70-200/2.8 VRI, F6.3 und 1/1000s
Lotta%2520und%2520Loulou%25204.jpg

und
D800E AF-S 200/2.0 F2.2 und 1/3200s
It%2520Greyhound%2520I%2520sRGB.jpeg

Obwohl dieser Vergleich mehr als unfair erscheint (bestes 200er an der D800E, E Version ohne Tiefpassfilter) so benötigt man bei einem deutlich unkritischeren Motiv (bezogen auf die Bewegung) eine DEUTLICH verkürzte Belichtungszeit bei der D800E (auch ohne 100% Crop).
Wir sprechen hier schon um den Faktor 3!
Würde ich länger das Windspiel wie bei der D3 mit 1/1000s belichten wäre die Fellstruktur zerstört und nicht erkennbar. Zudem wären die Augen "weich". EDIT: beim Bild der D3 nicht das Fell am Kopf vergleichen sondern etwas weiter hinten am Körper. Hab nicht 100% sauber getroffen und der Kopf ist immer das kritischte beim Windspiel -hatte kein anderes Bild jetzt hier-.

Das Ergebnis wäre ähnlich wie von Thomas berichtet.

Das gilt auch für das skalierte Bild, denn es kann ja nichts vom großen Ausgangsbild "gerettet" werden bzw. Details die nicht da sind kann man sich nicht malen.
Nun "sieht" die Skalierung ja auch "anders" als eine Kamera mit weniger Pixel und hier ein identisches Ergebnis zu erwarten wäre einfach zu trivial (Tiefpassfilter, div. andere optische Faktoren vs. digitale Artefakte).


Das hängt mE mit div. Faktoren zusammen:
1.) Skalierung: Es ist (auch wenn hier immer wieder was anderes behauptet wird) eine kleine Kunst die relevanten Details eines Bildes (z.B. die Federn oder das Fell) "runterzurechnen" ohne! den Bildeindruck des großen Bildes zu zerstören.
D.h. um auf ein "D3" Ergebnis zu können bedarf es einiges an Aufwand und wo nix ist dann wird nie was sein...

2.) Bei der D300 und D7100 sind ggf. unterschiedlich starke AA Filter verbaut. Da ich auch schon einige "matschige" Bilder der D7100 gesehen habe denke ich darüber auch schon länger nach. Wenn man nun einen recht starken AA Filter der Kamera mit höherer Auflösung verpasst hat (in dem Beispiel oben der D7100) dann wäre die Konsequenz klar. TK besiegt digitalen Crop, Skalieren nochmal schwieriger.

Kurzum ich habe mit meiner D800E Version da noch Glück (und die D800 hat auch nur einen recht flachen Tiefpassfilter). An der D7100 kann es aber anders sein und ggf. war das Thema Moire ein no go für die Zielgruppe?!
Das ist aber im Gegensatz zur obigen Beobachtung eher Spekulation.

P.S: Was die D800E mit der verkürzten Belichtungszeit (auch Skaliert!) kann sind die Felldetails am Kopf des Windspiels "retten". So ein Fell am Kopf vom Windspiel konnte man egal mit welcher Belichtungszeit man an der D3 hatte nicht erhalten (vergleichbare Bilder und Objektive).
D.h. auch hier weicht die Skalierung von der geringen Anzahl an Pixel einer anderen Kamera ab!
ABER! um das so zu erhalten ist was nötig?
Richtig...hochauflösende Linsen, saubere Arbeitsweise, etc also das was man "angeblich" ja nicht braucht wenn man keine Crops machen möchte oder nur ein 100% Junkie ist.
Ich sehe das nach meinen Erfahrungen komplett anders denn auch skaliert sieht man die Unterschiede...
 
Zuletzt bearbeitet:
Bei mir geht es Hauptsächlich um Motorsport.
Ich hole mal etwas weiter aus.
2012 bei der MotoGP/Moto2 habe ich dieses Foto mit D300, 400/2.8VR+tc1.4 gemacht.
DSC_6397n.jpg


2013 wollte ich das Motiv zumindest so gut ablichten, daß eine guter A3 Print raus kommt. Somit bi ich dann 2013 mit einer D7100 und dem 600/4VR an das Motiv gegangen. Jedoch ging da qualitativ nicht viel :grumble:
D300 hatte ich nicht mit, also blieb nur D4 + Konverter, und das hat auch sehr gut funktioniert. :D und reicht sogar für einen A2 Print.
DSC_3560.jpg
.

Da das mit der D7100 nicht hingehauen hat, habe zur Moto GP in Assen die D4, D300 und die D7100 mitgenommen.
Gleiches Motiv gleicher Standpunkt hier eines der besten mit der D7100Klick nicht wirklich brauchbar.
Das gleiche mit D300, zum Ausgleich der 24MP habe ich den 1.4 Konverter benutzt Klick. Das D300 ist jetzt nicht das beste sondern spiegelt eher den Schnitt. Hier war bei mir der Punkt erreicht wo mir die ersten Zweifel kamen.
Also beide Kombis auf Stativ und statisches Motiv fotografiert. Die D7100 trift genau ( Kein Fehlfokus ) und das d7100 Foto ist qualitativ besser wie das D300 Foto, egal ob mit oder ohne Konverter. Für die MotoGP am Sachsenring hatte ich mir dann schon eine neue D300s zugelegt.:D
Die D7100 habe ich dann nur noch sporadisch mitgenommen, aber wenn ich sie dabei hatte habe ich eigentlich nur noch ein paar Fotos gemacht um zu sehen ob das mit der D7100 auch funktioniert hätte.
Bei Motorsport möchte man ja noch etwas Bewegung sehen, die sollen ja fahren und nicht parken, also darf ich nicht unendlich kurz belichten.
Hier ein Beispiel D4, 600/4+TC1.4 bei 1/250sec. Aufnahmen wie diese mache reproduzierbar ohne großen Ausschuß.
Für eine vergleichbare Qualität brauch ich mit der D7100 eher 1/1250sec. Klick und brauchen dann schon etwas glück, daß es nicht so aussieht.

Gruß
Thomas
 
:top: Dann hatte ich es richtig Verstanden.
:top:
Für mich kling das einfach nicht plausibel.
Verstehen tue ich es auch noch nicht und kann halt nur berichten, dass es sich bei mir ähnlich verhält wie beim Thomas.

Das wieso, weshalb warum interessiert mich natürlich sehr.
Eine eindeutige Lösung erschließt sich aber auch mit bislang nicht.
Jetzt zur zweiten Unstimmigkeit...
Da kann der Thomas sicher ne Menge zu sagen.
Ich werd ihn mal auf den Thread hier aufmerksam machen. :)
EDITH sagt, das hat sich erledigt. :D

Bezüglich TK und nicht TK kann ich mir vorstellen, dass bei Thomas ja u.a. auch unterschiedliche Formate zum Einsatz kommen bzw. kamen.

Aber wie gesagt - da wird Thomas viel Licht ins Dunkel bringen können, was seine ausgiebigen Erfahrungen betrifft.
 
Zuletzt bearbeitet:
Ich würde Vergleichsbilder in gleicher Ausgabegröße und mit gleicher Brennweite hilfreich finden.
Die TK-Geschichte ist m.E. nicht wirklich hilfreich auf dem Weg zur Beantwortung o.g. Frage.
 
Würde ich länger das Windspiel wie bei der D3 mit 1/1000s belichten wäre die Fellstruktur zerstört und nicht erkennbar.
Das ist esoterischer Humbug. Tut mir leid, aber dafür gibt es absolut gar keine Begründung.

Ich gucke, ob ich am Wochenende mal eine Versuchsreihe hinbekomme. Mir schwebt sowas vor, wie ein Motiv auf einer Feder oder an einem Pendel, die parallel zur Sensorebene hin und her schwingt. Dann hat man die Bewegungsunschärfe erstmal isoliert.

Ich habe drei APS-C Kameras zur Verfügung. 6, 16 und 24 MP.

Ich würde dann gucken, das ich die Bewegung "pixelscharf" mit dem 6 MP Sensor abbilde und dann mit den anderen Kameras bei gleicher Belichtungszeit Fotos zu machen.

Laut eurer These müssten die Bilder der höheraufösenden Kameras bei gleicher Belichtungszeit und Ausgabegröße dann ja unschärfer sein.

Quantifizieren könnte man das ganze dann über die Helligkeit des mit dem Hochpassfilter bearbeitetem Bild.

Kommentare, Vorschläge?
 
Ich gucke, ob ich am Wochenende mal eine Versuchsreihe hinbekomme. Mir schwebt sowas vor, wie ein Motiv auf einer Feder oder an einem Pendel, die parallel zur Sensorebene hin und her schwingt. Dann hat man die Bewegungsunschärfe erstmal isoliert.

Hmm, man bräuchte etwas das sich mit gleicher Geschwindigkeit bewegt.
Wenn das Pendel nicht hinreichend groß und der fotografierte Ausschnitt entsprechend klein ist, dann kommen die unterschiedlichen Geschwindigkeiten auf dem Pendelweg zum tragen.
Oder hast Du eine Möglichkeit die Kameras automatisiert auszulösen (z.B. Lichtschranke)?
 
Das ist esoterischer Humbug. Tut mir leid, aber dafür gibt es absolut gar keine Begründung.
Das ist aber meine Erfahrung.:D

Laut eurer These müssten die Bilder der höheraufösenden Kameras bei gleicher Belichtungszeit und Ausgabegröße dann ja unschärfer sein.

Quantifizieren könnte man das ganze dann über die Helligkeit des mit dem Hochpassfilter bearbeitetem Bild.

Kommentare, Vorschläge?
Das ist zu trivial gedacht da div. Faktoren z.B. der Tiefpassfilter ja auch eine Rolle spielen werden.
Ebenso die Linsen.
Wenn du eine Linse an die 24 Mpx KB Kamera setzt die auch mind. 100 Lp/mm auflöst wäre das "vergleichbar".
Ebenso das Thema Skalierung.
Identisch wäre fair aber die Kameras haben eben was? Klar unterschiedliche Tiefpassfilter und unterschiedliche Auflösungen, d.h. die Algorthmen müssten vergleichbar aber nicht identisch sein (oh je...).

Somit so trivial ist die Sache nicht und es gibt mehr als den "EINEN" Faktor der zu diesen Beobachtungen führt (die aber real sind).

Wäre das nicht so würde ich z.B. mich freuen mit 1/1000s die identischen Ergebnis zu erhalten. Tue ich aber nicht:)
 
Über die genauen Parameter muss ich mir noch Gedanken machen. Ich dachte daran, das Pendel dann immer gleich auszulenken und Fotos beim gleichen Nulldurchgang zu machen.
 
Über die genauen Parameter muss ich mir noch Gedanken machen. Ich dachte daran, das Pendel dann immer gleich auszulenken und Fotos beim gleichen Nulldurchgang zu machen.

Wenn Du beim Nulldurchgang zuverlässig auslösen kannst, dann sollte das passen.
Ich bin auf jeden Fall sehr gespannt! Mir erschließt es sich auch nicht, warum Bilder vom höher auflösenden Sensor und gleicher Ausgabegröße eine kürzere Belichtungszeit für das gleiche Ergebnis benötigen sollten.
 
Wie gesagt, mir wäre kein physikalischer Einfluss bekannt, der wenn man alle anderen Einflüsse beseitigt, Bewegungsunschärfe und Pixel-Pitch verknüpfen könnte.

Wenn dem so wäre, bekämen wir in in einigen Jahren keine Mitzieher a la Thomas(filter99) zu sehen, da die Pixelmengen sicher weiter ansteigen werden. Es sei denn, die Firmen stellen sich darauf ein und bieten Kameras mit weniger kleinen Pixeln an.
 
Ihr geht da beide zu "theoretisch" an die Sache.
Rein von den Parametern betrachtet die ein Laie kennt ist es auch unlogisch und nicht erklärbar.
In der Praxis kennt ihr selbst beim gleichen Hersteller noch nicht mal einen kleinen Teil vom Puzzel wollt aber "verallgemeinern".

Auch das Thema gleiche Ausgabegröße ist so komplex, dass es nicht per LR und einem Klick "vergleichbar" wäre.
Beispeil: In CS gibt es div. Optionen zu skalieren. Nehme ich eine recht "weiche" Option verschwinden die Unterschiede.

Ebenso bei den Linsen.
Somit beides ist ja da auch schlechtere Linsen von der höheren Auflösung profitieren (ah ha...) immer "unvergleichbar".

Kurzum man müsste einen "reinen" Senor ohne Tiefpassfilter für den Vergleich nutzen und das ganze genau ausmessen.
Wenn man das macht wären mE die Unterschiede nicht erkennbar.:)
Verstanden?
 
Das ist zu trivial gedacht da div. Faktoren z.B. der Tiefpassfilter ja auch eine Rolle spielen werden.
Ebenso die Linsen.
Da widersprecht ihr euch jetzt aber selbst. Es wurde explizit behauptet, das ein Unterschied zwischen unbewegten und bewegten Motive besteht, der Einfluss von diesen Faktoren ist aber in beiden Fällen auf jeden Fall gleich.

Linsen werden die gleichen sein, alle mir zu Verfügung stehenden Kameras haben Minolta A Bajonett.
 
Zuletzt bearbeitet:
Ihr geht da beide zu "theoretisch" an die Sache.

Wenn es dieses Phänomen tatsächlich gibt, dann wäre es aus meiner Sicht schon interessant die Ursachen zu ergründen.

Rein von den Parametern betrachtet die ein Laie kennt ist es auch unlogisch und nicht erklärbar.

Naja, das ist ja alles kein Hexenwerk.

In der Praxis kennt ihr selbst beim gleichen Hersteller noch nicht mal einen kleinen Teil vom Puzzel wollt aber "verallgemeinern".

Auch das Thema gleiche Ausgabegröße ist so komplex, dass es nicht per LR und einem Klick "vergleichbar" wäre.
Beispeil: In CS gibt es div. Optionen zu skalieren. Nehme ich eine recht "weiche" Option verschwinden die Unterschiede.

Ebenso bei den Linsen.
Somit beides ist ja da auch schlechtere Linsen von der höheren Auflösung profitieren (ah ha...) immer "unvergleichbar".

Kurzum man müsste einen "reinen" Senor ohne Tiefpassfilter für den Vergleich nutzen und das ganze genau ausmessen.
Wenn man das macht wären mE die Unterschiede nicht erkennbar.:)
Verstanden?

Nein.
Das es ja offensichtlich diverse Mitforenten gibt, die völlig problemlos erkennen können, dass sie um die gleiche Schärfe zu erreichen kürzere Verschlusszeiten benötigen, dann sollte man das doch bei einem standardisierten Test erst recht problemlos erkennen, oder?
 
Da widersprecht ihr euch jetzt aber selbst. Es wurde explizit behauptet, das ein Unterschied zwischen unbewegten und bewegten Motive besteht, der Einfluss von diesen Faktoren ist aber in beiden Fällen auf jeden Fall gleich.

Kennst du die Auswirkungen von Tiefpassfilter auf bewegte Motive? Kannst du überhaupt die Unterschiede ausschließen?

P.S. Auch bei unbewegten Motiven kann man auch skaliert mehr Details bei höherer Auflösung "rausholen" als bei einem System mit weniger Mpx oder wenn man "falsch" aber identisch skaliert auch weniger...

Das es ja offensichtlich diverse Mitforenten gibt, die völlig problemlos erkennen können, dass sie um die gleiche Schärfe zu erreichen kürzere Verschlusszeiten benötigen, dann sollte man das doch bei einem standardisierten Test erst recht problemlos erkennen, oder?

Nochmal und ganz langsam...
IHR geht von der allgemeinen Theorie aus die auch 100% richtig ist.

WIR gehen von der Praxis und einer D300 vs. D7100 und einer D800E vs. D3 aus.
Ich spreche jetzt mal von der D3 und der D800E.
Einmal mit Tiefpassfilter einmal ohne.
Einmal den Workflow mit C1 und CS einmal mit CNX II.
Einmal mit der besten 200er Nikon Linse einmal mit eher der Gurke an 200mm.
Und du willst nun was beweisen was in der Theorie und bei einem blanken Sensor so ist?
Das kann man sich ausrechnen und DENNOCH gibt es diese empirischen Beobachtungen.
Hexenwerk? Nein nur eben andere Ursachen...
 
Zuletzt bearbeitet:
Ich glaube, ich komme der Sache, für mich ,auf theoretischer Basis näher.
Für mich geht das Phänomen mehr in die Richtung Demosaicing und Verkleinerung. Vom Pixelpitch hängt er damit nur mittelbar ab. Sprich theoretisch wären die gleichen Bilder möglich wenn AA-Filter, Demosaicing und verkleinerung Perfekt zusammenarbeiten würden.

Damit könnte ich es mir erklären.

Gruß
Rainer

PS
@Thomas kannst Du ein Bild von der D7100 mit 1/250 oder 1/500, in dem sich das Problem zeigt, ungecropt zeigen? Am Besten mit ähnlicher Motivgröße wie bei den anderen beiden Bildern. Um mir die Stärke des Effektes vorstellen zu können.
 
Nochmal und ganz langsam...
IHR geht von der allgemeinen Theorie aus die auch 100% richtig ist.

Naja, der Titel dieses Threads ist "Brauchen Sensoren mit größerer Pixeldichte eine kürzere Belichtungszeit?".
Meine Antwort aus der theoretischen Betrachtung ist klar nein, solange die Ausgabegröße gleich bleibt.
Wenn Du dem zustimmst, dann sind wir der gleichen Meinung, aber offensichtlich gibt es noch andere Meinungen dazu.


WIR gehen von der Praxis und einer D300 vs. D7100 und einer D800E vs. D3 aus.
Ich spreche jetzt mal von der D3 und der D800E.
Einmal mit Tiefpassfilter einmal ohne.
Einmal den Workflow mit C1 und CS einmal mit CNX II.
Einmal mit der besten 200er Nikon Linse einmal mit eher der Gurke an 200mm.
Und du willst nun was beweisen was in der Theorie und bei einem blanken Sensor so ist?
Das kann man sich ausrechnen und DENNOCH gibt es diese empirischen Beobachtungen.
Hexenwerk? Nein nur eben andere Ursachen...

Ich bin völlig bei Dir.
Aber wo ist das Problem das rauszufinden?

Maximus' Test ist doch schon mal ein interessanter Anfang.
 
Ich glaube, ich komme der Sache, für mich ,auf theoretischer Basis näher.
Für mich geht das Phänomen mehr in die Richtung Demosaicing und Verkleinerung. Vom Pixelpitch hängt er damit nur mittelbar ab. Sprich theoretisch wären die gleichen Bilder möglich wenn AA-Filter, Demosaicing und verkleinerung Perfekt zusammenarbeiten würden.

Damit könnte ich es mir erklären.

Gruß
Rainer
So erkläre ich mir das...:top:

Ich bin völlig bei Dir.
Aber wo ist das Problem das rauszufinden?

Maximus' Test ist doch schon mal ein interessanter Anfang.
Auf alle Fälle deshalb eben mein Hinweis auf mögliche Stellschrauben.
Die Linsen sind das erste Thema was noch trivial wäre...
 
Wo ist Masi, wenn man ihn mal braucht? :D

Es ist völlig unlogisch, dass nicht das gleiche Bild rauskommt, ob analog, 10 oder 100 Megapixel. Und wenn ich lese, dass man mit höher auflösenden Sensoren um den Faktor 3 kürzere Belichtungszeiten bekommt, bin ich etwas sprachlos.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten