• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Nachtaufnahmen Smartphone vs DSLR

Ein großer Sensor benötigt ungleich mehr Zeit zum Auslesen, weshalb die hochwertige Kamera nicht mehrfache Belichtungen zum Zusammenrechnen machen kann, sondern nur eine.
Diese Aussage verstehe ich nicht.
Meinst mit "groß" die Fläche oder die Pixelzahl?
Nach meinem Verständnis sollte die Fläche keinen Einfluss auf die Auslesegeschwindigkeit haben, denn es wird nur mehr Licht pro Pixel eingefangen (also bessere High-ISO-Eigenschaften). Die Zeit für das Auslesen eines einzelnen Pixels solle eine ähnliche Größenordnung haben, so dass ein 12 MP-Handysensor und ein 12MP Vollformatsensor ähnlich schnell ausgelesen werden können, oder?

Bei den aktuellen Diskussionen DSLR vs. DSLM liest man häufig, dass ein Sensor mit elektronischem Verschluss prinzipbedingt mehr Zeit benötigt, um ausgelesen zu werden als einer mit Schlitzverschluss.
Das widerspricht ebenfalls der zitierten Aussage.

Kannst du das genauer erklären?
Gruß, Michael
 
Diese Aussage verstehe ich nicht.
Meinst mit "groß" die Fläche oder die Pixelzahl?
Nach meinem Verständnis sollte die Fläche keinen Einfluss auf die Auslesegeschwindigkeit haben, denn es wird nur mehr Licht pro Pixel eingefangen (also bessere High-ISO-Eigenschaften). Die Zeit für das Auslesen eines einzelnen Pixels solle eine ähnliche Größenordnung haben, so dass ein 12 MP-Handysensor und ein 12MP Vollformatsensor ähnlich schnell ausgelesen werden können, oder?

Bei den aktuellen Diskussionen DSLR vs. DSLM liest man häufig, dass ein Sensor mit elektronischem Verschluss prinzipbedingt mehr Zeit benötigt, um ausgelesen zu werden als einer mit Schlitzverschluss.
Das widerspricht ebenfalls der zitierten Aussage.

Kannst du das genauer erklären?
Gruß, Michael

Ich meine damit tatsächlich die Fläche (Edit Anmerkung: wenn dabei die Pixeldichte gleichbleibt). Nehmen wir kurz das Beispiel des Rolling Shutter, wenn du filmst oder mit dem elektronischen Verschluss fotografierst. Dort entstehen bei Schnellen Schwenkbewegungen ja schiefe Linien, obwohl sie bei ner Laterne z.B. gerade sein sollten. Dazu kommt es deswegen, weil die Kamera den Sensor beim elektronischen Verschluss zeilenweise von oben bis unten nacheinander ausliest. Je größer die Fläche, desto länger braucht die Kamera. Das ist die Auslesegeschwindigkeit, die beispielsweise bei nem durchschnittlichen APS-C-Sensor über 30 Millisekunden beträgt (entspricht in etwa einer Verschlusszeit von 1/30 über den ganzen Sensor hinweg). Nimmst du diese Auslesezeit und skalierst sie auf die Größe eines Smartphone-Sensors, landest du bei nur noch 8ms, was in etwa 1/125 entspricht. Das ist jetzt hypothetisch angenommen, wenn die Auslesegeschwindigkeit über Sensorgrößen und Pixeldichte äquivalent bleibt, wobei Smartphone-Sensoren vermutlich noch schneller auslesen können.

Macht das Smartphone nun eine Reihe von 12 Bildern, braucht sie dafür nur etwa 1/10 Sekunde, während eine APS-C-Kamera dafür 1/3 Sekunde bräuchte. Das ist alles insoweit hypothetisch, WENN die APS-C-Kamera eine solch hohe Serienbildgeschwindigkeit hätte. Smartphones haben intern diese Fähigkeit, so schnell hintereinander auszulesen, Kameras wie die Sony bekanntlich nicht. 1/10 Sekunde reicht aus, um mit Bildstabi 12 deckungsgleiche Bilder zu erstellen bzw. fast deckungsgleich, was sich moderne Software zunutze macht, um noch mehr Details zu errechnen.

Also machst du mit deiner APS-C-Kamera ein Bild, während das Smartphone ein Dutzend macht. Durch Triangulation, Stacking und Interpolation errechnet das Smartphone nun aus diesen Bildern das fertige Endergebnis mit ähnlich vielen Bildinformationen wie dein großer Sensor in einem Bild. Das ist der ganze Trick.

Was du noch ansprichst mit dem Schlitzverschluss: Ein durchschnittlicher Schlitzverschluss kann ja bis zu 1/4000 Sekunde schnell sein, womit hypothetisch eine Serienbildgeschwindigkeit von 2000 Bildern möglich wäre, wenn man annimmt, dass der Verschluss ja dieselbe Zeit braucht, um wieder in Ausgangsposition zu fahren. Da das aber physikalisch in nem Kamerabody quasi unmöglich ist, und ebenso wieder durch die Auslesegeschwindigkeit der Sensoren begrenzt ist, sieht man eher was zwischen 5 und 15 Bildern pro Sekunde, das scheidet dann fürs Stacking erst recht aus, da du für 12 Bilder nun gleich ne Sekunde brauchst im Vergleich zur 1/10 des Smartphones. Vllt. schaffst du aus der Hand gehalten 2-3 Bilder, die du dann unter großem Aufwand später am PC zusammenrechnest. Aber wer macht das schon? Handy raus, zack, oder gleich mit Stativ und großer Kamera.

Jetzt fragst du dich vllt., warum Kameras nicht einfach ihre maximale Auslesegeschwindigkeit nutzen können, um permanent hintereinander ein Bild zu machen. Das wäre bei 30ms gut 30 Bilder in der Sekunde. Zum Einen, manche moderne Kameras können das sogar für eine sehr kurze Zeit bewerkstelligen (Sony A9, Fuji X-T3/X-T30 oder Canon M6 II), diese besitzen aber so hochmoderne Sensoren, deren Auslesegeschwindigkeit noch um ein ganzes Eck höher liegt. Zum Andren, warum das nicht so einfach umzusetzen ist, ist die enorme Hitzeentwicklung der Sensoren. Guck dir die neue Panasonic S1H an, die sogar einen aktiven Ventilator hinterm Sensor braucht, um 4k in 60 Bildern auslesen zu können, ohne zu überhitzen. Oder denke an all die Überhitzungsprobleme der Sonys bei 4k30. Handys können da nur müde lächeln, sie beherrschen das schon lange, weil sie keine Hitzeprobleme aufgrund der kleinen Sensoren haben.

Sollte allerdings der mythische globale Sensor irgendwann Realität werden, könnte das auch für Kameras mit großen Sensoren den großen Durchbruch in computational photography bedeuten, wenn hohe Serienbilder mit de facto 0ms Auslesegeschwindigkeit realisiert werden könnten.
 
Zuletzt bearbeitet:
Viel geschrieben aber wenig aus der praxis:rolleyes:
Ich besitze eine DSLm die eher gemächlich den Sensor ausliesst, der limitierende Faktor ist hier aber eh die serienbidgeschwindigkeit, aber trotz allem sind es 8 Bilder sek. Und Angst vor Rolling Schutter muss man auch nicht haben man kann ja einfach den mechanischen Verschluss nehmen.
Also ich trete jederzeit mit meiner großen Kamera gegen ein phone an und dann machen wir mal so eine nachtaufnahme aus dem flugzeugfenster und schauen uns das Ergebnis mal auf einem etwas grösserem Monitor als dem des phones an.:lol:
 
Ich meine damit tatsächlich die Fläche (Edit Anmerkung: wenn dabei die Pixeldichte gleichbleibt). Nehmen wir kurz das Beispiel des Rolling Shutter, wenn du filmst oder mit dem elektronischen Verschluss fotografierst. Dort entstehen bei Schnellen Schwenkbewegungen ja schiefe Linien, obwohl sie bei ner Laterne z.B. gerade sein sollten. Dazu kommt es deswegen, weil die Kamera den Sensor beim elektronischen Verschluss zeilenweise von oben bis unten nacheinander ausliest. Je größer die Fläche, desto länger braucht die Kamera. Das ist die Auslesegeschwindigkeit, die beispielsweise bei nem durchschnittlichen APS-C-Sensor über 30 Millisekunden beträgt (entspricht in etwa einer Verschlusszeit von 1/30 über den ganzen Sensor hinweg). Nimmst du diese Auslesezeit und skalierst sie auf die Größe eines Smartphone-Sensors, landest du bei nur noch 8ms, was in etwa 1/125 entspricht. Das ist jetzt hypothetisch angenommen, wenn die Auslesegeschwindigkeit über Sensorgrößen und Pixeldichte äquivalent bleibt, wobei Smartphone-Sensoren vermutlich noch schneller auslesen können.

Macht das Smartphone nun eine Reihe von 12 Bildern, braucht sie dafür nur etwa 1/10 Sekunde, während eine APS-C-Kamera dafür 1/3 Sekunde bräuchte. Das ist alles insoweit hypothetisch, WENN die APS-C-Kamera eine solch hohe Serienbildgeschwindigkeit hätte. Smartphones haben intern diese Fähigkeit, so schnell hintereinander auszulesen, Kameras wie die Sony bekanntlich nicht. 1/10 Sekunde reicht aus, um mit Bildstabi 12 deckungsgleiche Bilder zu erstellen bzw. fast deckungsgleich, was sich moderne Software zunutze macht, um noch mehr Details zu errechnen.

Also machst du mit deiner APS-C-Kamera ein Bild, während das Smartphone ein Dutzend macht. Durch Triangulation, Stacking und Interpolation errechnet das Smartphone nun aus diesen Bildern das fertige Endergebnis mit ähnlich vielen Bildinformationen wie dein großer Sensor in einem Bild. Das ist der ganze Trick.

Was du noch ansprichst mit dem Schlitzverschluss: Ein durchschnittlicher Schlitzverschluss kann ja bis zu 1/4000 Sekunde schnell sein, womit hypothetisch eine Serienbildgeschwindigkeit von 2000 Bildern möglich wäre, wenn man annimmt, dass der Verschluss ja dieselbe Zeit braucht, um wieder in Ausgangsposition zu fahren. Da das aber physikalisch in nem Kamerabody quasi unmöglich ist, und ebenso wieder durch die Auslesegeschwindigkeit der Sensoren begrenzt ist, sieht man eher was zwischen 5 und 15 Bildern pro Sekunde, das scheidet dann fürs Stacking erst recht aus, da du für 12 Bilder nun gleich ne Sekunde brauchst im Vergleich zur 1/10 des Smartphones. Vllt. schaffst du aus der Hand gehalten 2-3 Bilder, die du dann unter großem Aufwand später am PC zusammenrechnest. Aber wer macht das schon? Handy raus, zack, oder gleich mit Stativ und großer Kamera.

Jetzt fragst du dich vllt., warum Kameras nicht einfach ihre maximale Auslesegeschwindigkeit nutzen können, um permanent hintereinander ein Bild zu machen. Das wäre bei 30ms gut 30 Bilder in der Sekunde. Zum Einen, manche moderne Kameras können das sogar für eine sehr kurze Zeit bewerkstelligen (Sony A9, Fuji X-T3/X-T30 oder Canon M6 II), diese besitzen aber so hochmoderne Sensoren, deren Auslesegeschwindigkeit noch um ein ganzes Eck höher liegt. Zum Andren, warum das nicht so einfach umzusetzen ist, ist die enorme Hitzeentwicklung der Sensoren. Guck dir die neue Panasonic S1H an, die sogar einen aktiven Ventilator hinterm Sensor braucht, um 4k in 60 Bildern auslesen zu können, ohne zu überhitzen. Oder denke an all die Überhitzungsprobleme der Sonys bei 4k30. Handys können da nur müde lächeln, sie beherrschen das schon lange, weil sie keine Hitzeprobleme aufgrund der kleinen Sensoren haben.

Sollte allerdings der mythische globale Sensor irgendwann Realität werden, könnte das auch für Kameras mit großen Sensoren den großen Durchbruch in computational photography bedeuten, wenn hohe Serienbilder mit de facto 0ms Auslesegeschwindigkeit realisiert werden könnten.

Versteh ich immer noch nicht. Das Auslesen eines Pixels dauert n ms. Also wird der Sensor innerhalb (n x MP) ms ausgelesen. Ob der Pixel eine Fläche von einem Quadratmikrometer oder einem Quadratmeter hat sollte doch völlig irrelevant sein.
 
Zuletzt bearbeitet:
Versteh ich immer noch nicht. Das Auslesen eines Pixels dauert n ms.

Sensel werden nicht "ausgelesen". Die gespeicherte Photonenenergie wird ermittelt, indem eine externe Spannung mit der Senselspannung verglichen wird. Die externe Spannung wird stufenweise erhöht, und wenn der Komparator Gleichstand meldet, wird die Zahl der Stufen als Mass für die Helligkeit abgespeichert.

Damit kann das "Auslesen" eines Schwachlicht-Sensels schon mal um den Faktor 1000 schneller sein als beim Starklicht-Sensel - es müssen nämlich weniger Stufen abgearbeitet werden. Kameras scheinen diesen Geschwindigkeitsvorteil aber nicht weitergeben zu können. Smartphones haben mit ihrer höheren Rechenleistung da bessere Chancen.

Ausserdem kann ich bei kumulierten Aufnahmen mit einer gröberen Stufung arbeiten- u.U. reichen sogar 6Bit. Das brächte noch einmal eine um den Faktor 256 gesteigerte Geschwindigkeit gegenüber 14Bit.

Ohne Kenntnis der dahinterstehenden Schaltungslogik sind deshalb Aussagen zur Auslesegeschwindigkeit unmöglich.
 
...Ein durchschnittlicher Schlitzverschluss kann ja bis zu 1/4000 Sekunde schnell sein, womit hypothetisch eine Serienbildgeschwindigkeit von 2000 Bildern möglich wäre,...

Diese kurze Verschlusszeit von 1/4000 s wird über die Schlitzbreite gesteuert. Für 1/4000 s ist der Verschluss nicht ganz offen, sondern nur ein sehr schmaler Schlitz der über den Sensor//Film wandert. Bei schnellen Schlitzverschüssen ist der Verschluss von langen Zeiten bis ca. 1/250 s ganz offen. Mit solchen Verschlüssen sind dann Serienbildgeschwindigkeiten von ca. 8 bis 11 Bildern pro Sekunde möglich.
Die Blitzsynchonisationszeit gibt einen Hinweis darauf wie schnell der Verschluss abläuft.
 
...
Nach meinem Verständnis sollte die Fläche keinen Einfluss auf die Auslesegeschwindigkeit haben, denn es wird nur mehr Licht pro Pixel eingefangen (also bessere High-ISO-Eigenschaften). Die Zeit für das Auslesen eines einzelnen Pixels solle eine ähnliche Größenordnung haben, so dass ein 12 MP-Handysensor und ein 12MP Vollformatsensor ähnlich schnell ausgelesen werden können, oder?
Gruß, Michael

Die Pixel//Sensel werden bei den derzeitigen Sensoren zeilenweise ausgelesen. Die Signallaufzeit ist deshalb abhänging von der Größe des Sensors. Wenn bei zukünftigen Sensoren dann jedes Pixel//Sensel einzel und parallel ausgelesen wird, haben wir den "global shutter". Dann wird die Größe des Sensors nicht mehr so entscheidend sein für die Auslesegeschwindigkeit.
 
Ich glaube, ich habe es viel zu kompliziert (und auch insgesamt nicht ganz richtig) erklärt.

Also versuche ich es nochmal richtig (bitte korrigiert mich, ich lese mir das auch nur an und unterliege Verständnisfehlern):
Ein CMOS-Sensor wird zeilenweise ausgelesen, d.h. alle Pixel einer Zeile werden gleichzeitig belichtet. Dann schaltet die Zeile ab, und in der nächsten Zeile werden alle Pixel gleichzeitig belichtet. Solange, bis alle Zeilen eines Sensors abgetastet wurden.

Die Auslesegeschwindigkeit hängt also von der Zeilenanzahl geteilt durch die Abtastrate ab. Wenn ein Sensor 3000 Zeilen (bei 12MP) hat, und eine Abtast-Rate von 300khz, dann wäre der Sensor bei etwa 10ms ausgelesen. Unabhängig von der Sensorgröße, diese Werte entsprechen aber einem typischen Smartphone-Sensor, die kaum Rolling shutter aufweisen.

Mit der Sensorgröße steigt aber die Hitze-Entwicklung bei gleichbleibender Abtastrate und Zeilenanzahl. Also entweder muss die Zeilenanzahl (also effektiv die Auflösung des Sensors) sinken oder die Abtastrate, um nicht zu überhitzen (oder es muss für Kühlung gesorgt werden, siehe Heat sinks und Belüftung)

Da die Anzahl der Zeilen bei modernen Kameras mit großen Sensoren aber nicht gesunken, sondern gestiegen ist (24MP aufwärts, also in etwa 4000 Zeilen oder mehr), muss die Abtastrate sinken. Bei 4000 Zeilen bringt eine Abtastrate von 120khz in etwa eine Auslesezeit von 33ms, was ungefähr dem von Sony-APS-C-Kameras entspricht. Selbst bei gleichbleibender Auflösung von 3000 Zeilen und 12MP müsste die Abtastrate signifikant sinken.

So können also nur sehr kleine Sensoren wie in Smartphones so viele Bilder hintereinander mit elektronischem Verschluss machen. Größere Sensoren haben physisch bedingte Grenzen, die bisher nicht gelöst sind. Daher gibt’s auch noch immer keine Sony A7S III mit 4k mit Oversampling aus 24MP in 60 Bilder/Sekunde. Da müsste die Abtastrate 250khz betragen, um auf ca. 16ms Auslesegeschwindigkeit zu kommen und 4k60 zu ermöglichen.

Die neue Canon M6 II hat übrigens ggü. der Sony einen sehr geringen Rolling Shutter in 4k. Weil sie statt Oversampling aus dem vollen Sensor scheinbar nur jede zweite Zeile auslesen, und dann von den entstehenden 3,Xk auf 4k hochskalieren. Sie haben also die Zeilenzahl reduziert, bei gleichbleibender Abtastrate und kommen dadurch auf 17ms statt 34ms wie bei Sony.

Ein Hinweis:
Die Höhe der Abtastrate ist aber rein theoretisch berechnet, weil ich nirgendwo Angaben darüber finden kann, und die Rolling Shutter ms-Angaben aus 4k-Videos stammen. Das tut der technischen Erklärung aber keinen Abbruch.
 
Das ist schon ein interessantes Thema. Nach einigem gegoogele glaube ich, dass Eure Erklärungsansätze nicht (vollständig) richtig sind.
Der Unterschied scheint in der unterschiedlichen Technik der Sensoren zu liegen.
Offensichtlich erfolgt das Auslesen (ich nenne es weiterhin Auslesen, denn Auslesen ist eine von der Technik unabhängige Vokabel. Die Erklärung von Rodinal liefert lediglich die Beschreibung, welches technische Verfahren zum Auslesen angewendet wird) eines CMOS-Sensors (im Gegensatz zum CCD-Sensor einer DSLR) durch die integrierte Elektronik (jedes Pixel hat seinen eigenen Verstärker) direkt ohne Ladungsverschiebung. Dies bietet einen Zeitvorteil. Des Weiteren kann der CMOS-Sensor bereits während des Lesevorgangs die bereits ausgelesenen Pixel für das nächste Bild belichten. Dies bietet ein
en weiteren Zeitvorteil.
 
d.h. alle Pixel einer Zeile werden gleichzeitig belichtet. Dann schaltet die Zeile ab, und in der nächsten Zeile werden alle Pixel gleichzeitig belichtet. Solange, bis alle Zeilen eines Sensors abgetastet wurden.
Tatsächlich werden immer viele Zeilen überlappend gleichzeitig belichtet, aber mit dem Auslesen passt es wieder.

Mit der Sensorgröße steigt aber die Hitze-Entwicklung bei gleichbleibender Abtastrate und Zeilenanzahl. Also entweder muss die Zeilenanzahl (also effektiv die Auflösung des Sensors) sinken oder die Abtastrate, um nicht zu überhitzen (oder es muss für Kühlung gesorgt werden, siehe Heat sinks und Belüftung)
Unsinn. Pro Fläche dürfte der grössere Sensor eher weniger Verlustleistung machen. Und für ein paar Sekunden spielt das eh noch keine Rolle.

Die ADCs in den SM haben vermutlich eine niedrigere Auflösung, das macht sie schneller. Nikon 1 konnte mit einem 12-bit-ADC vor 8 Jahren schon 60 fps bei 10 MP. Mit 14 bit tut man sich bei zeilenweiser Auslesung da schwer.

Und welche Auflösung und Framerate schafft denn ein SM in diesem Nachtmodus? - mach ein 4k-Video mit Deiner DSLR und fass die Frames nachher zusammen.

im Gegensatz zum CCD-Sensor einer DSLR
Die letzte DSLR mit CCD kam 2009 raus.
 
Zuletzt bearbeitet:
Danke für die vielen Antworten. Wie gesagt, ich befinde mich in einem bewegten Objekt (Flugzeug) und da habe ich sehr oft reizvolle Nachtszenen.
Ich denke, ich habe die Erklärungen verstanden und nutze weiter mein Smartphone dafür. Trotzdem schade.
 
Ich denke, ich habe die Erklärungen verstanden und nutze weiter mein Smartphone dafür. Trotzdem schade.

Wieso schade? Dir wurde doch erklärt, wie du bessere Bilder hinkriegst.
-DSLR nehmen
-deine Nachbearbeitungsskills verbessern
-freuen

Warum also das Handy nehmen?

Mit freundlichen Grüßen
Nick
 
Nicht nur mit der Nachbearbeitung beschäftigen mach mit der dslr das was das Handy auch macht....multiframe.

Muss er auprobieren, er hat von schnellen Bewegungen gesprochen, wenn sich nicht nur das Flugzeug sondern tatsächlich der Bildinhalt schnell bewegt könnte das tatsächlich schwierig werden.
 
Muss er auprobieren, er hat von schnellen Bewegungen gesprochen, wenn sich nicht nur das Flugzeug sondern tatsächlich der Bildinhalt schnell bewegt könnte das tatsächlich schwierig werden.
Ich bin noch immer bei der nächtlichen Stadt aus dem Flugzeug, ich hoffe hier gibt es keine Missverständnisse weil das Flugzeug ja recht schnell ist aber das Handy ja anscheinend das nicht stört :ugly::
 
Wenn man daran denkt, dass das Flugzeug ziemlich schnell fliegt, spielt es in Abhängigkeit von Wolken, Perspektive und Flughöhe (Entfernung vom Objektiv) durchaus eine Rolle, dass die Bilder in kürzester Zeit vor dem Stacken "geschossen" werden müssen.
Sonst sind sie nicht mehr deckungsgleich.
 
Hallo,

bei der Geschwindigkeit des Flugzeuges und der Serienbildgeschwindigkeit von halbwegs modernen DSLRs sehe ich kein wirkliches Problem. Die Unterschiede von Bild zu Bild sind nicht unerträglich groß, dass die Software das nicht hinbekommt. Mit der richtigen Software lässt eine DSLR ein olles Handy nicht nur alt aussehen.


MfG

Rainmaker
 
WERBUNG
Zurück
Oben Unten