• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb November 2025.
    Thema: "Landschaft s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum November-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Nachtfotografie: Landschaft mit Sternenhimmel

Darüber hinaus ist es nicht egal, ob man in Kamera verstärkt mit höherer ISO oder später am PC. Wie genau die ISO in den modernen DSLRs wirkt weiß ich nicht, aber es ist ganz sicher keine einfache digitale Verstärkung.

Nicht ganz, nein. Aber fast. Im Laufe der Entwicklung ist der Unterschied sogar immer stärker geschrumpft. Der Grund ist genau der, der hie angeführt wurde. Sensoren mit 14-Bit-Wandlern sind schon fast fähig, einzelne Photonen aufzulösen. Wenn man wirklich die Zahl der Photonen hat, ist es egal ob man erst analog verstärkt und dann wandelt oder ob man nur genug für den A/D-Wandler verstärkt und dann die "ISO" digital macht.

Google mal nach "ISO-less sensor"
 
Ich sehe die Schlussfolgerung nicht. Meine Aussage (irgendwann...) war ja nicht auf das konkrete Zahlenbeispiel bezogen.
Es mag sein, dass für einen gegebenen Stern evtl. die kürzeste Belichtungszeit einer DSLR auch bei ISO 100 noch ausreicht, aber als generelle Aussage bleibe ich dabei: Man kann nicht beliebig kurz belichten.

Angenommen die Belichtungszeit ist so kurz, dass nur noch jedes 10. Bild ein einziges Photon im Pixel ankommt und wegen der Quanteneffizienz dann nur in der Hälfte der Fälle ein Elektron daraus wird, dann hast Du dieses Elektron doch dann später trotzdem im RAW-Bild und wenn Du diese Werte aufsummierst hast Du doch trotzdem die gleiche Lichtmenge.

Natürlich braucht man dann *sehr viele* Bilder und das Verfahren wird ziemlich unpraktisch, aber prinzipiell gibts keine Untergrenze.
 
Ja, klar. Aber in dem Fall müsste ein einzelnes Photon auch zu einem Wert größer null führen, was wiederum auf Dynamikumfang des Sensors und ISO ankommt. Aber ich glaube, da sind wir uns einig.

Vielleicht sollte wir aus Rücksicht auf die anderen die Diskussion auch langsam einstellen. :-)
 
Nein, Stacken macht man ja genau um das Rauschen los zu werden. 16 Bilder gestackt bei ISO 1600 rauschen genau soviel wie ein Bild bei ISO 100.

Nein. Das Rauschen wird nur mit der Wurzel der Bilder weniger. Wenn Du 16 Bilder stackst dann wird das Rauschen um Faktor 4 weniger, d.h. das gestackte Bild hat dann Rauschen wie ISO400.

Ich denke, das ist auch das Problem beim Stacking. Es reicht nicht, einfach nur genügend Licht zu sammeln. Man muss auch das im Verhältnis deutlich stärkere Rauschen loswerden. Dadurch braucht (viel) mehr Bilder.
 
Fehler des Mittelwerts ist sigma/sqrt(N)

Das Ruaschen ist proportional zu Wurzel der Lichtmenge. Die Lichtmenge geht Linear mit der Anzahl der Foto. Damit ist der relative Fehler im gestackten Bild der gleiche wie im nachgeführten.
 
Zuletzt bearbeitet:
Ich denke, das ist auch das Problem beim Stacking. Es reicht nicht, einfach nur genügend Licht zu sammeln. Man muss auch das im Verhältnis deutlich stärkere Rauschen loswerden. Dadurch braucht (viel) mehr Bilder.

Bei meinem Test letzte Nacht habe ich das auch festgestellt, die 8x8 Sekunden bei Iso 3200 sind nach dem Stack deutlich "rauschiger" als die 60 Sekunden bei Iso 400. Kleinere Sterne sind dadurch noch nicht sichtbar.
Die Kombination aus langer Belichtung und stacken ist ideal.

https://www.dslr-forum.de/showpost.php?p=11543405&postcount=1131
 
Womit wir wieder bei der Frage wären, welcher Anteil dominant ist. Laut Emil Martinec ist das das Photonenrauschen bei viel Licht. Erst bei extrem wenig Licht kommt das Ausleserauschen in die Größenordnung des Photonenrauschens, bei den heutigen Kameras.

Wie sieht das jetzt bei Astrofotos aus?

Je nachdem liegt die Zahl irgendwo zwischen n Belichtungen und n² Belichtungen.
 
Zuletzt bearbeitet:
Womit wir wieder bei der Frage wären, welcher Anteil dominant ist. Laut Emil Martinec ist das das Photonenrauschen bei viel Licht. Erst bei extrem wenig Licht kommt das Ausleserauschen in die Größenordnung des Photonenrauschens, bei den heutigen Kameras.

Wie sieht das jetzt bei Astrofotos aus?

Bei einer Langzeitbelichtung (Nachführung) hat man viel Licht. Dass das Photonenrauschen der dominante Rauschfaktor ist stört dabei nicht, denn der entscheidende Faktor ist das SNR und das ist dabei gut.

Bei kurzen Belichtungen hat man wenig Licht. Wenn man die Bilder jetzt aufsummiert, dann hat man mehr Signal, aber leider summiert man auch das Kamerarauschen. Das Rauschen wird dabei zwar besser, aber halt nicht linear sondern nur mit der Wurzel.
 
Nochmal: Das Gestackte Bild rauscht beim Photonenrauschen genausoviel wie das nachgeführte Bild. Beim Ausleserauschen ist das SNR beim gestackten Bild schlechter.

Wenn das Ausleserauschen klein ist (der Fall bei modernen Kameras) unterscheiden sich die SNRs von gestacktem und nachgeführtem Bild nur unwesentlich.

Beispiel Alpha 77:

Wie man sieht, ist das Rauschen auch bei hohen Zahl weitestgehend vom Photnenrauschen dominiert. Es ist nur wenig stärker, als der Wurzelzusammenhang vermuten lassen würde.
 

Anhänge

Zuletzt bearbeitet:
Wenn das Ausleserauschen klein ist (der Fall bei modernen Kameras) unterscheiden sich die SNRs von gestacktem und nachgeführtem Bild nur unwesentlich.

Nein. Wenn Du zB mit einer Nachführung 2 Minuten bei ISO 800 belichten würdest, dann wären das 30.000 /8 = 3750 Elektronen für die hellsten Pixel. Nun willst Du aber lieber 120x 1s belichten und das macht dann 3750/120 = 37 Elektronen pro Pixel für die hellen Bildbereiche. Damit liegen aber die dunklen Bildbereiche sehr wohl im Bereich des Ausleserauschens.
 
Ausleserauschen bei einer Aufnahme liegt aktuell im Einstelligen Elektronenbereich. Liegt also bei einer Aufnahme tatsächlich in der Größenordnung der schwächeren Sterne. Dias Rauschen nimmt durchs mitteln aber weiter ab (aber nur mit Wurzel(N)). Womit man beim Nachführen insgesamt ein leicht besseres SNR hat. Wie signifikant das ist, müssen jetzt also die Experimente zeigen.

Aber hier wäre endlich mal eine Erklärung, warum ein nachgeführtes Bild überhaupt besser sein kann
 
Zuletzt bearbeitet:
Womit man beim Nachführen insgesamt ein leicht besseres SNR hat. Wie signifikant das ist, müssen jetzt also die Experimente zeigen.

Aber hier wäre endlich mal eine Erklärung, warum ein gestacktes Bild überhaupt besser sein kann

du meinst doch: nachgeführtes, oder hab ich die diskussion auf den letzten seiten völlig mißverstanden?

und geht die diskussion nicht in die richtung, die ich hier schonmal erwähnt hatte? Ohne reaktion, leider....

Oliver
 
Nachgeführt, natürlich. Und ob du das so gemeint hattest, kann ich nicht sagen. Jedenfalls hast Du nichts über unterschiedliche Quellen von rauschen geschrieben.
 
Wir sollten uns mal zu einem physikalischen Fotoversuch mit anschließender Sprituosen-Verkostung treffen. Da lässt sich doch gleich besser diskutieren... :-)
 
Also ich fasse mal für mich zusammen, was ich hier rausgezogen hab:
  • theoretisch, somit auch (weitgehend) praktisch, ist es Piep-egal, ob Photonen in einer Langbelichtung (Nachführung) oder mehreren Kurzbelichtungen (Stacking) gezählt werden.
Mir kommt noch folgendes in den Sinn:
  • Pro Nachführung: weniger anfällig für die Sorten von statistisch ungleichmäßigem Rauschen (die Sorte Rauschquellen, die man normalerweise mit Dark-Frames halbwegs zu bekämpfen versucht?) Denn Stacking setzt ja voraus, dass sich alle anderen Rauscharten als das Photonen-Rauschen ja zu null ausgleichen, also dass das "andere" Rauschen statistisch wunderschön symmetrisch ist. Hier unterschieden sich aber möglicherweise Theorie und Praxis? und zwar in einer schon praxisrelevanten Größenordnung? (keine rhetorische Frage, sondern echte Frage)

  • Pro Stacking: Ich hab mal gelesen, dass man theoretisch mehrere Einzelaufnahmen nutzen könnte, um die Auflösung zu erhöhen (Pixelzahl zu erhöhen). Es würde dann die Tatsache ausgenutzt, dass die Stacking-Aufnahmen nur um Pixelbruchteile gegeneinander verschoben sind. Ich hab aber (noch) KEINE Ahnung, ob die üblichen Stacking-Tools das anbieten oder ausnutzen? Und ob solche Techniken überhaupt bei stark verrauschten Einzelbildern klappen würden? (vermute: nein; entweder man nutzt Stacking zur Entrauschung, oder zur Auflösungsteigerung, aber zu beidem ginge nicht) (und Entrauschung hätte in der Hobby-Astro-Fotografie wohl natürlich Vorrang)

  • Pro Stacking: Ich vermute mal, dass Stacking präziser "nachführen" kann, wenn die Einzelbilder auf Pixelbruchteil-Präzision übereinander-gelegt werden.
    Vorausgesetzt natürlich, die Objektiv-Verzeichnung wird von vornherein gegenkorrigiert (wie dies auch Panorama-Tools machen), und/oder das Stacking adaptiert sich für jede Bildregion neu. Hintergrund: schon bei meiner Amateur-Ausrüstung (APSC 14,5 Megapixel an 300mm) sieht ein Pixel nur einen Himmelsausschnitt von 0,001° (ein Tausendstel Grad). Halte es für schwierig, dass eine mechanische Nachführung bzw. der justierende Mensch davor einer solchen Präzisionsanforderung gerecht werden kann? Die eingestellte Nachführbahn dürfte also nicht zu Abweichungen von der ideal-korrekten Bahn führen, die am Ende ein Tausendstel Grad übersteigt.
 
Zuletzt bearbeitet:
[*]theoretisch, somit auch (weitgehend) praktisch, ist es Piep-egal, ob Photonen in einer Langbelichtung (Nachführung) oder mehreren Kurzbelichtungen (Stacking) gezählt werden.[/LIST]
Es ist egal. Egal ob theoretisch oder praktisch. Wenn das gestackte Bild mehr rauscht, ist eine andere Rauschquelle am Werk.
  • Pro Nachführung: weniger anfällig für die Sorten von statistisch ungleichmäßigem Rauschen (die Sorte Rauschquellen, die man normalerweise mit Dark-Frames halbwegs zu bekämpfen versucht?) Denn Stacking setzt ja voraus, dass sich alle anderen Rauscharten als das Photonen-Rauschen ja zu null ausgleichen, also dass das "andere" Rauschen statistisch wunderschön symmetrisch ist. Hier unterschieden sich aber möglicherweise Theorie und Praxis? und zwar in einer schon praxisrelevanten Größenordnung? (keine rhetorische Frage, sondern echte Frage)

  • Falsch. Ausleserauschen ist ebenfalls statistisch gleichverteilt. Der entscheidende Unterschied zum Photonenrauschen ist, dass es hier einen festen Zusammenhang zwischen Anzahl der Photonen und der Standardabweichung gibt, nämlich Wurzel(N). Mittelt man Werte so ist die neue Standardabweichung sigma_einzelbild/Wurzel(N). Dann kürzt sich das beim Photonenrauschen genau raus und der relative Fehler (das was wir sehen) ist gleich, beimgestackten und beim Einzelbild. Beim Ausleserauschen gibt es diesen Zusammenhang nicht. Es hat immer eine feste Größe, die Standardabweichung beträgt bei modernen Kameras einige Elektronen pro Pixel. Damit ist der relative Fehler größer, wenn wenig Licht auf den Sensor fällt. Hier ist stacken also im Nachteil.

    Und nochwas grundsätzliches: Wenn sich Theorie und (das korrekt durchgeführte) Experiment unterscheiden, dann muss die Theorie angepasst werden. Das ist ja genau das, um das es uns hier ging. Eine theoretische Erklärung zu finden, warum oder warum auch nicht, die Nachführung besser ist.

    [*]Pro Stacking: Ich hab mal gelesen, dass man theoretisch mehrere Einzelaufnahmen nutzen könnte, um die Auflösung zu erhöhen (Pixelzahl zu erhöhen).
    Natürlich kannst du auch ein "Panorama" machen. Das hat nichts mit dem hier diskutierten Fall zu tun, denn aus mehreren nachgeführten Aufnahmen kannst du auch eins machen. Wenn man Stacking betreibt um das Rauschen loszuwerden, dann ist Stacking auflösungstechnisch im Nachteil, weil auf Grund der Rotation der Bilder Verschnitt entsteht.

    [*]Pro Stacking: Ich vermute mal, dass Stacking präziser "nachführen" kann, wenn die Einzelbilder auf Pixelbruchteil-Präzision übereinander-gelegt werden.
    Nein. Stacking über PC ist immer ein bisschen raten.
    Hintergrund: schon bei meiner Amateur-Ausrüstung (APSC 14,5 Megapixel an 300mm) sieht ein Pixel nur einen Himmelsausschnitt von 0,001° (ein Tausendstel Grad).
    Das geht davon aus, dass du tatsächlich nur 1 Pixel große Sterne hast. Hast du aber nicht und da die Sterne größer sind und auch einen Halo haben, hast du eine Positionsungenauigkeit, die das Stacking Ergebnis wieder schlechter macht.
 
Zuletzt bearbeitet:
Hallo,
wäre Dankbar um jegliche Kommentare was schlecht ist und besser gemacht werden kann...Danke im voraus

Fotografiert mit Canon EOS 400D , Canon 18-55mm ( bei 18mm )
F - 3,5
313 sek. Langzeitbel.
Iso - 200
Nachträglich nur leicht aufgehellt komplett
 

Anhänge

ich würde als erstes die wb anders setzen...es sei denn, du magst dieses braun orange. desweiteren ist die geschichte mit den startrails ein fortlaufender prozess, bei dem es solang die grundlagen nicht geklärt sind, kein besser oder anders machen gibt...ich weiss gar nicht ob toni da einen artikel in seinem handout zu verfasst hat?!
 
WERBUNG
Zurück
Oben Unten