• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Nachtfotografie: Landschaft mit Sternenhimmel

Ok danke für den tip. Wenn man gegen die Uhr hält hab ich irgendwie das Gefühl, dass es nicht so gut ist. Bei einer mechanischen Uhr kann man auch nicht einfach am Zeiger drehen gegen die Mechanik. Sonst wird aus „1000“ Fotos nur 100 Fotos 🤣
 
Moin!

...in meiner Heimat, dem Bergischen Land, bzw. dem Ruhrgebiet unterwegs bin, wo die Lichtverschmutzung natürlich eher hoch ist.

Ach, da ist es besser, viel besser als man glaubt :cool:

...Die Bilder die entstanden sind, weisen alle eine Art Halo auf, von dem ich mir nicht ganz sicher bin, wie er entsteht. ...

Irgend ein Filter vor dem Objektiv? Wech damit!
Montierung?? Du meinst wohl Nachfuehrung!
Sind die Fotos in der astronomischen Nacht aufgenommen worden? Ist die Helligkeit am Horizont noch Daemmerung (Sonne < 16 Grad unterm Horizont) oder ist das Lichtverschmutzung? Der Vordergrund scheint - vom Mond? - erhellt zu sein.
Also ich sehe da nur die sogenannte 'Vignette' auf den Bildern 1 und 2, ausserdem ein starke Kontrasterhoehung auf dem bearbeiteten Bild Nr. 2. Auf den Bildern 3 und 4 (Ausschnitt?) meine ich auch unten rechts die Milchstrasse zu sehen. Wo ist der Horizont auf den Bildern 3 und 4, links? Ich halte den hellen Streifen auf der linken Seite (Bild 3 und 4) fuer Daemmerungslicht oder eine sonstige Lichtverschmutzung. Reflexionen in der Optik sind bei schwachem Sternenlicht eher selten :) Ein heller Mond koennte u.U. solche Probleme machen.

Wie wurde die Vignette entfernt? Im Raw-Konverter? Fuer viele Anwendungen im Astrobereich ist diese Methode nicht gut genug. Versuche es mal mit der klassischen Methode der Astrofotografie mit Lights (Sternbilder), Darks (Stoersignale des Sensors), Flats (Vignette und andere Fehler des optischen Systems) und Bias (technischer Klamauk) . Ist einfacher als es sich anhoert und geht z.B. mit DSS (s. unten).

Die Bilder sehen mir alle viel zu blaustichig aus was eine bekannte Krankheit der digitalen Nachtfotografie ist. Die Daemmerung und der vom Mond beleuchtete Himmel sind blaeulich, aber ansonsten sind die meisten Sterne aehnlich unserer Sonne mit einer Farbtemperatur von 5000-5500 K, also wie Tageslicht. Die uebliche Lichtverschmutzung ist gelb-orange von den Natriumhochdrucklampen/Strassenlaternen und in der digitalen Welt (=Raw Konverter) kann man das prima durch eine zu niedrige/blaue Farbtemperatur kompensieren. Leider werden die Sterne dann auch zu blau ... Clark hat sich dazu detailliert ausgelassen: https://clarkvision.com/articles/nightsky-natural-color-vs-bad-post-processing/
Die richtige Methode ist also eine Subtraktion der Lichtverschmutzung, nicht eine 'Korrektur' mit dem Farbtemperaturregler.

Stapeln: Versuch es mal mit Sequator.

Wenn du mehr Sterne / Milchstrasse sehen willst: Mit Nachfuehrung etliche Aufnahmen machen (Mondlicht meiden und Lichtverschmutzung moeglichst reduzieren), stapeln (verbessert das Signal-zu-Rausch Verhaeltnis) und die Lichtverschmutzung subtrahieren (s. Link zu Clark unten), anschliessend das Histogramm stretchen. Das geht am besten mit Astrosoftware wie PixInsight ($$$$) oder Deep Sky Stacker (DSS, free), benoetigt aber etwas Einarbeitungszeit (steep learning curve :D ). Vordergrund separat bearbeiten und einblenden.

Bildideen: Industrie(ruinen) vor dem Nachthimmel, aber da wirst du viel mit Lichtverschmutzung zu kaempfen haben. Es gibt da eine Webseite von einem Nachtfotografen in Singapur und schlimmer geht es kaum ...

Beste Einfuehrung fuer Astrofotografie die ich kenne, ist aber lang und detailliert:
https://clarkvision.com/articles/beginning-astrophotography/
 
Zuletzt bearbeitet:
Vielen Dank für die ausführliche Antwort. Ich versuche mal, deine Fragen zu beantworten.
Es war kein Filter vor dem Objektiv. Am Horizont, auf Bild 1 Uns 2 sieht man, denke ich, Dämmerung.

Der Horizont auf 3 und 4 ist unten rechts. Der Mond stand rechts von dem Ausschnitt (gegenüber des Bereichs, an dem der ‚Halo‘ die höchste Intensität hat).
Es war wohl eher die bürgerliche Dämmerung als tiefe Nacht. Ich arbeite unter der Woche und bin somit leider zeitlich eingeschränkt -möchte aber dennoch mein Equipment testen.
Kontrast wurde erhöht, um die Sichtbarkeit der Sterne zu verbessern. Das Original ist ja recht flau. Es ist kein Crop. Unten rechts ist ein Teil der Milchstraße zu sehen, wie du vermutet hast.

Der Halo ist auch auf dem ersten Bild, das mit dem Mond im Rücken gemacht wurde, zu sehen. Man sieht ihn deutlicher, wenn man das Bild vor den Augen hin und her bewegt. Sowohl auf dem bearbeiteten als auch auf den nicht bearbeiten Bildern. Dieser Halo ist ein extrem kontrastarmer Bereich und befindet sich hier immer als konzentrischer Ring formatfüllend mittig im Bild.

Die Vignette habe ich entfernt, in dem ich In Lr die Tiefen hochgezogen habe. (Die Profilkorrektur lieferte keine zufriedenstellenden Ergebnisse bei der Beseitigung der Vignette.) Das 17-40 hat so seine Eigenheiten und Vignettierung und Verzeichnung stellen einen manchmal vor Herausforderungen.

Noch drei Fragen:
Kann man die von dir beschriebene Methode zur Entfernung der Vignette auch in Ps umsetzen?
Ist Sequator besser für das Stacken geeignet als Ps?
Welche (weiteren) Vorteile haben die hier von dir genannten Anwendungen gegenüber Ps/Lr?

LG
 
Zuletzt bearbeitet:
Moin!

Kann man die von dir beschriebene Methode zur Entfernung der Vignette auch in Ps umsetzen?
Nein, denn die geschilderte Methode wird mit Raw Dateien, also OHNE Raw-Konvertierung gemacht. Gamma-Stretch und De-Bayer sollten also noch nicht angewand worden sein.

Ist Sequator besser für das Stacken geeignet als Ps?
Vermutlich Ja, aber ich habe nur PS6 (nicht CC) und kenne die Stackingmethoden von CC nicht. Sequator nutzt Sigma Clipping was z.B. Satellitenspuren bereits mit 3 Bildern beseitigt und besser für das Stapeln von Sternaufnahmen geeignet ist. Sequator ist kostenfrei und recht einfach zu bedienen.

Welche (weiteren) Vorteile haben die hier von dir genannten Anwendungen gegenüber Ps/Lr?
Da ein echtes Flatfield von deiner Kamera mit deinem Objektiv mit derselben Blende benutzt wird ist jeder Bildfehler durch Vignette o.ä. perfekt beseitigt. Das ist wichtig wenn das Bild durch Stretching oder sonstige Kontrastanhebung bearbeitet wird da durch das Stretching auch kleine Fehler der Vignettierungskorrektur verstärkt werden. DSS oder PI haben sehr gute Algorithmen zum Stretchen, aber man muß ein zusätzliches Programm lernen.

Evt. die Testaufnahmen in der astronomischen Nacht ohne Mond wiederholen. Eine gute Vignettierungskorrektur ist schon recht wichtig um mehr Details anschließend durch Stretching zu bekommen. Ansonsten ist das Objektiv der wichtigste Faktor für die Nachtfotografie, eine halbwegs moderne Kamera vorausgesetzt.
 
So, ich habe mir jetzt mal mit DSS angeguckt und bin von den Ergebnissen positiv überrascht, vor allem was die Vignettierungskorrektur angeht.

Die Methode mit den Gradationskurven zur Entfernung der Lichtverschmutzung erschließt sich mir noch nicht ganz, da muss ich noch rumexperimentieren. Bei mir bekommt das Bild entweder einen Farbstich oder wird zu dunkel.

Habe mal meine letzte(n) Aufnahme(n) angehängt. Gestackt in DSS mit flat- und darkframes. 32 Bit stretching in PS. Dann 16 Umwandlung und Nachbearbeitung in ACR/PS.

Es gibt noch reichlich Übungs- und Experimentierbedarf, das Ergebnis finde ich aber schon recht ansprechend. (Ich mag den Blaustich, werde aber auch noch mit neutraleren Versionen experimentieren.) Vor allem bin ich gespannt auf Neumond.

Der Mond ist rechts, ein Dörfchen links vom Bild. Habe versucht, die Helligkeitsunterschiede mit Verlaufsfiltern auszugleichen. Die Bäume stammen aus einer separaten Aufnahme. Da der Mond dabei war, hinter den Bäumen aufzugehen hatte ich nur Zeit für 3 Aufnahmen a 2 Minuten. Sonst hätte sich dieser Halo wohl wieder gebildet.

6AE5F586-7090-416A-BFA1-1A28A6C5F6AE.jpeg

LG
 
Zuletzt bearbeitet:
Moin!

Naja, meistens vermeidet man den Mond bei Sternaufnahmen da er nur eine zusaetzliche Lichtverschmutzung darstellt.

Mondlicht ist auch blaeulich und wenn der Mond bei der Aufnahme geschienen hat kann das Bild auch blaeulich sein.

Naja, die 'blaue' Milchstrasse ist durch die Digitalfotografie leider fast zum Normalfall geworden, aber Nachtaufnahmen in natuerlichen Farben sehen einfach besser aus (z.B. hier https://wbmilner.com/#/night/). Ist zumindest meine Meinung :)

DSS soll manchmal Probleme mit dem Farbraum haben, aber damit kenne ich mich nicht aus. Ich arbeite mich noch in PixInsight ein das ein sehr maechtiges Werkzeug zur Erzeugung und Subtraktion der Lichtverschmutzung hat. Egal welches Programm man nutzt, die Einarbeitung kostet Zeit.

Es gibt noch den GradientXTerminator um einen Gradienten zu entfernen. Das Program ist recht einfach in der Anwendung und kostet 60 $. Fuer meine Probleme hat es aber nicht funktioniert und das PI Modul ist einfach maechtiger, aber auch komplizierter und zeitaufwaendiger.

Fuer die MS benoetigt man ein gutes Signal-zu-Rausch Verhaeltnis was nur ueber einen moeglichst dunkelen Himmel und laaaaange Belichtungszeit (z.B. Stapeln) geht. In deinem Bild sieht man schon gut die groben Strukturen der MS (und nun noch 50 weitere Aufnahmen zum Stapeln :) ).
 
Zuletzt bearbeitet:
Das Mondgestein ist relativ neutral Grau. Und die Farbtemperatur des Mondes korreliert in etwa mit der der Sonne in Abhängigkeit zur Position am Himmel. Je tiefer, desto wärmer.
 
Moin!

Eigentlich nicht, denn es ist ja nur reflektiertes Sonnenlicht, also sollte es recht neutral sein.

Mit diesem Gedankengang hatte ich zunaechst auch an etwa 5500K gedacht (wer sagt das das 'neutral' ist? :) ), hatte dann aber im Internet anderes gelesen.
Ich habe nun diese Diskussion dazu gefunden (https://physics.stackexchange.com/questions/244922/why-does-moonlight-have-a-lower-color-temperature) und offensichtlich ist die Farbtemperatur vom 'Mondlicht' sogar etwas roetlicher/waermer/niedriger, aber aufgrund der Funktionsweise des menschlichen Auges wird es als blaeulicher/kaelter/hoehere Farbtemperatur wahrgenommen. Siehe Purkinje Effekt: https://de.wikipedia.org/wiki/Purkinje-Effekt

OK, und was lerne ich daraus nun? Auch bei Aufnahmen mit Mondlicht die Farbtemperatur zunaechst auf etwa 5500K lassen und dann mit dem Helligkeits- und Farbtemperaturregler etwas herumprobieren was am natuerlichsten aussieht.
 
Hallo Leute, ich habe mir jetzt mal eine Nachführung geholt und die ersten Übungen damit gemacht. Naja das Bild ist jetzt nicht so der Hit aber es ging schon ganz gut. War mal zum testen.

Was mich echt nervt ist das einnorden auf den Polstern. Durch den Polsucher des Omegon Minitrack kann man zwar Polaris ganz gut sehen aber das ist schon echt müselig. Im Netz gab es mal den Tipp anstatt den Polsucher eine Laser zu nehmen.
Hat jemand damit schon Erfahrung gesammelt und kann berichten, ob es wirklich einfach damit ist als mit dem Polsucher?

1 Test mit nachführung Kopie.jpg
 
Ich arbeite mit einem Kugelkopf. Weil man den nicht so gut in nur die gewünschte Richtung verstellen kann, habe ich ihn zuhause zum einen waagrecht und auf meine entsprechende Polhöhe eingestellt. So brauche ich das Ganze Nachts nur noch mit Hilfe eines Kompasses oder einer App in die richtige Richtung drehen. Klappt auch PI mal Daumen, wenn man Polaris sehen kann. Dafür muss das Stativ natürlich in Waage stehen. Das geht gut mit einer Nivellierung unter dem Kugelkopf.
 
Moin!

Ich habe nicht den Omegon sondern andere Tracker. Für den Move-Shoot-Move nutze ich den Laser und das ist kinderleicht, zumindest auf der Nordhalbkugel.
Im Netz gibt es auch irgendwo einen Bericht dazu. Ein Problem wird dort genannt: Der Strahl des Laser Pointer ist nicht exakt parallel zum Laser Pointer (Laser Pointer eingeschaltet über Tisch rollen lassen), wodurch diese Methode etwas ungenau wird. ABER: Für (U)WW ist eine ungefähre Einnordung gut genug, nur wenn du etwa >50mm arbeitest muss es genauer sein. Mach also einfach mal Testaufnahmen mit 0.5, 1, 2, Min und schau wie rund die Sterne sind. Ich bevorzuge >=3x 30 sec Aufnahmen weil ich dann durch das Stapeln (z.B. Sequator) die Satelitenspuren entfernen kann.
Noch eine Anmerkung zum Laser: Bitte zügig und nicht nicht in Flughafennähe arbeiten. Bitte nicht als Spielzeug benutzen wenn du keinen ungewünschten Besuch bekommen willst. Die Batterie meines Laser Pointers ist übrigens sehr temperaturempfindlich und muß bei Minusgraden warmgehalten werden.
Mit etwas Übung geht aber das Anpeilen von Polaris auch recht schnell.

Zum Foto: Soweit OK. Die Sterne sehen etwas farblos (weiss) aus und die Milchstraße ist zu bläulich. Fehlende Farbe ist ein Hinweis auf ausgefressene Lichter (ISO zu hoch?) oder zu kurze Belichtung. Die blaue Milchstraße entsteht meistens durch eine falsche Farbtemperatur (sollte so um 5500K liegen). Hier der bekannte Link der über einige klassische Fehler aufklärt und viele interessante neue Aspekte aufzeigt: https://clarkvision.com/articles/nightscapes/
Ich habe bisher noch keine bessere Zusammenstellung gefunden.

Karte der Lichtverschmutzung um die Fotolokation zu optimieren:
https://www.lightpollutionmap.info/#zoom=4.00&lat=5759860&lon=1619364&layers=B0FFFFFTFFFFFFFFF
 
Zuletzt bearbeitet:
Ich arbeite mit einem Kugelkopf. Weil man den nicht so gut in nur die gewünschte Richtung verstellen kann, habe ich ihn zuhause zum einen waagrecht und auf meine entsprechende Polhöhe eingestellt. So brauche ich das Ganze Nachts nur noch mit Hilfe eines Kompasses oder einer App in die richtige Richtung drehen. Klappt auch PI mal Daumen, wenn man Polaris sehen kann. Dafür muss das Stativ natürlich in Waage stehen. Das geht gut mit einer Nivellierung unter dem Kugelkopf.

Ja das ist eine Möglichkeit. Bedeutet aber das ich mir einen 3. Kugelkopf besorgen muss. :rolleyes:

Moin!
Ich habe nicht den Omegon sondern andere Tracker. Für den Move-Shoot-Move nutze ich den Laser und das ist kinderleicht, zumindest auf der Nordhalbkugel.

Ja das war der Grund, warum ich mal den Laser testen möchte. Zumindest an 20mm. ;)

Im Netz gibt es auch irgendwo einen Bericht dazu. Ein Problem wird dort genannt: Der Strahl des Laser Pointer ist nicht exakt parallel zum Laser Pointer (Laser Pointer eingeschaltet über Tisch rollen lassen), wodurch diese Methode etwas ungenau wird. ABER: Für (U)WW ist eine ungefähre Einnordung gut genug, nur wenn du etwa >50mm arbeitest muss es genauer sein.
Ja ich werde erst einmal 20mm benutzen. (y)
Mach also einfach mal Testaufnahmen mit 0.5, 1, 2, Min und schau wie rund die Sterne sind. Ich bevorzuge >=3x 30 sec Aufnahmen weil ich dann durch das Stapeln (z.B. Sequator) die Satelitenspuren entfernen kann.
Die Testaufnahmen waren um die 30 bis 60 Sekunden. Die Aufnahmen die ich später nutzen wollte waren dann 5 x 3 Minuten lang. Sequator kenne ich noch nicht. Werde ich mir mal anschauen. Danke. (y)

Noch eine Anmerkung zum Laser: Bitte zügig und nicht nicht in Flughafennähe arbeiten. Bitte nicht als Spielzeug benutzen wenn du keinen ungewünschten Besuch bekommen willst. Die Batterie meines Laser Pointers ist übrigens sehr temperaturempfindlich und muß bei Minusgraden warmgehalten werden.

Selbstverständlich achte ich darauf. Danke für den Hinweis.

Zum Foto: Soweit OK. Die Sterne sehen etwas farblos (weiss) aus und die Milchstraße ist zu bläulich. Fehlende Farbe ist ein Hinweis auf ausgefressene Lichter (ISO zu hoch?) oder zu kurze Belichtung. Die blaue Milchstraße entsteht meistens durch eine falsche Farbtemperatur (sollte so um 5500K liegen).

Danke für deine Kritik. ja die Belichtung war wohl zu lange. Es sollte ja auch nur ein Test werden, wie ich mit der Nachführung zurechtkomme. Ich werde mir aber Deine Tipps mal im Hinterkopf behalten. Die Links kenne ich, sage aber trotzdem Danke.(y)

Zusatz. Mit deiner Angabe zur Farbtemperatur von 5500K finde ich es für meinen Geschmack zu warm.:eek:
 
Zuletzt bearbeitet:
Kauf dir lieber einen 3-Wege-Neiger als Basis. ;) Zu Spitzenzeiten hatte ich mal 6 Kugelköpfe, jetzt nur noch 2 und 2 Neiger.

Nachdem ich mein Polsucher kalibriert habe (Astrotrac), komme ich damit gut zurecht, und er ist genau genug, daß ich mir Laser gar nicht erst anfange...
 
Moin!

...
Nachdem ich mein Polsucher kalibriert habe (Astrotrac), komme ich damit gut zurecht, und er ist genau genug, daß ich mir Laser gar nicht erst anfange...

Stimmt zwar, aber Astrotrac oder Fornax LT II spielen in einer anderen Liga. Für 20mm ist das ein Overkill :).
Für meine typischen (U)WW Aufnahmen komme ich mit einem KuKo und einem leichten Tracker gut zurecht, aber für z.B. das Sigma A 105/1.4 benötigt man dann schon eher die o.g. Ausrüstung mit einem richtigen Wedge, aber das ist dann keine leichte Ausrüstung mehr.
 
Moin!

...
Zusatz. Mit deiner Angabe zur Farbtemperatur von 5500K finde ich es für meinen Geschmack zu warm.:eek:

Das ist die Lichtverschmutzung durch die Natriumdampflampen die im gelb-orangen Bereich leuchten. Die optimale Methode wäre ein Modelierung und Subtraktion der Lichtverschmutzung, aber das ist nicht trivial. Ich übe noch mit PixInsight und fand GradientXterminator nicht so hilfreich für meine Fotos. Keine Ahnung was DSS hat. Meistens reduziere ich die Lichtverschmutzung mit dem Kurvenwerkzeug in PS und passe danach auch die Farbtemperatur nach Geschmack an. An der Baustelle arbeite ich noch, denn die natürlichen Farben der MS (rötlich-orange) sehen schon recht gut gegen einen schwarzen Himmel aus.

Ansonsten: Die Antworten klingen recht vielversprechend!

Mit der Einnordung bin ich meistens recht großzügig wenn ich meine üblichen 30 sec Aufnahmen mit 35mm mache.

3 Min Belichtungszeit ist relativ lang. Wie vermeidest du dann eine Überbelichtung durch die starke Lichtverschmutzung? Niedrige ISO (gut für Dynamikumfang) kleinere Blende (verbessert die Sterne am Rand)?

Sequator: 'Select best Pixel' ist Sigma clipping.
 
Ich nutze auch einen einfachen und zusammenklappbaren Dreiwegeneiger (am Nanotracker) und zum Einnorden Smartphone (Polhöhe und Seitwärtsneigung) und Kompass. Klappt gut. ;)
 
Moin!

3 Min Belichtungszeit ist relativ lang. Wie vermeidest du dann eine Überbelichtung durch die starke Lichtverschmutzung? Niedrige ISO (gut für Dynamikumfang) kleinere Blende (verbessert die Sterne am Rand)?

Sequator: 'Select best Pixel' ist Sigma clipping.

Ich werde je nach Lichtverhältnisse bei ISO 100 bleiben. Die Blende etwas mehr schließen. Ich hatte jetzt f 2.2 oder so genommen.
 
Kauf dir lieber einen 3-Wege-Neiger als Basis. ;) Zu Spitzenzeiten hatte ich mal 6 Kugelköpfe, jetzt nur noch 2 und 2 Neiger.

Nachdem ich mein Polsucher kalibriert habe (Astrotrac), komme ich damit gut zurecht, und er ist genau genug, daß ich mir Laser gar nicht erst anfange...

Wie Lias schon geschrieben hat wäre mir das zuviel geschleppe. Der 3 Wege Neiger müsste dann immer mit. :eek:

Deine Nachführung hatte ich auch auf dem Schirm, war mir dann aber zum Anfang zu groß. Danke trotzdem.
 
WERBUNG
Zurück
Oben Unten