• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Darkframe - Kamera oder selbst machen?

AndyZeim

Themenersteller
Hi,

ich mache heute Nacht, so die Wolken wollen, eine sehr lange Aufnahme, ca. 2 Stunden. Und ganz bestimmt nur eine.

Ist es dann für die Bildqualität besser, den Darkframe anschließend selbst zu machen, oder soll die Kamera das übernehmen?

Mit der Probeaufnahme gestern Nacht und dem selbst erstellten Darkframe war ich jetzt nur so einigermaßen glücklich, allerdings bin ich auch ein wenig von der genauen Beli-Zeit abgewichen (25 Prozent) -- konnte mich nicht mehr wachhalten.

Vielen Dank im Voraus,

Andy
 
Hallo,

eigentlich sollte das Darkframe lieber länger sein als zu kurz, dann kann man es skalieren, aber bitte erst die Vorspannung abziehen.

Intern oder extern spielt bei einem einzelnen Dark eigentlich keine Rolle. O.k., einige Kameras haben ab und an das interne lieber, aber das muss man ausprobieren.

Warum muss denn unbedingt so lange belichtet werden?


MfG

Rainmaker
 
Vom ersten Satz verstehe ich leider gar nichts, da muss ich mich wohl bei Gelegenheit genauer mit auseinander setzen. Aber die Info im Anschluss habe ich gesucht, besten Dank!

Im Wesentlichen ist es ein Experiment, ich fange gern Bewegungsunschärfe ein und wollte es mal auf die Spitze treiben mit einem nd1000 bei Nacht... Vom Effekt her klappt es super, aber die Bildquali war beim Probeschuss bescheiden.
 
Die Darkframe-Subtraktion ist eines der wenigen Operationen, die in der Kamera auch fürs RAW gemacht wird. Ich denke daher in der Kamera werden nackte RAW-Matrizen abgezogen, außerhalb geht es ja nur mit RGB, da sind die Farbfilterpixel der RAW-Matrix schon miteinander verrechnet. Oder man hat ein spezielles Programm, was es genauso außerhalb der Kamera macht.
Also wenn die Zeit da ist, sollte innerhalb der Kamera besser sein.
 
Zuletzt bearbeitet:
Die Darkframe-Subtraktion ist eines der wenigen Operationen, die in der Kamera auch fürs RAW gemacht wird. Ich denke daher in der Kamera werden nackte RAW-Matrizen abgezogen
[...]
Also wenn die Zeit da ist, sollte innerhalb der Kamera besser sein.
Sehe ich genauso und würde ich auch so machen.

Habe gerade erst gestern wieder gesehen, wie schnell man sich bei RGB Tonwertabrisse und -Artefakte einhalden kann. Minimale Anhebung der Gradiationskurve in LR / ACR gemacht, klappt wunderbar. Versucht, den gleichen Effekt am gleichen Bild mittels Graduationskurven in PS durchzuführen sorgte für hässliche schwarze Flecken in den Schatten, trotz 16bit TIFF.
Da wurde mir erstmal bewußt, wieviel mehr Informationen in so einem RAW drinstecken.

Externe Darkframes mache ich eigentlich nur wenn ich mal wieder Sterne fotografiere. Da fehlt die Zeit, um nach jedem Bild ein Darkframe zu machen, daher mache ich dann im Anschluß drei oder vier Dunkelbelichtungen vor Ort, quasi während ich einpacke. Die werden dann von der Stacking-Software mit verarbeitet...

~ Mariosch
 
Hallo,

@ Andy,

Besten Dank. Dann muss das jetzt die Automatik mal übernehmen. Das klingt ja sehr einleuchtend.

Bei Sony oder Nikon ist das sicherlich kein schlechter Weg, denn damit umgeht man einige Probleme. Für Canon wäre das externe Dark vielleicht doch etwas schlauer, so man denn gewillt ist sich etwas mehr mit dem Thema zu befassen und deutlich mehr Zeit bei der Darkerstellung einzusetzen. So kann dann die Verstärkung des Rauschens durch den Darkabzug verringert werden.

Natürlich ist das Arbeiten mit Rawdaten der beste Weg, aber auch mit debayerten Daten läßt sich recht gut arbeiten, denn die kontrasterhöhung bei den üblichen Nachtbildern ist doch sehr viel weniger stark als bei echten Astrobildern.

@ Mariosch,

wenn Du bei 16bit nur geringe Korrekturen an den Tonwerten durchführen kannst, dann läuft da irgend etwas schief. Bei solchen Bildern sollte man locker mehr als ein oder zwei EV aufhellen können. Zwar gibt es dann mehr Rauschen und bei einigen Kameras auch Artefakte wie Banding, aber schwarze Flecken habe ich noch nie beobachten können. Ich schätze eher, dass da die Vorverarbeitung der Bilder nicht richtig geklappt hat.


MfG

Rainmaker
 
@ Mariosch,

wenn Du bei 16bit nur geringe Korrekturen an den Tonwerten durchführen kannst, dann läuft da irgend etwas schief. Bei solchen Bildern sollte man locker mehr als ein oder zwei EV aufhellen können.
Es ging hier allerdings nicht um Aufhellen, sondern um das hochziehen der Graduationskurve am linken Ende um 10 Punkte (Eingang 0 / Ausgang 10).

Ich schätze eher, dass da die Vorverarbeitung der Bilder nicht richtig geklappt hat.
Kann ich mir eigentlich nicht vorstellen. Ich wollte einen Bild-Look, den ich vorher grob mittels Graduationskurve in LR entwickelt hatte, mittels PS-Einstellungsebenen nachbauen. Also habe ich das RAW als Smartobjekt geöffnet, dort dann eine Kopie erstellt, die Graditionskurve wieder auf Standard zurückgesetzt und eine entsprechende Kurve in PS mit identischen Werten angelegt.
Dabei kamen dann diese Flecken zustande. Meine Vermutung ist einfach, dass LR / ACR in den Tiefen auf zusätzliche Informationen um RAW zurückgreifen konnte, die quasi noch "unterhalb" des durch Belichtung und Schwarzregler festgelegten Schwarzpunktes waren, während Photoshop auch beim 16 bit TIFF nichts mehr rausziehen kann, wenn eine 0 in der Luminanz des Pixels steht..

Ganz verstanden habe ich den konkreten Effekt auch nicht, auch habe ich die entsprechende Datei nicht gespeichert.
Das wäre aber auch ziemlich off-topic hier. Wenn da deinerseits aber Interesse besteht, das weiter zu diskutieren, schick mir ne PN - ich denke das ich das Problem durchaus reproduzieren könnte.

Grundsätzlich gibt es aber schon massive Unterschiede auch bei 16 bit Tiff zum RAW - eben in den Grenzbereichen. Aus einem RAW, dass leicht überbelichtet ist, kriege ich in LR durchaus noch Detailzeichnung in den Highlights hin, wenn ich das ganze nachträglich um eine Blende reduziere. Übergebe ich das Bild erst an PS und wende dann die Einstellungsebene "Belichtung" darauf an (oder auch Graduationskurven, spielt keine Rolle), dann bekomme ich nicht die gleichen Ergebnisse - wie auch, bei der Übergabe an PS wurde der Wert aller überbelichteten Pixel auf 255 (8bit) bzw 65535 (16bit) festgelegt. Ich kann die Pixel nachträglich dunkler machen, mehr Details bekomme ich da aber nicht raus.. mit dem RAW Konverter ist da mehr möglich, wobei es natürlich auch da eine Grenze gibt...

~ Mariosch
 
Vielen Dank noch mal an alle. Ich habe es leider vermasselt, habe mich bei der Berechnung der Belichtung mindestens um 3 Blenden vertan... Dementsprechend mau ist das Ergebnis. Freue mich schon drauf, es zu wiederholen, wenn ich bei Gelegenheit Zeit habe.

War aber witzig. Die Kamera anzumachen und dann drei Stunden zu warten...

Die Leute hinter mir an ihrem Lagerfeuer haben vermutlich überhaupt nicht verstanden, was ich da mache. Ankommen, Stativ aufbauen, drei Stunden rumsitzen, weggehen...
 
Hallo Mariosch,

selbst das ist aufhellen. ;) 0+10=10, auch wenn da jetzt nicht der Kontrast angehoben sondern gesenkt wird. Wenn mit so einer einfachen Addition Fehler sichtbar werden, dann waren sie im Ursprungsbild auch schon da, wurden aber wohl wegen mangelnder Differenzierung am Monitor nicht angezeigt.

In den Lichtern gibt es übrigens in Raw etwas zusätzliche Informationen die beim Weißabgleich verworfen werden. Mit etwas Trickserei kann man mit Infos in zwei Kanälen auf die Tonwerte im dritten fehlenden Kanal schließen. In vielen Fällen kommt man so zu einem doch halbwegs ansehnlichen Ergebnis.

In den Tiefen ist das nicht so. Da geht das Signal immer weiter runter und versinkt dann im Rauschen. Wenn da durch Clipping schwarze Flecke sind ist irgendetwas schiefgelaufen. Entweder bei der Wandlung oder bei der vorherigen Datenreduktion. In ACR wäre der Schwarzregler für mich ein heißer Kandidat für so ein Problem, denn in der Grundstellung clippt er die Information schon etwas. Eigentlich müsste der Regler bei der Stellung 100 die 0 zeigen. Einfach mal mit anderen Konvertern vergleichen. ;)


MfG

Rainmaker
 
WERBUNG
Zurück
Oben Unten