• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Rauschreduzierung bei Langzeitbelichtung für RAW?

maddypix

Themenersteller
Bei meiner 60d kann ich eine"Rauschreduzierung bei Langzeitbelichtung" aktivieren, bei der ein dark frame vom eigentlichen Bild abgezogen wird um das grundrauschen des Sensors bei langzeitaufnahme zu reduzieren.
kann mir jemand sagen ob dies nur Einfluss auf die jpeg Vorschau eines raws hat oder auch auf das RAW selbst?

Ich weiß, dass Hugh ISO rauschen in der cm nur am jpeg reduziert werden kann, könnte mir aber vorstellen, dass das beim "langzeitrauschen" anders ist...
 
Es ist so, wie Du vermutest:

Bei aktivierter "Rauschreduzierung bei Langzeitbelichtung" entsteht ein anderes RAW, da das Dunkelbild sofort verrechnet wird.
Bei HighISO-Rauschreduzierung dagegen wird nur die interne RAW-Verarbeitung beeinflusst, es wirkt also nur auf das JPG bzw. das eingebettete Vorschaubild.
 
Guten Morgen zusammen ,
Hat man dadurch Nachteile im Bezug auf Bildqualität, das zum Beispiel ;Details verloren gehen , wenn man die Rauschreduzierung bei Langzeitbelichtungen aktiviert hat ?

Lg Alex
 
Guten Morgen zusammen ,
Hat man dadurch Nachteile im Bezug auf Bildqualität, das zum Beispiel ;Details verloren gehen , wenn man die Rauschreduzierung bei Langzeitbelichtungen aktiviert hat ?
Hallo Alex,

im Alltag, also Gebäude bei Nacht etc, wird man nichts merken. Wenn es spezieller sein soll, also Astro, dann kann es schon passieren dass einige Sterne beim Abzug des Dunkelbildes verschwinden. Das ist der Grund warum man dafür meist mehrere Bilder verrechnet, denn das Rauschen ist willkürlich, die Sterne nicht. Je mehr Bilder, desto eindeutiger können Sterne vom Rauschen unterschieden werden.

VG,
Peter
 
ich habe mir diese frage auch schon ein paar Mal gestellt.

Wenn man für sich ein paar Mal im jahr Belichtungen von einigen Minuten macht, aber vielleicht doch ein paar Bilder hintereinander enstehen sollen ... ist hier das zweite Dunkelbild (für private Anwendungen) wirklich betreffend BQ notwendig?

Oder reicht eine normale Entrauschung mit zb LR?

Denn das Warten ist doch immer etwas mühsam :(
 
Das ist richtig beim Photonen- und Ausleserauschen, aber bei dem "Rauschen", das bei einem Dunkelbildabzug rausgerechnet wird, nicht. Sonst würde die Methode gar nicht funktionieren können.
Stimmt. Ich hätte sagen sollen, dass das Optimum mehrere Bilder plus Dunkelbildabzug sind. Aber dann wird's echt heftig und sehr speziell :o
 
Oder reicht eine normale Entrauschung mit zb LR?

Das musst Du wohl selber ausprobieren, was Dir ausreicht. Grundsätzlich sind das aber 3 ganz verschiedene Dinge. Beim Dunkelbildabzug wird das Dunkelsignal abgezogen, das der Sensor erzeugt, ohne belichtet zu werden, zumindest der Anteil, der konstant und ortsfest ist. An dem eigentlichen Nutzsignal ändert der sonst nichts. Wenn man mehrere "gleiche" Fotos miteinander verrechnet, erhöht man das Nutzsignal und verringert dadurch das (Photonen- und Auslese-) Rauschen. Wenn man nachträglich entrauscht, kennt man weder das Dunkelsignal, um es abziehen zu können, noch kann man das Nutzsignal erhöhen, es können also nur benachbarte Pixel miteinander verrechnet werden und man verliert (lokal) Auflösung.
 
Der Kamera-interne Mechanismus zur Darkframe-Subtraktion bei Langzeitbelichtungen ist nur für jene Nutzer interessant/relevant, die "mal auf die Schnelle" eine Langzeitbelichtung von 0,5-30 s Dauer machen, oder falls die Belichtungszeiten (oder die Kameratemperatur) von Bild zu Bild wechseln, so dass ohnehin jeder Darkframe nur auf ein Bild beziehbar wäre.

Wie schon bemerkt wurde, kann eine Darkframe-Subtraktion kein stochastisches Rauschen eliminieren. Es passiert sogar eher das Gegenteil: das Ausleserauschen der Kamera wird in der Berechnung sogar verstärkt wirksam (Rausch-Zunahme um Wurzel(2)). Das Rauschen des Nutzsignals selbst (shot noise) wird überhaupt nicht beeinflusst, so dass lediglich Dunkelstrom ("Verstärkerglühen") und fixed pattern noise (Teile eines Bandings, hot/stuck Pixel) korrigiert werden. Das stochastische Rauschen des Dunkelstroms wird, wie auch das Ausleserauschen, durch die Darkframe-Subtraktion gesteigert!

Es ist also keinesfalls immer sinnvoll und hilfreich, eine automatische Darkframe-Subtraktion einzustellen.

Wer *wirklich* ein optimiertes Langzeitbelichtungs-Bild bekommen möchte, der macht sich seine Darkframes i.d.R. separat und verrechnet das Ganze in einer hierzu geeigneten Umgebung (Astronomie-Softwares, ISIS, ...). Der Grund: ist die Kamera einmal auf die Umgebungstemperatur äquilibriert, dann ist es schlauer, noch mehr bzw. länger belichtete Nutzsignal-Bilder zu erzeugen und alle auf den gleichen Set von (ebenso lang belichteten!) gemittelten Darkframes zu beziehen.
 
Manuelle Darkframes erstellen, wie geht man da vor ? Einsatz bei mir wäre Astrofotografie ....
Objektivdeckel drauf machen und mit den gleichen Einstellungen der Kamera ein oder mehrere Bilder machen ... ? Diese dann mitteln und von den Lightframes einzeln abziehen ? Oder besser erst die Lightframes mitteln und dann das gemittelte Darkframe abziehen ?
 
Sonst würde die Methode gar nicht funktionieren können.

Die Methode Dunkelbildabzug kann nicht so viel wie erwartet bringen. Warum? Das Rauschen ist ein statistischer Vorgang, d.h. es ist alles zufällig.

Das Rauschen auf dem Bild ist zufällig und das Rauschen auf dem Dunkelbild auch und das bedeutet, dass das Rauschen auf beiden Bildern unterschiedlich und nicht vorhersehbar ist.

Das Bild, was hinten raus kommt, rauscht also genau so.

Einen kleinen Effekt gibt es aber doch. Auf dem langzeitbelichtetem Bild ist Rauschen und ein Nutzsignal geringer Höhe. Beim Schwarzbild wird nur das Rauschen aufgenommen. Wenn man also vom langzeitbelichteten Bild das Schwarzbild abzieht, sollte das Signal-Untergrundverhältnis besser werden und wird es tatsächlich auch, allerdings ist der Effekt kleiner als erwartet, da das Rauschen statistisch ist und nicht bei beiden Bildern gleich.

Ein weiterer Grund ist, dass der Sensor bei der zweiten Aufnahme kurz hintereinander wärmer geworden ist. Dadurch ist das Rauschen beim Dunkelbild intensiver als bei der Aufnahme. Es gibt aber kein festes Verhältnis der beiden Rauschniveaus, da das u.a. von der Umgebungstemperatur abhängig ist.
 
Gibt es denn Software, mit der man mehrere RAWs mitteln kann? Ich hatte vor langer Zeit mal mit DeepSky-Fotografie zu tun und da gab es ein Programm (Name entfallen), welches eben aus mehreren Belichtungen ein "Mittel" erstellt hat, allerdings nur mit JPGs...
 
Die Methode Dunkelbildabzug kann nicht so viel wie erwartet bringen. Warum? Das Rauschen ist ein statistischer Vorgang, d.h. es ist alles zufällig.
Falsch, beim Dunkelbildabzug geht es nicht um das Rauschen sondern um Hotpixel, die bei längeren Belichtungszeiten technologiebedingt unvermeidlich sind. Diese sind zwischen einem Bild und einem zeitnah unter ähnlichen Temperaturen erstellten Dunkelbild konsistent und damit ist das Dunkelbild sehr wohl geeignet diese Störpixel ohne Verlust an Bildqualität zu entfernen.
 
Falsch, beim Dunkelbildabzug geht es nicht um das Rauschen sondern um Hotpixel, die bei längeren Belichtungszeiten technologiebedingt unvermeidlich sind. Diese sind zwischen einem Bild und einem zeitnah unter ähnlichen Temperaturen erstellten Dunkelbild konsistent und damit ist das Dunkelbild sehr wohl geeignet diese Störpixel ohne Verlust an Bildqualität zu entfernen.
Jepp. Wie schon hier (
https://www.dslr-forum.de/showpost.php?p=13733723&postcount=10) beschrieben war, ist ein Dunkelbildabzug nur gegen "patterned Noise" und als Schwarzpunkt-Setzung durch Elimination von Dunkelstrom-Signalen geignet.

@Merope: wie man praktisch vorgeht, hängt von mehreren Faktoren ab. Treffen die Darkframes tatsächlich die Hotpixel-Helligkeiten oder ein Verstärkerglühen in der Intensität sehr gut, so kann man gemittelte Darkframes auch von Einzelframes abziehen. Wenn man Sternspuren durch Stitching von verschobenen/gedrehten Einzelbildern verhindern muss, bleibt einem gar nichts anderes übrig, als die Einzelbilder dem Dunkelbildabzug zuzuführen, bevor man das Stitching macht.

Ansonsten fährt man besser, wenn man auch die Nutzsignale zuerst mittelt und dann die Subtraktion macht. Dafür muss die abgelichtete Szene allerdings statisch (oder durch gute Nachführung "pseudo-statisch") sein.

Ein Nachteil einer Einzelbild-Verrechnung besteht insbesondere dann, wenn die Zwischenergebnisse vor finaler Mittelwertbildung nicht mit negativen Intensitäten rechnen können. In solchen Fällen kann man sich behelfen, wenn man den Rohdaten zunächst einen positiven Offset aufschlägt, um den dann die bei Subtraktion von gemittelten Darkframes entstehenden Positiv- und Negativsignale herum in beiden Richtungen streuen können. Dann folgt die Mittelwertbildung und zuletzt wiederum der Abzug des aufmodulierten Offset.

Dies alles ist wiederum die vereinfachte Darstellung für ein "vernünftiges" Vorgehen bei monochromen Sensoren. Bei Farbsensoren muss man natürlich zusätzlich überlegen, an welcher Stelle das Demosaicing betrieben wird. Da das Demosaicing auf Daten der Nachbarpixel zugreift, ist die Frage nicht ganz trivial. Grundsätzlich wird man versuchen, ein fixed pattern noise und den Dunkelstrom vor dem Demosaicing aus den Daten herauszurechnen. Bei hot pixel-Störungen muss man dabei überlegen, ob man den nach darkframe-Abzug resultierenden Nullwert stehen lässt und durch das Demosaicing mitzieht, oder ob man die "Fehlstelle" durch Umgebungsdaten auffüllt ("ausmappt"), damit die Störung nicht doch noch zu weiteren Artefakten führt.

Letztlich geht halt doch nichts über eine schöne, altmodische Sensorkühlung, ... :D
 
WERBUNG
Zurück
Oben Unten