• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Bilder additiv zusammenrechnen in Abhängigkeit von der Response Curve

dmkdmkdmk

Themenersteller
Schon seit längerem ärgere ich mich darüber, dass bei Langzeitbelichtungen mit Belichtungsreihen (für HDR) immer so stark unterschiedliche Belichtungszeiten entstehen. Wenn ich eine 3er-Reihe mit 2LW Differenz mache, dann habe ich z.B. Verschlusszeiten von 2, 8 und 30s. Ob das jetzt fliessendes Wasser, schwappende Wellen, Scheinwerferspuren oder auch bloss durch die Langzeitbelichtung verschwundene Passanten sind - beim Zusammenrechnen der unterschiedlichen Belichtungen gibt es natürlich immer massive Probleme. Bei 2s Belichtung sind natürlich die Passanten oder die Wellen noch deutlich zu erkennen, während bei 30s keine Passanten mehr zu sehen sind und das Wasser spiegelglatt ist. Auch die beste Bewegungserkennung in den verschiedenene HDR-Programmen ist damit restlos überfordert. Ich habe mir meistens damit geholfen, dass ich mit Blendenautomatik statt Zeitautomatik gearbeitet habe. Aber auch mit einem UWW kann man manchmal wegen der Schärfentiefe die Blende nicht genügend öffnen um den benötigten Dynamikumfang zu erreichen. Mit der ISO gehts erst recht nicht, da ich nur schon für zwei Belichtungen ISO200 und ISO800 bräuchte. Für die dritte dann ISO1600. Für HDRs rauscht das viel zu arg.

Nach langem Überlegen habe ich endlich die perfekte Lösung gefunden:
Ich mache einfach 16 Aufnahmen mit der passenden Belichtung für die dunkelste Variante. Für die hellste rechne ich dann alle 16 Belichtungen additiv zusammen, so dass ich + 4LW "simulieren" kann. Für die dunkelste rechne ich auch alle 16 zusammen - mit Mittelwertbildung. Für die neutrale gibts dann irgend ein Mix. Die Variante hat viele Vorteile:

1. Ich habe am Schluss 3 100% deckungsgleiche Aufnahmen
2. Ich kann mit einer programmierbaren Fernbedienung beliebig lange Verschlusszeiten HDR-mässig nutzen.
3. Ich muss vor Ort nix manuell machen -> keine Verschieber. Einfach Serienaufnahme mit 16 Bildern einstellen, abdrücken und warten.
4. Wechselnde Lichtverhältnisse (beim Sonnenuntergang) werden in allen 3 Belichtungen gleichermassen berücksichtigt.

Nachteile gibts natürlich auch:

1. Ist verglichen mit der klassischen Variante ziemlich Speicherplatzintensiv (16 statt 3 Bilder auf der Speicherkarte)
2. Zusätzlicher Arbeitsaufwand fürs zusammenrechnen
3. Möglicherweise leicht stärkeres Rauschen, da allen drei Belichtungen am Schluss das gleiche Rauschmuster zugrunde liegt.


Nun zur eigentlichen Frage:

Hat das schon jemand so gemacht? Wenn ja, mit welcher Software macht man dieses Zusammenrechnen am besten? Mein Wunsch wäre eine Software, die das ganze völlig automatisiert macht: Ich lade 16 Bilder rein und bekomme 3 auf der anderen Seite wieder raus. Alles natürlich mit 16bit-TIFs. Ein Commandline-Tool wäre sonst auch sehr cool, dann kann ich mir den Ablauf selber zusammenprogrammieren.

Ich freu mich jetzt schon auf mein erstes Bild dieser Art :D



Stand der Dinge:
Habe mir ein kleines Kommandozeilenprogamm geschrieben, dass mir die Bilder zusammenrechnet. Leider sehen die additiv zusammengerechneten Bilder nicht gleich aus wie ein entsprechend richtig belichtetes Bild. Wie ich herausgefunden habe, liegt das an der Camera Response Curve - Werte im Schatten werden nicht gleich interpretiert wie Werte in den Lichtern (nicht zu verwechseln mit der Gamma-Kurve). Für meine Nikon D90 habe ich die auch schon ermitteln können. Was mir aber noch fehlt ist eine Formel, mit deren Hilfe ich diese ermittelte Kurve auf meine Bilder anwenden kann!
 
Zuletzt bearbeitet:
AW: Bilder zusammenrechnen: additiv & average

Das soll klappen? Hab ich das richtig verstanden: 16 Bilder, alle mit den gleichen Einstellungen, nämlich so wie das eigentlich dunkelste Bild deiner Reihe. Ja? Nach kurzem Überlegen: Reicht dann nicht ein Bild, das du dann vervielfältigst? Was ist, wenn du einfaches Schwarz im Bild hast? Durch das addieren wird das vielleicht grau, aber wo sollen die Details herkommen?
 
AW: Bilder zusammenrechnen: additiv & average

Nach kurzem Überlegen: Reicht dann nicht ein Bild, das du dann vervielfältigst? Was ist, wenn du einfaches Schwarz im Bild hast? Durch das addieren wird das vielleicht grau, aber wo sollen die Details herkommen?

Nein, ein Bild reicht nicht. Wenn ich das 16x vervielfältige hab' ich nur noch unterträgliches Rauschen. Das Rauschmuster von dem einen Bild würde ja auch 16x verstärkt. Ausserdem gäbe es auch nicht mehr Details als in dem einen Bild schon drin sind.
Ja, ich denke, das müsste funktionieren. Du musst dir vorstellen, dass es in der Kamera im Prinzip auch nicht anders funktioniert. Die Helligkeit eines Pixels wird ja durch die Anzahl Photonen festgelegt. Diese erzeugen beim Eintreffen in einem Pixel auf dem Sensor eine Ladung. Nach dem schliessen des Verschlusses wird diese Ladung ausgelesen und digitalisiert. Bei 12bit Genauigkeit (Nikon D90) gibt es 4096 Helligkeitsabstufungen. Der Bereich, den wir als Schwarz wahrnehmen, umfasst bestimmt 100 Abstufungen. Dazu kommt das Rauschen, dass sicherlich +/- 20 Abstufungen ausmacht (alles reine Schätzungen). Dass in einem Pixel der Wert 0 landet, halte ich für ziemlich unwahrscheinlich. Wenn man nun einen typischen Schwarzwert von 50 nimmt und ihn mal 16 rechnet, erhält man immerhin den Wert 800 - ein Detail, dass deutlich zu erkennen sein sollte.
 
AW: Bilder zusammenrechnen: additiv & average

Nein, ein Bild reicht nicht. Wenn ich das 16x vervielfältige hab' ich nur noch unterträgliches Rauschen.

Das stimmt. Der Rest könnte auch stimmen, aber da kommt es dann auf dein Bild an. Je nachdem, was du fotografierst kann im dunkelsten Bild sicher echtes Schwarz auftreten (oder nur Rauschen, was aber nicht unbedingt ein Detail ist :)), aus dem dann nichts mehr zu machen ist. Wenn es aber keine so ganz harten Kontraste sind, funktioniert das vielleicht sogar.
 
AW: Bilder zusammenrechnen: additiv & average

Ich denke, daß das reine Addieren der Ebenen reicht. Für das Bild, das sich aus dem Durchschnitt berechnen soll, ist das addierte Bild ja ein Zwischenschritt, und die Division für die Durchschnittsberechnung ist keine Operation, die irgendwie mehr Bildinformationen herauskitzeln könnte.

Und das Addieren der Bilder + evtl. Durchschnitt berechnen nennt sich Image stacking. Das hat man vor Jahren gerne mal gemacht, um das Rauschen zu reduzieren. Damals war auch so ein Programm namens "Image Stacker" beliebt, vielleicht spuckt die Forensuche dazu noch was aus.
 
AW: Bilder zusammenrechnen: additiv & average

Und das Addieren der Bilder + evtl. Durchschnitt berechnen nennt sich Image stacking. Das hat man vor Jahren gerne mal gemacht, um das Rauschen zu reduzieren. Damals war auch so ein Programm namens "Image Stacker" beliebt, vielleicht spuckt die Forensuche dazu noch was aus.

ImageStacker wäre genau das, was ich suche - guter Tipp. Leider läuft der nur mit 8bit-TIFs, was mir nichts bringt. Versuche jetzt mal mir selber ein Programm zu programmieren. Leider unterstützt der .NET-Framework auch keine 16bit-Bilder - wäre ja auch zu schön gewesen :mad:
 
AW: Bilder zusammenrechnen: additiv & average

Ich arbeite mit Photo Acute. Bis 16 Bilder aus Belichtungsreihen werden verrechnet. Mit Raw kann man dabei auch arbeiten. Ich verwende Jpeg einer Kompakten.
 
AW: Bilder zusammenrechnen: additiv & average

Ich brauch keine Berechnung aus Belichtungsreihen. Sondern aus normalen Reihen. Habe mir jetzt das dazu nötige Programm selber geschrieben. Funktioniert :)
 
AW: Bilder zusammenrechnen: additiv & average

Hast Du Bilder Original + Ergebnis? Programmieren kann ich nicht, daher verwende ich Photo Acute, dass auch die Verzeichnung korrigiert.
Was machst Du bei bewegten Motiven? Da habe ich erst ab 5 Bildern weniger Probleme.
 
Zuletzt bearbeitet:
AW: Bilder zusammenrechnen: additiv & average

Ich hab' wohl zuviel versprochen. Die Berechnung des Average geht prima, aber beim aufaddieren gibts ein Problem, weil Nikon ja in den Bildern eine Tonwertkurve hat. Bei mir werden die Bilder zu hell. Da muss ich nochmals dahinter.
Bewegte Motive sind dann natürlich kein Problem mehr - eine Langzeitbelichtung vorausgesetzt.
 
AW: Bilder zusammenrechnen: additiv & average

Das Stacken ist in der Astronomie eine übliche Methode. Probier doch mal das Progamm FITSWORK. Als Export steht dort auch 16 Bit TIFF zur Verfügung.
 
AW: Bilder zusammenrechnen: additiv & average

Das Stacken ist in der Astronomie eine übliche Methode. Probier doch mal das Progamm FITSWORK. Als Export steht dort auch 16 Bit TIFF zur Verfügung.

Das funktioniert irgendwie nicht richtig. Lade ich die Bilder einzeln ins Program hat er ab dem 9. jeweils irgend ein Problem und hört auf die weiten Bilder reinzuladen. Die Batchverarbeitung funktioniert soweit, aber er erstellt am Schluss nur eine FIT-Datei und ein korruptes TIF.

Mein eigenes Tool hat mir bisher am besten gefallen, aber es hat halt trotzdem noch den Bug mit der Camera Response Curve.

Ein anderes Tool, das ich ausprobiert habe war Giotto. Das hatte das gleiche Problem wie mein Tool.
 
AW: Bilder zusammenrechnen: additiv & average

Moin,

zum Mitteln von 16 bit Tiffs eignet sich das gute alte Giotto sehr gut. Übrigens die Ergebnisse des Mittelns und Addierens sollten eigentlich ziemlich gleichwertig sein, zumindest wenn die Bittiefe des Programms ausreicht. Bei mangelnder Bittiefe wird das Histogramm natürlich nach rechts rausgeschoben.


MfG

Rainmaker
 
AW: Bilder zusammenrechnen: additiv & average

Die Gammakorrektur habe ich bereits angewendet. Hat ein bisschen was gebracht, aber das Ergebnis ist immer noch nicht gut. Ich bin mir jetzt praktisch sicher, dass die verbleibenden Unterschiede ausschliesslich auf die Response Curve des Sensor zurückzuführen sind. In PTGui kann man sich diese Kurve anzeigen und abspeichern lassen. Dort drin habe ich jetzt 5 Werte, mit denen ich leider nicht viel anzufangen weiss. Was ich bräuchte, wäre eine Formel mit deren Hilfe ich die Helligkeitsunterschiede herausrechnen kann.

EDIT: Ich habe im Übrigen kein einziges Programm gefunden, dass eine korrekte Belichtungskorrektur durchführt, ausser Capture NX. Ob Lightroom, Photoshop oder irgend so eine Stacker-Software. Alle machen es sich einfach und multiplizieren die Helligkeitswerte ungeachtet der Response Curve. Das Ergebnis ist ein sehr viel kontrastreicheres Bild als es sein sollte. In Capture NX ist das künstliche +2LW-Bild vom richtigen nicht zu unterscheiden (ausser dem Rauschen). Capture NX weiss die Response Curve meiner D90 und kann die Belichtung so korrekt extrapolieren. Die verschiedenen HDR-Softwares müssen natürlich auch mit den Response-Curves umgehen können, aber leider ist das für mich stets eine Blackbox.
 
AW: Bilder additiv zusammenrechnen in Abhängigkeit der Response Curve

Ich bin jetzt ein bisschen weiter gekommen. Mein Programm geht zwar immer noch nicht wie gewünscht, aber immerhin habe ich mal den Sourcecode von Hugin auseinandergenommen - dort ist die gewünschte Formel drin.

Bevor ich mich in weitere Arbeit stürzen will, habe ich mal ein paar Tests gemacht mit Capture NX. Dort kann man ja immerhin +2EV simulieren. Habe also die normalen 16 Belichtungen gemittelt und die +2EVs ebenfalls. Das dann mit Photomatix ohne Entrauschung, mit maximalem Detailenhancer und ohne Kontrastglättung zu einem HDR zusammengebastelt.
Zum Vergleich habe ich natürlich auch noch eine normale Belichtungsreihe mit äquivalenter Belichtungszeit erstellt - mit den gleichen Photomatix-Parametern.

Hier die Ergebnisse

16x 0.5s:
[ATTACH_ERROR="dslrToolsAttachRewrite"]1158596[/ATTACH_ERROR]

1x 8s 1x 2s 1x 0.5s:
[ATTACH_ERROR="dslrToolsAttachRewrite"]1158598[/ATTACH_ERROR]

Crop von 16x 0.5s:
[ATTACH_ERROR="dslrToolsAttachRewrite"]1158597[/ATTACH_ERROR]

Crop von 1x 8s, 1x 2s, 1x 0.5s:
[ATTACH_ERROR="dslrToolsAttachRewrite"]1158599[/ATTACH_ERROR]


Mein Fazit: Man sieht leider einen sichtbaren Unterschied in der Helligkeit der Schatten. Immerhin sieht man keinen wirklichen Nachteil bzgl. Bildrauschen. In der Praxis dürfte das Ergebnis jedoch dennoch sehr tauglich sein. Eine +4EV-Belichtung wird wahrscheinlich keine weiteren Vorteile mehr mit sich bringen, daher ist dies wohl das bestmögliche Ergebnis mit dieser Methode. Man muss sich aber bewusst sein, dass grössere Kontrastumfänge als diese Szene hier wohl zu schlechteren Resultaten führen wird, weil dadurch noch mehr aus dem rauschenden, dunklen Bereich des Sensors gekitzelt werden muss.
 
AW: Bilder additiv zusammenrechnen in Abhängigkeit der Response Curve

Wenn es aber keine so ganz harten Kontraste sind, funktioniert das vielleicht sogar.

Man muss sich aber bewusst sein, dass grössere Kontrastumfänge als diese Szene hier wohl zu schlechteren Resultaten führen wird, weil dadurch noch mehr aus dem rauschenden, dunklen Bereich des Sensors gekitzelt werden muss.


Aber doch trotzdem ein sich sehen lassen könnendes Ergebnis! :)
Was mich noch interessiert: Worin / womit hast du das Programmiert?
 
AW: Bilder additiv zusammenrechnen in Abhängigkeit der Response Curve

Aber doch trotzdem ein sich sehen lassen könnendes Ergebnis! :)
Was mich noch interessiert: Worin / womit hast du das Programmiert?

Finde ich auch. Aber der Workflow mit Capture NX ist zum kotzen langsam. ViewNX sollte aber auch gehen. Habe es mit C# programmiert. Werde es aber noch zu Ende programmieren, so dass man dann hoffentlich kein Capture NX mehr braucht.
 
AW: Bilder additiv zusammenrechnen in Abhängigkeit der Response Curve

Ich habe noch einen weiteren Test durchgeführt:

4x 0.5s gegen 1x 2s und 1x 0.5s

Zwar jetzt ohne Beispielbilder, aber dafür mit meiner persönlichen Einschätzung: Zwischen den beiden Varianten ist kein nennenswerter Unterschied mehr zu erkennen. Auch keine Helligkeitsunterschiede in den Schatten. Für mich ist das DER Beweis, dass man mit einer künstlichen +4LW-Belichtung in Photomatix noch bessere Ergebnisse erzielen könnte. Jetzt muss nur noch jemand (ich) die Software schreiben, die ein Bild korrekt um 4 Blendenstufen heller machen kann.


Einen Vorteil dieser Methode darf man auch nicht vergessen: Auch ohne dicken Graufilter kann man so unendlich lange Belichtungen machen. Und: je mehr Aufnahmen man macht, umso besser ist die Bildqualität. Anstatt 16 kann man auch 32 oder noch mehr Belichtungen machen und damit das Ergebnis eines richtigen HDRs sogar noch übertrumpfen.
 
WERBUNG
Zurück
Oben Unten