• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

freie Belichtungsreihen für HDR?

D.h. man müsste einen Fusion Algorithmus erzeugen, der zum einen Pixel mit gutem Kontrast in den Vordergrund des Bildes bringt, auf der anderen Seite dies aber auch nicht zu stark macht, um die Ausleuchtung nicht zu sehr anzugleichen.

Wenn dann mindestens 2 Pixel die einen guten Kontrast zu einander haben. Ein Pixel allein hat genau einen Helligkeitswert, oder interpretiere ich das falsch?
Wie willst Du aber mit Flächen umgehen? Da sind die Kontraste zwischen den pixeln recht gering.
Kannst ja mal versuchen etwas aus "dmkdmkdmk" zu seinem NeoHDR rauszubekommen.

Daniel
 
@Daniel:
Schon richtig, ein Pixel allein kann keinen Kontrast haben. Die Algorithmen funktionieren immer mit einer Matrix (die einfachste 3x3, siehe Sobel Operator). Wenn man die Entropie als Gewichtungskriterium nimmt, kann man aber auch durchaus mit einer 1x1 Matrix arbeiten. Flächen sind durchaus ein Problem, wenn man die Algorithmen aber stabil aufbaut, kann man durch sukzessive Vergrößerung der Matrix zu einem Resultat kommen.

Die Resultate von dmkdmkdmk habe ich schon entdeckt :) Wirklich verblüffend! Der Ansatz geht aber in eine etwas andere Richtung, nämlich Motions(Bewegungen) aus gleichbelichteteten Reihen rückwärts zu rechnen.
 
Alles was Du sagst. ;) Bei Algorithmen kenne ich mich nicht aus. Könnte man nicht in einem ersten Schritt das arithmetische Mittel aus den Pixeln der Einzelbelichtung bilden und dieses entsprechend dem Helligkeitswertes (0-255) gewichten und dann die Kontraste an starken Kontrastkanten noch mal anziehen?

Beispiel für Pixel A1:

- Mittel ergibt 57
- Gewichtung mit Faktor 0,965
- Helligkeitswert im Bild 55

In hellen Bereichen ist der Wert dann größer 1.

Bin ja mal gespannt, was am Ende bei raukommt.
 
@Daniel:

Ich greife dein Beispiel mal auf:
- Bild 1, Pixel xy: Mittel 57, Helligkeitswert 55, Gewichtung mit Faktor 0,965

Wir müssen dazu die Pixel aus den anderen Belichtungsreihen betrachten, nehmen wir an:
- Bild 2, Pixel xy: Mittel 23, Helligkeitswert 38, Gewichtung mit Faktor 1.652
- Bild 3, Pixel xy: Mittel 122, Helligkeitswert 91, Gewichtung mit Faktor 0.746

Die Summe der Gewichte ist 3.363, teilen wir nun:

Bild 1: 0.965/3.363 = 28.69%
Bild 2: 1.652/3.363 = 49,12%
Bild 3: 0.746/3.363 = 22.18%
(zusammen von Rundung abgesehen 100%)

Deine Idee entspricht dem einfachsten Fusion Algorithmus, liefert aber durchaus HDR Ergebnisse.

Ein wirklich guter Artikel dazu: http://web4.cs.ucl.ac.uk/staff/j.kautz/publications/exposure_fusion.pdf

Grüße
 
...
Daran liegt aber auch sein Makel. Es ist zu gleichmäßig ausgeleuchtet und entspricht nicht dem natürlichen Eindruck, den man in einem solchen Raum hätte.

Die Fenster z.B. dürften nicht so farbig und gleichmäßig beleuchtet sein, das Dachfenster nicht so grau. Überhaupt ist die erzeugte Ausleuchtung so gleichmäßig und unplastisch, dass man vermutet, riesige versteckte Flächenleuchten würden den ganzen Raum belichten.

Ich habe mich nochmal mit dem Fusion Operator auseinandergesetzt und nun versucht, die Lichtverhältnisse etwas besser an die Ausgangssituation anzupassen, also auch weniger zu nivellieren.

Ist das besser? Oder nur anders? Im Bild beide Varianten im direkten Vergleich.
 
Mir gefällt das ursprüngliche Bild besser, die Lichter (rechtes Bogenfenster) habe eine bessere Zeichnung.

Das wird besonders sichtbar, wenn man anschließend eine Tonwertkorrektur anwendet.
 
das ist haargenau das gleiche bild. di problemstellen sind aber immernoch drin, das graue fenster oben zb.
 
das ist haargenau das gleiche bild. di problemstellen sind aber immernoch drin, das graue fenster oben zb.

Naja, haargenau gleich ist das Bild nicht. Aber die Problemstellen sind möglicherweise gleichgelagert.
Ich poste mal die Belichtungsreihe dazu, damit man einschätzen kann, was überhaupt möglich ist (leider habe ich nur eine 8bit-jpg Bildreihe)

Das Fenster oben gibt leider nicht wesentlich mehr her... :(
 
Das Fenster oben gibt leider nicht wesentlich mehr her... :(

das ist eben genau der punkt. hdr ist kein marathon wo du alles dunkle aufhellst und alles helle abdunkelst was nicht bei drei auf den bäumen ist. das macht niemand, blätter mal zeitschriften und portfolios durch. bilder sind interessant weil sie strahlen und weil sie schatten haben, erst dadurch entsteht räumliche tiefe. unter fotografen gibts sonen blöden spruch "wenn du willst dass deine bilder interessant sind, lass dinge im dunkeln." gilt natürlich auch für die lichter. das fenster da oben zb. grau totzumachen nur damit man diese streben noch erkennt, meine güte, ist doch nicht der sinn und zweck. das drückt halt wortwörtlich das bild ein, da entsteht eine unnatürliche delle. im mittleren tonwertbereich hast du dann eine pastellfarbene grütze, die details gehen flöten weil sich die tonwerte in richtung grau nähern. dein ganzes histogramm ist kastriert, keine lichter, keine tiefen, nur noch flaue mitten. wenn du ne software schreibst achte auf solche kleinigkeiten oder unterstütz den anwender auf diese problematiken einzugehen, und zwar lokal. :)

ps. was mir immer hilft ist ein mapping und ein original durch hin und herschalten zu vergleichen. machs mal hier mit der hellen belichtung und du siehst wieviel stimmung der ganze prozess rausgesaugt hat. würd ich das bild mappen würd ich mir warscheinlich auch genau diese mitten selektiv rausholen, die müssen auch nicht gemappt werden, die sind perfekt. die hellen stellen könnt man leicht besänftigen, und dann hats vielleicht auch noch ein paar interessante schatten aus der dunklen belichtung.
 
Zuletzt bearbeitet:
@Paul:
Wieder mal danke für die Antwort. Ich sehe schon, HDR algorithmisch zu beschreiben wird ein nicht unerhebliches Problem, da die Meinungen über "gutes" HDR doch sehr weit auseinandergehen.
Vermutlich sollte ein guter HDR-Algorithmus viele Freiheiten mitbringen, sprich viele Regler zum einstellen unterschiedlicher Anforderungen. Zusätzlich sollte man dem User wohl auch die Freiheit geben die Fusion direkt zu manipulieren, also für bestimmte Bereiche explizite Werte definierbar machen.

Ich habe nochmal einen Versuch gemacht eine etwas natürlicheres HDR-Ergebnis aus der Reihe zu bekommen. Die Algorithmen werden unüberichtlicher :)
 
am einfachsten ists halt sich umzuschauen was es gibt und was es nicht gibt. es gibt 10tausend hdr programme die alle irgendwie das gleiche machen - ist halt die frage ob es da wirklich noch sinn macht in die kerbe zu stoßen. eventuell wenn du den benutzer erlaubst constraints ins bild zu klicken die er nach belieben verstellen kann. deine algorithmen müssten die halt berücksichtigen, das wäre schonmal eine nützliche besonderheit.

es gibt aber noch andere möglichkeiten hdrs zu machen, nahezu neuland. schau dir mal hier die videotutorials an, das ist hdr über licht. oloneo relight ist die einzige software die schon was in die richtung möglich macht, aber das ist eher ne spielerei. wenn du dafür ne software schreibst ermöglichst du kleinen putzigen digitalfotografen mit kleinen putzigen dslrs bilder zu machen die ansonsten nur mit big budget möglich wären. wär doch was. hier wär auch die mathematik recht simpel, hellere pixel über dunklere pixel, in photoshop ists ein klick auf den modus "lighten." selektiven eingriff brauchts wenn die lichtquelle im bild ist oder wenn du deckung abschwächst oder bereiche ausklammerst, weissabgleich, intensität, usw. :)
 
Zuletzt bearbeitet:
wenn ich halt ins bild klicke, zb. auf dein fenster, einen radius bestimme, und ihm mitteile hier nicht oder an dieser stelle will ich diese und jene originalbelichtung haben, oder an explizit dieser stelle möchte ich die parameter finetunen die ich sonst global vornehme, ein constraint halt. wie gesagt, ein globaler mapper wird niemals ein fertiges bild ausspucken, sowas gibts einfach nicht. aber ein lokaler mapper bei der fotograf selbst bestimmt was wo wie hell und dunkel ist, das wäre schon was. eventuell kann die nik software sowas schon, habs noch nicht benutzt ...
 
Ich habe mich nochmal mit dem Fusion Operator auseinandergesetzt und nun versucht, die Lichtverhältnisse etwas besser an die Ausgangssituation anzupassen, also auch weniger zu nivellieren.

Ist das besser? Oder nur anders? Im Bild beide Varianten im direkten Vergleich.

Eine Spur besser im allgemeinen, aber das Oberlicht in der Rotunde ist unfaßlich wenig "gegenlichtig". Was PaulHenschel gesagt hat, stimmt schon:

"wenn du willst dass deine bilder interessant sind, lass dinge im dunkeln." gilt natürlich auch für die lichter.
Alles zu nivellieren bringt graue oder flache Bilder ohne Plastizität. Technisch möglicherweise brauchbar, aber.. unecht und langweilig wirkend.

Die Originalbilder sind bei nichtkommerzieller Verwendung ja verwendbar, deshalb mein Mash-up aus zwei Ebenen, die nicht ganz so krass die Lichter lassen wie im Original-HDR von der Seite. Die Lichtzeichnung ist wesentlich für 99% aller Bilder.
Hier siehst Du ansatzweise noch, wie der Lichteinfall war bzw. ist.
(Eine zusätzliche Ebene mit leicht s-förmiger Gradiationskurve aus deinem Bild, ca. 50% Deckkraft und die überlagernde Ebene wegen Farben-overkill farblich leicht entsättigt)
 
@Paul:
Verstanden. Danke! Im Prinzip geht die Variante in die Richtung da HDR mehr oder minder manuell zu machen, eventuell so dass der Algorithmus einen Vorschlag macht, den man dann mit geeigneten Werkzeugen editieren kann.

@Aurum:
Auch hier verstanden. Nicht zuviel der Originalbelichtung entfernen. Wenn man das in einen Algorithmus packen wollte, müsste man diesem beibringen "Belichtung" von grundsätzlich hellen Objekten zu unterscheiden. Eine spannende Aufgabe :)
 
Vielleicht hilft es Dir ja etwas, wenn Du eine individuelle HDR-Bearbeitung mit herkömmlichen Hilfsmitteln hier sehen kannst.

Dies ist z.B. eine Bearbeitung mit meiner Technik. Da ich die kleinen Fotos aus Deinem Anhang verwendet habe, ist die Qualität natürlich nicht gerade berauschend. Mit großen Originalfotos insbesondere, wenn sie als RAW´s vorliegen, würde es natürlich noch besser aussehen.

Beispielfoto-aus-DSLR-Forum.jpg


Unbedingt auf dunklem Hintergrund ansehen !!!; dann kommen auch die dunklen Bereiche ausreichend zum Vorschein. Auf hellem Hintergrund sollten Fotos mit hohem Tiefenanteil sowieso niemals angeschaut werden. Es wäre schön, wenn man in diesem Forum die Hintergrundfarbe bei Fotos auswählen könnte. Es gibt sehr viele Fotoforen, wo man dies tun kann.

Gruß
Michael Stöhr

www.3D-Fotos.de
 
@meermike:
Das Bild sieht sehr interessant aus. Ich vermute das ist manuell erstellt? Die Farbsättigung ist auch selektiv entfernt, oder?
Ist da ein Tone-Mapping mit drauf?

Was mich gleich zu meiner nächsten algorithmischen Frage bringt:
Was erwartet ihr von einem guten Tone-Mapping bzw. was soll ein algorithmisches Tone-Mapping leisten?
 
WERBUNG
Zurück
Oben Unten