• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Nachträglich Bokeh?

Naaaaaja, die Ergebnisse auf der Seite finde ich alles andere als zufrieden stellend. Leider.

Könntest du vielleicht ein Bsp. Foto zeigen mit einer Depthmap daraus gezogen?
 
Zuletzt bearbeitet:
Vielen Dank! :)

Also in meinen Augen funktioniert das nicht vernünftig als base einer depthmap. Es wirkt eher, als ginge es nur von Tonwerten aus. Wenn jetzt nun ganz vorne noch ein dunkelroter Ball wäre, wäre dieser mit der Methode seeeehr weit weg. Nach hinten ist auch kein Verlauf, sondern recht aprupt dunkel

Warum ist zB. der Rock allein schon viel weiter weg, als zB. der Kopf (viel dunkler)? Oder der vordereBauch erheblich heller als bildlinks…
In dem Bsp. müsste man schon soviel nacharbeiten, dass man schneller wäre, man zieht den Gradient und stellt das Mädel per Pfad frei.

Das die Ähren schonmal Flächen sind find ich eigtl. schon recht cool. Aber auch für automatisiert ist mir der ganze Rest noch zu "unschön". Wäre, wenns denn wirklich fixer und genauer geht, fast schon ne Überlegung, sich das mal in Gimp anzuschauen.

Also wenn man damit eine ähnliche Maske (die nat. auch nicht perfekt ist - nur zu Anschauungszwecken) wie diese in unter 20min. hin bekommt, bin ich dabei. :)



edit:
Was genau passierte dann noch im "smoothing". Ich habe die map mal angewendet aufs Bild und getestet. (lensBlur mit Fokus aufs Gesicht)

smoothed ist die Map mit einer Mischung aus SmartBlur, SurfaceBlur und GaussianBlur.
(Anhang)

Also auch "smooth" ist die Map nicht wirklich brauchbar. :(
Das Feld ist zB. links erheblich dunkler als rechts. Also der gesamte Schärfeverlauf passt irgendwie nicht. Und die Flächen insgesamt sind nicht stimmig
 
Zuletzt bearbeitet:
Hier wird nun über ein gänzlich anderes Bild gesprochen - das finde ich wegführend vom geschilderten Problem...

Der Weg kann nur über die Analyse des Bildes führen - und wenn man gewisse Ähnlichkeiten der Schärfentiefe z.B. mit gewissen Tonwerten erblicken zu glauben meint, könnte man z.B. über die Umwandlung einer Kopie des Blaukanals in eine Alphamaske (die man dann im Inneren nur noch ausmalen muss oder über eine TW-Korrektur verallgemeinert) schneller zu einer sauberen Maskierung kommen.

LG Steffen
 
Das eigentliche Problem zum bequemen Arbeiten ist doch die depth map AUTOMATISCH zu erzeugen, da liegt der Hase im Pfeffer. Wenn die depth map einmal da ist ist der Rest nicht so schwer. Aber von Hand macht eben die depth map 90% oder mehr der Arbeit.

Kennst Du noch irgendwelche anderen Filter für depth map Berechnung? Vielleicht könnten wir dem Thread-Ersteller ja doch irgendwie helfen.
 
OK lassen wir das mit anderen Bildern, wird nur OT, ich habe es nur zum Verständnis und zur Beantwortung einer konkreten frage eingebracht.

@Coriolanus: Am besten Du lädts den Filter und testest mal etwas durch, ist ja gratis. Eine depth map alleine ist ja noch nicht die make für einen Bokeh Effekt. Die muss nochmal umgewandelt werden um der Aufgabenstellung zu genügen.
Das Ganze führt zu weit, ist wirklich eher was für einen extra-Fred.

@truecrimson: Es gibt etwas für after effects und nuke von der Firma YUVsoft, das ist ein Ableger der Uni Moskau, allerdings semi-Automatik, das ist aber für den Videobereich

http://www.yuvsoft.com/products/2d-to-3d-conversion/

Ansonsten gibt es Hinweise und Erläuterungen bei Wikipedia: http://en.wikipedia.org/wiki/2D_to_3D_conversion

In der Forschungsliteratur findest Du jede Menge, aber gebrauchsfertige Produkte gibt es sehr wenige, sicher auch weil die Entwicklung der grundlagen noch in vollem Gange ist.
 
Eine depth map alleine ist ja noch nicht die make für einen Bokeh Effekt. Die muss nochmal umgewandelt werden um der Aufgabenstellung zu genügen.
:confused: Was muss denn da noch umgewandelt werden? Das ist doch Quatsch.
Eine erstellte Depthmap dient lediglich als Maske für zB. den LensBlur Filter oder auch dem Alienskin Plugin oder auch Filter in CompositingProgrammen wie AfterEffects, Nuke oder usw.

Ich hab schon einige Depthmaps erstellt. Sowie händisch, als auch direkt aus einem 3D-Programm(3dsmax, Maya, XSI) gerendert.
Das Prozedere ist immer gleich: Die Depthmap liefert den Schärfebereich, welcher dann per Plugin, Filter und Co. dann das gewünschte Bokeh liefern (s.o.).
 
Zuletzt bearbeitet:
:confused: Was muss denn da noch umgewandelt werden? Das ist doch Quatsch.
Eine erstellte Depthmap dient lediglich als Maske für zB. den LensBlur Filter oder auch dem Alienskin Plugin oder auch Filter in CompositingProgrammen wie AfterEffects, Nuke oder usw.

Aber nein, die depth map zeigt weiß was vorn ist und schwarz was hinten ist.

Wenn Du auf etwas "scharf stellst" was nicht der vorderste Punkt muss die Maske für den Filter genau diesen Grauton aus der depth map Weiß haben und alle ursprünglich helleren Grautöne müssen umgekehrt dunkler werden.

Da lag Dein Denkfehler, und dabei sind wieder Entscheidungen zu treffen (wie steil soll der Abfall sein, wie weich sollen die Übergänge sein?), all das spielt zumindest bei der Programmierung von Filtern eine Rolle.
 
Aber nein, die depth map zeigt weiß was vorn ist und schwarz was hinten ist.
Probier es aus. Die Filter sind intelligent genug, um die Werte zu verschieben. Wenn du mit der Maus wo anders hin klickst, ändert sich quasi die Maske und das Bokeh stimmt wieder. :) Man muss vorher nur definiert haben, ob schwarz oder weiß der Fokusbereich ist. Der Rest wird angepasst.

Also kein Denkfehler - machen wir hier täglich, mit Maps bis hin zu 32bit floating points (nuke).
 
Zuletzt bearbeitet:
Von welchen Filtern sprichst Du?
Also bei allen obigen bereits genannten, außer bei alien skin bokeh 2 (hier klappt es nur über Umwege korrekt - unterscheidet nicht anhand der Map, sondern nur nach Selektion, sonst eigtl. ähnlich wie die neuen Blur Filter in CS6).

Bei den anderen genannten Filtern funktioniert das weiter oben beschriebene mit den depthmaps.

DOF Pro, PS eigener LensBlur-Filter, Frischluft lenscare, z-Depth (maya-nuke script), LensBlur in After Effects, peregrinelabs bokeh (nuke), usw.

All diese Filter, Plugins und Scripte tun im Grunde das Gleiche: Das Anwenden einer depthmap für Weichzeichnung im künstlichen Schärfeverlauf (mit klick auf Fokusberich und Anpassung der Grauwerte) - blur focal distance.

Da es nunmal leider keine zufriedenstellende Lösung für das automatisieren einer Depthmap aus einem Photo heraus gibt (auch nicht mittels oA. GimpPlugin), muss man diese eben selbst erstellen (Beitrag #10 und Tutorial Links weiter oben als Ausgangspunkt).

siehe weiter oben im Thread, vor allem auch im Kontext der Ausgangsfrage und Links. Kann nat. auch sein, dass wir hier aneinander vorbei reden. ;)

Beispiele aus DOF Pro - Link 2 - Anwendung in Animation (leider nur als 32bit PS-Version, aber hat Bsp.-Bilder von was wir hier eigtl. sprechen, und ist hier auf einigen Rechnern nur für diesen Zeck) aber wenn man hier zB. nur mal auf die Zeiten schaut, sieht man die Berechtigung in diesem Bereich.

Deswegen fände ich es genial, wenn es für Fotos etwas gäbe, was einem eine Depthmap automatisiert ausspuckt.

Hier noch ein Tutorial zum Erstellen einer Depth map in PS mit anschließender Nutzung des LensBlur Effekts in PS. Auch das ist, wie die meisten Tuts in dem Bereich, nicht perfekt, aber man sieht das Prinzip, was dahinter steckt. Im LensBlur-Dialog-Fenster kann man dann mittels focal blur distance (oder eben klick ins Bild) den Fokus festlegen. Und da ist es egal, wo weiß oder schwarz am Anfang waren.

im Anhang nochmal der direktBezug einer (leicht)geblurrten Version zum Original. Grauwerte der Tiefe mit Gradient ermittelt. Man kann nat. stäker blurren, oder die Personen künstlich weiter im Raum voneinander abgrenzen (Grauwerte weiter voneinander entfernen), es wird dadurch aber unrealistisch. Fokus liegt auf dem Typen mit der blauen Jacke. Vergleichen kann man gut die Hauswand im Bezug auf die Personen.


edit: noch eine stärker weichgezeichnete version angehangen (wird schon unrealistisch und man sieht die schnell zusammen geschusterte map ;) )
 
Zuletzt bearbeitet:
Hallo,

ich hab gerade einen Filter programmiert, der selektiv den Hintergrund unscharf machen soll. Leider ist der Filter nicht gerade sehr intelligent und verunschäft auch noch ein paar andere Bereiche :D Anbei ein Beispiel mit 30 Iterationen.

Schönen Gruß
Theo
 
:D Hehe, naja, mit Bokeh hat das aber wenig gemein, eher mit surfaceBlur. Die Kanten bleiben erhalten, der Rest verschwimmt mehr oder weniger irgendwie.
In was ist der Filter? Für PS? Den könnte man uU. für andere Sachen missbrauchen. :)
 
:D Hehe, naja, mit Bokeh hat das aber wenig gemein, eher mit surfaceBlur. Die Kanten bleiben erhalten, der Rest verschwimmt mehr oder weniger irgendwie.
In was ist der Filter? Für PS? Den könnte man uU. für andere Sachen missbrauchen. :)

Ja, funktioniert auch wie ein surface Blur. Der Code ist gerade pures Java, weiss nicht ob es sich lohnt da einen PS-Filter draus zu machen, gibts ja im Grund alles schon. Aber ich kann ja mal schauen, ob ich den verbessern kann, insbesondere die Qualität der Unschärfe.
 
Warum gibt es wohl verschiedene Weichzeichner für verschiedene Zwecke? Damit man sie auch sachgerecht und gemäß ihrer jeweiligen Stärken und Schwächen anwendet.

Beim Gauß mit hohem Radius bekommst Du das nie geregelt - weil selbst die beste und schärfste Maske den Charakter des Filters als Detailvernichter nicht kaschieren kann und letztendlich immer eine Art Halo an der Kante übrig bleibt, weil die harte Maske auf den hohen Radius der Filteranwendung trifft.

LG Steffen
 
Beim Gauß mit hohem Radius bekommst Du das nie geregelt - weil selbst die beste und schärfste Maske den Charakter des Filters als Detailvernichter nicht kaschieren kann und letztendlich immer eine Art Halo an der Kante übrig bleibt, weil die harte Maske auf den hohen Radius der Filteranwendung trifft.

Naja, über die Kantenhärte könnte man noch reden.. Aber die Art der Unschärfe hat leider auch wenig mit Bokeh zu tun. Wie heisst der Algorithmus, den man für Bokeh-Unschärfe verwendet?
 
@Coriolanus: Ich glaube jetzt kommt ziemliche Unordnung rein, ich fasse mal meine Kernaussagen zusammen, vielleicht wird es Dir dann klarer.

1. Für realistisches künstliches Bokeh / DOF auf 2D Bildern braucht man eine depth map
2. Die depth map wird angepasst um den gewünschten bereich scharf zu haben.
3. Keiner der von Dir genannten Filter für 2D.Programme erzeugt eine depth map automatisch, Ausnahme G´MIC. Die Filter können depth maps einlesen und verarbeiten, die Du von woanders hast (meist von Hand gemalt). Das Einlesen und Verarbeiten kann G´MIC auch, Du mußt ja nicht die Automatik benutzen. Im 2D-Bereich ist das automatische Erstellen einer depth map immer eine Näherung, es gibt ja keine originären 3D-Daten. es kann also je nach Bild gut sein oder auch mal Ausreißer geben. Ich empfehle als effiziente Methode eine automatische depth map erst ausgeben zu lassen und dann mit ein paar Pinselstrichen eventuelle Fehler zu korrigieren, spart im Vergleich immer 90% der Handarbeit.
4. Die von Dir genannten 3D-programme haben mit der Fragestellung eigentlich nichts zu tun, in 3D ist es trivial weil alle Daten eine Z-Koordinate haben, jedes 3D-Programm rendert daraus den Z-pass oder verwendet ihn als Grundlage für delektive Tiefenunschärfe. Das macht das völlig kostenlose blender genauso gut wie jedes Kaufprogramm.

@Steffen: mit den verschiedenen Weichzeichnungsmethoden gebe ich Dir völlig recht, aus diesem Grunde habe ich dem Filterbenutzer auch mehrere zur Auswahl gegeben. Ich denke aber den Gauss bekommt man schon in den Griff indem man auf der (filterinternen) Weichzeichnungsebene die Ränder der scharfen Teile mit Teilen des Hintergrundes überklont, so habe ich es jedenfalls gemacht (technisch mit einem inpaint Algorithmus).
 
@Coriolanus: Ich glaube jetzt kommt ziemliche Unordnung rein, ich fasse mal meine Kernaussagen zusammen, vielleicht wird es Dir dann klarer.
Danke für die Zusammenfassung. ;) Das hilft dem TO bestimmt mehr als meine bebilderten Beispiele, Links und Tutorials weiter oben.

1. Für realistisches künstliches Bokeh / DOF auf 2D Bildern braucht man eine depth map
Ich habe nie gegenteiliges behauptet (s.o. im Thread). :)

2. Die depth map wird angepasst um den gewünschten bereich scharf zu haben.
Genau. Durch einen Mausklick auf den gewünscht fokusierten Bereich innerhalb eines DOF-Filters. :) Ob man das aber als "anpassen" bezeichnen will, ist wohl DefinitionsSache.

(edit: Anhang. Im Anhang mal noch ein (unrealistisches) Extrembeispiel. Bildlinks ist das Original und die schnell zusammen geschusterte und fehlerhafte Depthmap (falscher eingeschlichener Verlauf an der Wand) ;) zu sehen.

1. Bild:
Bildrechts auf unterschiedliche Bereiche per Mausklick fokussiert:
Einmal auf den Polizisten in der Mitte und einmal auf die blaue Jacke. Man sieht nat., dass der PS eigene LensblurFilter hier an seine Grenzen stößt, bzw. wirkt es unrealistisch. Aber als Bsp. des "Anpassens" per Mausklick in die Map im Filter dürfte es reichen (der Schärfebereich wandert mit innerhalb der Map) - deswegen mal dieses Extrembeispiel (beides mit selber Depthmap). DOF PRO und Co. machen das aber wesentlich schöner. Habe ich aber grad nicht hier.

2. Bild:
Fokus auf bildrechten Polizisten

Wie gesagt, dass sind Extrembeispiele, nur um die möglichen Fokuss-shifts innerhalb der genannten Filter per Mausklick aufzuzeigen)

3. Keiner der von Dir genannten Filter für 2D.Programme erzeugt eine depth map automatisch[…]
Habe ich nie behauptet! Wäre auch zu schön, um wahr zu sein (habe ich aber auch bereits mehrfach erwähnt). :) Genannte Filter nutzen lediglich die vorliegende Map, um sie auf die definierten Schärfebereiche anzuwenden.

[…], Ausnahme G´MIC. Die Filter können depth maps einlesen und verarbeiten, die Du von woanders hast (meist von Hand gemalt). Das Einlesen und Verarbeiten kann G´MIC auch, Du mußt ja nicht die Automatik benutzen. Im 2D-Bereich ist das automatische Erstellen einer depth map immer eine Näherung, es gibt ja keine originären 3D-Daten. es kann also je nach Bild gut sein oder auch mal Ausreißer geben.

Ich empfehle als effiziente Methode eine automatische depth map erst ausgeben zu lassen und dann mit ein paar Pinselstrichen eventuelle Fehler zu korrigieren, spart im Vergleich immer 90% der Handarbeit.

Es gibt keine (halb)automatisierten tauglichen Depthmaps aus Fotos heraus - auch nicht dieses "G´MIC"! Wenn es die gäbe, würden wir hier für manche Projekte viel Zeit in der Agentur sparen. Deswegen fragte ich ja auch nach einem Beispiel, was leider enttäuschend war. :( Wende diesen Filter doch mal auf das Bild des TO an und poste das Ergebnis. Das würde mich mal interessieren und wäre zudem auch Topicrelevant. Wenn dieser Filter halbwegs effizient und praxisrelevant eine gute Depthmap liefern würde, könnte man damit sogar gutes Geld verdienen. :)

4. Die von Dir genannten 3D-programme haben mit der Fragestellung eigentlich nichts zu tun
Oh doch. Ich habe eben extra nochmal den gesamten Thread gelesen. Darf man eben nicht aus dem Kontext reißen. Auch habe ich diese beispielhaft erwähnt, weil es eben Beispiele aus der Praxis sind. Angewendet werden die Depthmaps (egal ob händisch oder gerendert erstellt) immer auf 2d-Bilder. Denn letzten Endes gibt es nur 2D Bilder. Ob Film, Photo, 3d-Rendering - letzten Endes liegen die Bilder in 2d Einzelbildern (auch in der Filmproduktion) vor und lassen sich alle gleich handhaben.

--

Dann fasse ich auch nochmal meine Kernaussage zusammen ;)
Da es nunmal leider keine zufriedenstellende Lösung für das automatisieren einer Depthmap aus einem Photo heraus gibt (auch nicht mittels oA. GimpPlugin), muss man diese eben selbst erstellen (Beitrag #10 und Tutorial Links weiter oben als Ausgangspunkt).
(aus Beitrag #31)
 
Zuletzt bearbeitet:
Ich sitze grad´ an einem Rechner, an dem Lenscare (gibts für AfterEffects, aber auch für Photoshop) installiert ist und habe dort ein paar extreme Settings eingestellt, um die verschiedenen BildEbenen beispielhaft hervor zu heben. Für Realismus geht man bei solchen Dingen wie gesagt nat. wesentlich subtiler vor (!! :)) und gibt sich auch mehr Mühe bei der Depthmap (zb. Haare mit ausmaskieren, mehr Bildebenen, packt Verläufe auch noch in die Flächen der Personen - und Fehler wie das Pusteding auf falscher Ebene oder seltsame Verläufe sollte man auch vermeiden ;)). Je extremer der gewünschte Effekt, desto besser sollte auch die Map sein! (Die angehangene ist es nicht, hehe ;))

Deswegen hoffe ich, dass thomaskeil da wirklich eine Lösung im Ärmel hat mit seinem Plugin. Das wäre wunderbar! :top:

Das gute an Filtern wie DOF PRO oder Lenscare ist: man kann die Lamellen und resultierende Bokehballs usw. komfortabler einstellen, als zB. dem PS eigenen LensBlur. 3rd. Party Plugins haben imho auch das schönere, realistischere Bokeh, als der LensBlur-Filter (wenn man nicht übertreibt ;)). DOF PRO beherrscht sogar Spielereien, wie das Hinzufügen von CAs, Ausbrennen bei Gegenlicht usw.

@Feltos:
Also, falls wir dich nicht verschreckt haben, probiere einfach mal ein Tutorial zur Erstellung einer Depthmap aus und teste geeignete Filter einfach einmal durch. Die meisten haben auch eine Testversion. Oder eben den LensBlur in PS.
Mittels des "Fokus" Sliders in Lenscare oder dem "Blur Focal Distance" Slider (LensBlur in Photoshop) kann man dann die gewünschten Grauwerte der Map gezielt ansteuern und somit fokussieren. Im Prinzip ist es ein Offset-Slider der Depthmap-Grauwerte.
btw: Einfach nur den Filter auf einer Ebene Anwenden und dann ausmaskieren, funktioniert nicht bei dieser Art von Filtern! Es wird immer Fake aus sehen.

Schade, dass die 3 neuen BlurFilter in Photoshop nicht auch eine wählbare Alphamaske, bzw. Depthmap spendiert bekommen haben, wie der LensBlur. Sie haben zwar diese PinFunktion, die ist aber leider sehr fiddelich und ungenau, sobald man mehrere Objekte hat. So sind sie leider nur Spielerei und versorgen uns bald mit etlichen neuen Fake-TiltShiftBildern ;).

Im Anhang also mal noch die extremBeispiele und die verwendete (sehr einfach gehaltene!!) Depthmap.
 
Zuletzt bearbeitet:
nee, verschreckt habt ihr mich nicht ;)
ist allerdings etwas schwer für mich, da ich bisher fast ausschließlich mit lightroom gearbeitet und mit photoshop kaum erfahrung habe.

könntest du mir evtl die .psd datei schicken mit der du das bild gemacht hast?
 
WERBUNG
Zurück
Oben Unten