• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Weichzeichnen des Bokehs – akzeptable Art der Gestaltung oder „taugt nichts“?

Ich benutze inzwischen die Objektivunschärfe in LR. Wenn man es nicht übertreibt, sieht es gut aus.
 
auf die Ansicht gestoßen, dass selektive Unschärfefilter für Bokehs nichts taugen, „Dreck“ seien,
Dreck sind alleine alle Meinungsäußerungen Einzelner zu Geschmacksfragen, die behaupten, dass A "grundsätzlich/"wirklich"/immer/für alle/objektiv" "besser" als B sei.
Ignoriere einfach die Dreckerzeuger. :)

Welches Bildergebnis das beste ist, entscheiden 8 Mrd. Menschen jeder für sich und jeder hat recht.

Wenn es Dir gefällt, ist es gut.
 
Interessante Frage, die ich mir vor kurzem auch so oder so ähnlich gestellt hatte.

Die Funktion in LR ist natürlich auch eine gute Sache um aus einem 4/70-200 mal so nebenbei ein 2.8/70-200 zu machen. Insofern schon praktisch. Da ich die meisten Bilder aber eher schneller als langsamer entwickelt haben will, bin ich zu dem Schluss gekommen, dass ich das Bokeh dem Objektiv überlasse, wenn ich nicht gezielt retuschiere. Im Beauty/Kunst-Bereich z.B.. Da würde ich mir den Aufwand geben, aber da bastelt man sich ja eh alles mögliche hin, daher sehe ich die Nachbearbeitung dort nicht als Problem an.
Generell sehe ich die Weichzeichnung des Hintergrundes nicht als Problem an, aber es ist halt ein extra Aufwand den man treiben. Insofern: Das Objektiv muss es notgedrungen selbst hin kriegen. ;)
 
Für den 0815 "jedes Photo sieht gleich aus" Look für Instagram, super Lösung. Die Kamera Apps sind schon schlimm genug weil das ganze Objekt freigestellt wird. Sieht absolut unnatürlich aus.

Edit: Was mir noch eingefallen ist, ich merke da einen leichten Gegentrend zu den oben angesprochenen "alles sieht gleich aus Filter-Photos". Beim einem privaten Shooting hatte ich aus Spaß das uralte Minolta Rokkor 55mm 1.7 dabei. Aus heutiger Sicht übelste Lens Flares, wenig Kontrast, usw. Für's nächste Shooting wurde ich dann explizit wieder nach diesem Objektiv gefragt :) Die Clientin wollte genau diesen Look haben.
 
Zuletzt bearbeitet:
Du meinst also ein Objektiv mit Bokeh macht aus "den 0815 "jedes Photo sieht gleich aus" Look für Instagram"-Fotos dann tolle Bilder? Und nein, die Smartphones mit Tiefensensor machen genau das eben nicht, da sie die Tiefenstaffelung im Bild kennen... außerdem geht es ja um die Weichzeichnung des vorhandenen Bokehs, völlig anderes Thema
 
Du meinst also ein Objektiv mit Bokeh macht aus "den 0815 "jedes Photo sieht gleich aus" Look für Instagram"-Fotos dann tolle Bilder? Und nein, die Smartphones mit Tiefensensor machen genau das eben nicht, da sie die Tiefenstaffelung im Bild kennen... außerdem geht es ja um die Weichzeichnung des vorhandenen Bokehs, völlig anderes Thema

Es wird selektiv entrauscht, selektiv geschärft, selektiv bearbeitet und retouchiert, selektiv die Farbe angepasst, selektiv aufgehellt oder abgedunkelt und all das wird gefeiert... aber wenn das heilige Bokeh selektiv verändert wird, springen die Pursiten im Dreieck :D
Was willst Du mit diesen Beiträgen bezwecken? Offenbar machst Du Dich über "Puristen" lustig, die dem Bokeh einen hohen Wert beimessen, dass bestimmte Objektive physikalisch erzeugen. Nur habe ich die entsprechenden dreieckspringenden Beiträge hier noch gar nicht gelesen, oder habe ich etwas übersehen? Schrieb hier jemand, dass KI-erzeugtes Bokeh Dreck sei? (Außer im Startposting)

Kann es sein, dass die kritischen Beiträge hier einfach gewisse Grenzen betonen, welche die Bearbeitung der Unschärfebereiche per KI (noch) aufweist?

Und der letzte Beitrag, dem Du Themenverfehlung unterstellst, sagt doch nur genau dieses: Es gibt bei bestimmten Objektiven ganz reizvolle Bildeigenschaften, die ohne weitere Nachbearbeitung begeistern. Einen solchen "Look" digital "nachzubauen" kann man machen, soweit die KI das schon hinbekommt. Das konnte man früher auch per Eigenintelligenz mit etwas Zeit und Geschick schon ganz gut hinbekommen.

Und ansonsten wurde auch schon genug darüber geschrieben, dass KI zu diesen Zwecken durchaus sinnvoll eingesetzt werden kann, ohne dass deswegen böse Kommentare von "Puristen" verfasst wurden.

Willkommen in der Zukunft! ;-)
Kann bei Bedarf gern mal ein paar Beispiele zeigen. Dank Tiefenkarte kann man in der genannten App genau festlegen, wo etwas weichgezeichnet werden soll, wie stark die Lichteraufspreizung und die "Bokeh-Effekte" im jeweiligen Objektivstil ausfallen sollen, man kann neue Lichtquellen rund um die vorhandenen Objekte, Kontraste tiefenabhängig optimieren und vieles mehr. Bokeh als Qualität hat jedenfalls NICHTS, was sich nicht digital auf KI-Basis nachstellen ließe. Das einzige derzeit noch bestehende Problem dabei, wegen dem ich auch selbst nur selten zu diesem Mittel greife, habe ich ja oben schon erwähnt (die Ungenauigkeiten der Tiefenkarte).
Das klingt nach interessanter Retusche, bei der man die "Drecksarbeit" der KI überlässt. Die Fortschritte bei KI-basierten Bildveränderungen sind unbestreitbar rasant. Wenn erst einmal die pixelgenaue Tiefenkarte erstellt werden kann, sind die o.g. Effekte wohl perfekt umsetzbar. Die Ungenauigkeiten der Tiefenkarte werden in dem Maße reduziert, wie die KI "lernt" Bildinhalte zu "verstehen" und ihre räumliche Anordnung zu berechnen.
 
Geht es jetzt eigentlich nur um eine KI Basierte Bokeh veränderung ?
Schon vor 15 Jahren hat man das Bokeh verändert. Und was versteht ihr unter Bokeh veränderng, spezielle Dinge oder Allgemein das verändern des Hintergrundes ?
Es gibt ja mittlerweile viele verschiedene Funktionen die man nutzen kann, ganz ohne KI
 
Bokeh wurde doch schon immer verändert.

Software:
Die Meisten machen es nur falsch: Sie schärfen den Hintergrund und vergessen die Maskierung. Zudem wird ordentlich Klarheit (Clarity) in den Hintergrund rein gemischt. Dann noch paar schöne Kontraste und das Bokeh sieht schön gruselig aus.
Man kann es aber auch mit etwas Geschick anders herum machen. Man kann maskieren und selektiver arbeiten. Dann fällt das Bokeh auch schön soft aus. Gerne nehme ich auch aus dem HG ganz die Schärfung raus. Dann wird es schön soft.
Und dass ging schon vor 10 Jahren mit der EBV mit 2...3 Mausklicks.

Hardware:
Nimm ein anderes Objektiv

Gestaltung:
Wähle einen ruhigeren Hintergrund. Keine Gebüsche mit feinen Zweigen in nur 2 Meter Abstand hinterm Modell. Auch ein Kit-Teleobjektiv mit f5.6 an MicroFourThirds erzeugt einen butter-weichen Hintergrund, wenn dieser nur weit genug entfernt ist
 
Du meinst also ein Objektiv mit Bokeh macht aus "den 0815 "jedes Photo sieht gleich aus" Look für Instagram"-Fotos dann tolle Bilder? Und nein, die Smartphones mit Tiefensensor machen genau das eben nicht, da sie die Tiefenstaffelung im Bild kennen... außerdem geht es ja um die Weichzeichnung des vorhandenen Bokehs, völlig anderes Thema
?? Ich meine das ein digitales Bokeh, insb. wie im Ausgangspost beschriebene Gaußscher Weichzeichner halt immer gleich aussieht. Es wird natürlich mehr Tiefenunschärfe simuliert, aber die Charakteristika des jeweiligen Objektivs gehen verloren => Langweilig.
 
Zuletzt bearbeitet:
Leicht abblenden kann auch schon drastische Konsequenzen haben, je nach Objektiv. Das ist es eben. Will man das Bokeh bestimmter Objektive nachbilden, braucht man größere Datensätze und möglichst genaue Messungen zum Bild (und damit meine ich nicht nur Tiefenkarte). Oder eben das betreffende Objektiv.
Für eine exakte Nachbildung bräuchte es deshalb aufwendiges Machine Learning. Außer ein paar Nerds will oder gar braucht aber wahrscheinlich niemand eine solche Exaktheit. Da reicht eine parametrische Annäherung mit eine paar Stellschrauben für Form, Helligkeit, Schwellenwert, X/Y/Z-positionsabhängige Transformationen usw. der Lichteraufspreizung sowie Art und Grad der Weichzeichnung. Damit kann man zusammen mit der Tiefenkarte schon viel anstellen. Paar Beispiele mit jeweils übertriebenem Effekt, ohne Map-Optimierung.
 

Anhänge

Für eine exakte Nachbildung bräuchte es deshalb aufwendiges Machine Learning. Außer ein paar Nerds will oder gar braucht aber wahrscheinlich niemand eine solche Exaktheit. Da reicht eine parametrische Annäherung mit eine paar Stellschrauben für Form, Helligkeit, Schwellenwert, X/Y/Z-positionsabhängige Transformationen usw. der Lichteraufspreizung sowie Art und Grad der Weichzeichnung. Damit kann man zusammen mit der Tiefenkarte schon viel anstellen. Paar Beispiele mit jeweils übertriebenem Effekt, ohne Map-Optimierung.
Danke für die Demonstration. Das deutet zumindest an, wie weit eine nachträgliche Veränderung des Bokehs gediehen ist. Für eine kritische Bewertung müsste man einmal größere Bilddateien mit feinerer Steuerung der Effekte sehen. Aber diese kritische Bewertung wäre morgen schon wieder von gestern...

In ein paar Jahren werden Menschen mit Kameras, in denen KB-Sensoren verbaut sind (von größeren ganz zu schweigen), und die verschiedene Objektive daran benutzen, vielleicht schon so "exotisch" sein wie heutzutage die Photographen, die sich mit der Plattenkamera aufbauen und für die Aufnahmekontrolle unter einem Tuch verschwinden. Die überwiegende Mehrheit wird wohl der Meinung sein, dass man das genausogut oder besser mit einem Smartphone hinbekommt.
 
Wie so oft im Leben, macht die Dosis das Gift. Ich habe tatsächlich schon mehrmals Hintergründe leicht mit der LR-Unschärfe-Option weicher gezeichnet. Und ganz ehrlich: Wenn man es nicht weiß, würde es niemandem auffallen. Man kann halt nicht immer seine eigene und/oder die Position des Motivs verändern, und ein anderes Objektiv ist auch nicht immer zur Hand. Ist für mich daher aktuell eher eine Notlösung.

Die überwiegende Mehrheit wird wohl der Meinung sein, dass man das genausogut oder besser mit einem Smartphone hinbekommt.
Die Qualität der künstlichen Freistellung ist zumindest jetzt schon so hoch, dass nicht wenige Fotografen, die eigentlich gerne natürlich freistellen, im Familienalltag schon jetzt auf das zusätzliche Kamera-Gerödel verzichten und stattdessen lieber zum Smartphone greifen. Da driften wir jetzt allerdings auch wieder in so eine Smartphone vs Kamera Debatte ab.
 
Danke für die Demonstration. Das deutet zumindest an, wie weit eine nachträgliche Veränderung des Bokehs gediehen ist. Für eine kritische Bewertung müsste man einmal größere Bilddateien mit feinerer Steuerung der Effekte sehen. Aber diese kritische Bewertung wäre morgen schon wieder von gestern...
Genau! Und es deutet in der Tat nur einen Bruchteil der aktuell schon verfügbaren Möglichkeiten an.

In ein paar Jahren werden Menschen mit Kameras, in denen KB-Sensoren verbaut sind (von größeren ganz zu schweigen), und die verschiedene Objektive daran benutzen, vielleicht schon so "exotisch" sein wie heutzutage die Photographen, die sich mit der Plattenkamera aufbauen und für die Aufnahmekontrolle unter einem Tuch verschwinden. Die überwiegende Mehrheit wird wohl der Meinung sein, dass man das genausogut oder besser mit einem Smartphone hinbekommt.
Rein zahlenmäßig sind wir "Fotografie-/Wechselobjektiv-/vollwertige Kamera"-Enthusiasten gegenüber Smartphone-Knipsern schon jetzt nur eine Randgruppe. Nicht umsonst wird das ganze Kamera-Geraffel immer teurer (und hochwertiger) – die Masse hat und sieht (!) schlicht keine Notwendigkeit mehr für riesige Objektive, wenn man doch mit einem Smartphone schon einzelne Fußballspieler von den obersten Rängen eines großen Stadions heranzommen kann. Die Bild-Qualität an sich interessiert dabei eher weniger.

Für anspruchsvolle Fotografen und Produktionen jenseits von rein künsterlischem Proof-of-Concept ist das auf absehbare Zeit aber alles noch nichts. Was Smartphones produzieren bleibt schon aufgrund der Produktionskosten und der winzigen Chips, die jetzt schon am Rande des physikalischen Optimums arbeiten, auf absehbare Zeit nur Pixelmatsch. KI kann das alles deutlich verbessern. Aber dabei ist zwar die letzte Entwicklung extrem beeindruckend schnell und auch im Ergebnis beeindruckend, aber das letzte Quäntchen Qualität und Realismus ist das schwierigste. Sind wir jetzt bei 80 Prozent, die 20 Prozent der Zeit benötigt haben, brauchen die letzten 20 Prozent 80 Prozent der Zeit. Das sieht man auch bei den selbstfahrenden Autos. Wir dachten, das wäre schon fast perfekt, isses aber nicht.

Ich hänge mal ein paar triviale Fotobeispiele von mir mit Blende f/1.2 bis f/1.8 an, von denen ich denke, dass kein Machine-Learning-basiertes Berechnungsmodell aus einem von vorn bis hinten scharfem Foto schon in den nächsten Jahren ein physikalisch-korrektes gleichwertiges Ergebnis erzeugen kann. Ein geübter Illustrator kann das mit immensem Aufwand ( = quasi alles neu malen). Die verdohrte Mais-Spitze dürfte noch für jeden zu schaffen sein, der Masken und Pinsel kennt. Aktuelle KIs verkacken das schon. Auch bei der Katze ist der Schärfeverlauf noch mit Pinsel und Masken relativ einfach nachzustellen, da die Barthaare und die Fellrichtung klar sind. Mit zunehmendem Chaos-Grad der Details wird das immer schwieriger. Der Endgegner für jeden Illustrator und KI dürfte so etwas wie die Beeren, das Maisrandfeld und der Bach im Wald sein. Das kann man Quick-and-Dirty zwar faken, aber realistisch wäre das ein Heidenaufwand.
 

Anhänge

  • 210728_NZ6_4927_SmartPrev_JPEGmini.jpg
    Exif-Daten
    210728_NZ6_4927_SmartPrev_JPEGmini.jpg
    193,4 KB · Aufrufe: 44
  • 210831_NZ6_6121_SmartPrev_JPEGmini.jpg
    Exif-Daten
    210831_NZ6_6121_SmartPrev_JPEGmini.jpg
    203 KB · Aufrufe: 37
  • 210908_NZ6_6673_SmartPrev_JPEGmini.jpg
    Exif-Daten
    210908_NZ6_6673_SmartPrev_JPEGmini.jpg
    219,1 KB · Aufrufe: 35
  • 210930_NZ6_7304_SmartPrev_JPEGmini.jpg
    Exif-Daten
    210930_NZ6_7304_SmartPrev_JPEGmini.jpg
    423,5 KB · Aufrufe: 39
  • 210930_NZ6_7309_SmartPrev_JPEGmini.jpg
    Exif-Daten
    210930_NZ6_7309_SmartPrev_JPEGmini.jpg
    180,3 KB · Aufrufe: 36
  • 210930_NZ6_7322_SmartPrev_JPEGmini.jpg
    Exif-Daten
    210930_NZ6_7322_SmartPrev_JPEGmini.jpg
    537,7 KB · Aufrufe: 37
  • 211001_NZ6_7496_SmartPrev_JPEGmini.jpg
    Exif-Daten
    211001_NZ6_7496_SmartPrev_JPEGmini.jpg
    470,9 KB · Aufrufe: 44
Machen wir uns nichts vor, auch das Bokeh der heutigen Objektive wurde uns "anerzogen", es ist unnatürlich und die Tatsache, das oft die Schärfeausdehung für Hintergrundunschärfe zwingend zu klein gehalten werden muss, ist ein massives Manko... In ein paar Jahren ist das, was wir heute kennen "unnatürlich und komisch". Mit den LiDAR Sensoren ist es nur eine Frage der Rechenleistung um Bokeheffekte nachzubilden, die Technik steht ja noch ganz am Anfang
 
Machen wir uns nichts vor, auch das Bokeh der heutigen Objektive wurde uns "anerzogen", es ist unnatürlich und die Tatsache, das oft die Schärfeausdehung für Hintergrundunschärfe zwingend zu klein gehalten werden muss, ist ein massives Manko... In ein paar Jahren ist das, was wir heute kennen "unnatürlich und komisch". Mit den LiDAR Sensoren ist es nur eine Frage der Rechenleistung um Bokeheffekte nachzubilden, die Technik steht ja noch ganz am Anfang
Das kommt halt davon, wenn man Technik zu weit optimiert und den Verbraucher mit ins Boot nimmt. Damals, als die Zeiten noch unbeschwert und gut waren, war man froh dass man einen ISO 400 Film und ein Objektiv mit F2 hatte, um halbwegs verwacklungsfreie Bilder bei ansatzweisen suboptimalen Lichtverhältnissen zu bekommen.
 
Machen wir uns nichts vor, auch das Bokeh der heutigen Objektive wurde uns "anerzogen"

Relativ. Das menschliche Auge produziert auch kein bis in die Ecken und die gesamte Distanz scharfes Bild, auch da sieht man, abhängig vom Fokus, einen Schärfeverlauf. Meckert allerdings da kaum einer über Zwiebelringe oder Katzenaugen.
 
Relativ. Das menschliche Auge produziert auch kein bis in die Ecken und die gesamte Distanz scharfes Bild, auch da sieht man, abhängig vom Fokus, einen Schärfeverlauf. Meckert allerdings da kaum einer über Zwiebelringe oder Katzenaugen.
Nein, es ist ja auch ein optisches System, aber das Gehirn baut daraus halt ein seiner Gesamtheit scharfes Bild - beim Fotografieren versuchen wir jetzt künstliche unscharfe Hintergründe zu erzeugen, das Gehirn versucht genau das Gegenteil.
 
WERBUNG
Zurück
Oben Unten