• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Unschärfe durch Software statt offener Blende ??

zool-78

Themenersteller
Hallo,


mal eine Frage, wäre es nicht möglich das eine moderne DSLR die Unschärfe welche durch offenen Blenden entsteht, einfach per Software berechnet ?

Ich hätte gerne eben manchmal mehr unschärfe als mein 50mm 1,8 oder 35mm 1,8 kann. Klar kann man das am PC machen, aber schöne wäres doch wenn man mit dem Einstellrad die Blende weiter als 1,8 runter drehen könnte , so auf eine Art virtuelle 1,0 oder so

mfg
 
Diese DSLR wird es so bald nicht geben, denn das Problem ist, dass diese Berechnung in einem zweidimensionalen Bild erfolgen müsste.

Um die Tiefen(un)schärfe korrekt berechnen zu können, müsste die Kamera aber die 3. Dimension mit einfließen lassen.

Wie soll das gehen?


Es geht momentan also nur über ein aufwendiges Nachbearbeiten mit EBV oder man fotografiert mit FX, um noch mal einen Gewinn an Unschärfe herauszubekommen.
 
Dieses Spielzeug gibt es bereits bei Fuji und Sony. Bei Fuji schimpft es sich PRO FOCUS Modus, bei Sony "Background Defocus"
Wem es gefällt bzw genügt. http://www.fujifilmusa.com/products/digital_cameras/exr/topics/topics01/index.html
http://www.sony-asia.com/productcontent/413026/productcategory/di-digital-still-camera

Der Effekt kann - so wie die Kamera das macht - auch einfach mit einer EBV simuliert werden. Resultat, siehe oben
 
,,, Um die Tiefen(un)schärfe korrekt berechnen zu können, müsste die Kamera aber die 3. Dimension mit einfließen lassen.

Wie soll das gehen?....

Das wäre relativ einfach, wenn man die Entfernung speichern würde, schließlich werden die Daten hierüber vom Objektiv ermittelt und an die Kamera übertragen.
 
Das habe ich auch nicht behauptet, es sollte nur aufzeigen, daß man die 3.Dimension sehr wohl berücksichtigen kann, was ja heute bei der Belichtungs- und Blitzbelichtungmessung bereits getan wird.
 
Ja, aber was der TO möchte, ist ein offenblendigER aufgenommenes Bild simulieren. Dazu reicht die Angabe über die Fokusentfernung bei weitem nicht aus.

Die Softwarelösung funktioniert so, dass ein irgendwie gearteter Algorithmus zu erkennen versucht, welcher Teil des Bildes wohl unscharf sein soll (nicht in der Fokusebene lag), und diesen unscharf rechnet. Die Entfernungsangabe ist dazu nicht notwendig - es wird das "fertige" Bild analysiert.

Die Entfernungsangabe (Fokuseinstellung) sagt ja allein noch nicht aus, Annahmen zu begründen, wie unscharf der Bildausschnitt oben links werden soll, weil er ausserhalb der Schärfeebene lag. Der Algorithmus "sieht doch dem einzelnen Pixel nicht an", ob er etwas zeigt, das in der Fokusentfernung liegt, oder davor, oder dahinter.
 
Diese DSLR wird es so bald nicht geben, denn das Problem ist, dass diese Berechnung in einem zweidimensionalen Bild erfolgen müsste.

Da bin ich mir gar nicht so sicher. Photoshop bekommt in der neuen Version CS6 einen diesbezüglich wohl erheblich verbesserten Weichzeichnungsfilter, der genau diesen Offenblendeeffekt wohl sehr ordentlich erzeugt. Eine erste Einschätzung, die ich dazu irgendwo gelesen habe, las sich ganz zuversichtlich. Und wenn das heute in Photoshop funktioniert, kann es in fünf Jahren wahrscheinlich jede billige Kompaktknipse.
 
Hallo,


mal eine Frage, wäre es nicht möglich das eine moderne DSLR die Unschärfe welche durch offenen Blenden entsteht, einfach per Software berechnet ?

Ich hätte gerne eben manchmal mehr unschärfe als mein 50mm 1,8 oder 35mm 1,8 kann. Klar kann man das am PC machen, aber schöne wäres doch wenn man mit dem Einstellrad die Blende weiter als 1,8 runter drehen könnte , so auf eine Art virtuelle 1,0 oder so

mfg

Ganz einfach: Nimm einen Mittelformat-Digitalkamera mit einer lichtstärksten Objektiv, dann ist dein Problem gelöst!
 
Ganz einfach: Nimm einen Mittelformat-Digitalkamera mit einer lichtstärksten Objektiv, dann ist dein Problem gelöst!
Nein. Themenverfehlung, setzten.

Nein, denn:
...
mal eine Frage, wäre es nicht möglich das eine moderne DSLR die Unschärfe welche durch offenen Blenden entsteht, einfach per Software berechnet ?
...
Wäre ja im Grunde eine simple Ja/Nein-Frage.
Die Antwort MUSS demnach lauten: "Im Prinzip ja..." ;) :D

Berechnen kann man, indem man einen Rechner einbaut. Über die Qualität des Resultats sagt dies natürlich noch nichts.
 
Hallo,


mal eine Frage, wäre es nicht möglich das eine moderne DSLR die Unschärfe welche durch offenen Blenden entsteht, einfach per Software berechnet ? ...

Das wird kommen, ist aber sehr rechenintensiv, schließlich soll es ja auch gut aussehen. Es gibt inzwischen wohl auch schon ein Programm (oder es noch in der Entwicklung), mit dem man die Schärfenebene nachträglich verändern kann.
 
Das habe ich auch nicht behauptet, es sollte nur aufzeigen, daß man die 3.Dimension sehr wohl berücksichtigen kann, was ja heute bei der Belichtungs- und Blitzbelichtungmessung bereits getan wird.
Du kannst berücksichtigen, wie weit die Schärfeebene weg ist. In 2D kannst Du aber dann nicht herausfinden, ob ein Bildpunkt jetzt von einem Objekt erzeugt wurde, das in dieser Schärfeebene liegt. Man kann mehr oder weniger geschickt bestimmte Bildbereiche weichzeichnen, das hat mit Schärfentiefe aber nichts zu tun. Mit viel Glück sieht's vielleicht so ähnlich aus.
 
Es gibt ja mit PS die Möglichkeit, nachträglich die Tiefenschärfe eines Bildes zu mindern.

Dazu muss man dem Programm aber erstmal mithilfe eines Striches sagen, wie und wo genau die Tiefenschärfe verläuft.

Das kann eine Software anhand eines 2D Bildes nicht so einfach von selbst herausfinden.

Höchstens näherungsweise, wenn man hunderte von Beispielfotos in die Software integriert.
 
Zuletzt bearbeitet:
Doch kann man, man versucht es zumindest schon, ist halt extrem aufwendig und sehr komplex.
 
Man(n) muss wissen, wenn es genug ist und ich klinke mich an dieser Stelle aus dieser Diskussion aus. :D

Viel Spaß noch beim Diskutieren über Formeln, Gesetze und Strahlensätze wie bei der D800 (klick). :)
 
Zuletzt bearbeitet:
... In 2D kannst Du aber dann nicht herausfinden, ob ein Bildpunkt jetzt von einem Objekt erzeugt wurde, das in dieser Schärfeebene liegt. Man kann mehr oder weniger geschickt bestimmte Bildbereiche weichzeichnen, das hat mit Schärfentiefe aber nichts zu tun. Mit viel Glück sieht's vielleicht so ähnlich aus.
:top: +1
Genau das. Die Software sieht dem einzelnen Bildelement die Fokusentfernung nicht an.
Über den letzten Satz (wie es tatsächlich aussieht) mag man streiten, wer Lust hat.

Es gibt ja mit PS die Möglichkeit, nachträglich die Tiefenschärfe eines Bildes zu mindern.

Dazu muss man dem Programm aber erstmal mithilfe eines Striches sagen, wie und wo genau die Schärfentiefe verläuft.

Das kann eine Software anhand eines 2D Bildes nicht so einfach von selbst herausfinden.

Höchstens näherungsweise, wenn man hunderte von Beispielfotos in die Software integriert.
:top: +1 Dasselbe in anders, womit es (zusammen mit meinen Beiträgen oben) mindestens dreimal erklärt worden ist. Das Bild ist fertig, ein Programm interpretiert - allenfalls unterstützt vom Bedienenden, der mit Maske sagt: "hier unbedingt scharf lassen, da bitte künstlich bokeh-i-sieren."

Doch kann man, man versucht es zumindest schon, ist halt extrem aufwendig und sehr komplex.
bezieht sich das "doch" darauf?
...

Das kann eine Software anhand eines 2D Bildes nicht so einfach von selbst herausfinden...

Dann ist der Einwand einfach falsch.
 
Es gibt Software, bei der man eben doch nachträglich bestimmen kann, wo die Schärfe liegen soll, allerdings ist die glaube ich noch in der Entwicklungsphase, in Zukunft, wann auch immer, wird es soetwas geben. Wie gut oder schlecht das funktionieren wird, werden wir sehen, ich bin aber schon sehr gespannt darauf.
 
WERBUNG
Zurück
Oben Unten