WERBUNG

Deconvolution sharpening - Lightroom3

Frank500

Themenersteller
Hallo,

ich bin gerade auf den Artikel DeconvolutionSharpening gestoßen.

Im Artikel wird erläutert wie man mit Hilfe dieser Methode die Wirkung der in den Kameras verbauten anti-aliasing Filter entgegenwirkt um mehr Details zu erhalten.

In Lightroom 3 soll man mit diesen Einstellungen ähnliche Ergebnisse erhalten:
Amount: 53, Radius: 0.7, Detail: 74, Masking: 0, with Luminance and Color Noise reduction set to 0
Das ist zwar dann nicht wirklich "Deconvolution sharpening", aber das Ergebnis bezüglich der Wirkung der anti-aliasing Filter soll ähnlich sein.
Was mir aus dem Artikel nicht ganz klar geworden ist, gilt diese Einstellung für alle Kameramodelle oder nur speziell für die Nikon D3x?
Was haltet Ihr davon?
 
habe gelesen dass der detail slider eine de-konvolution macht, aber an solche ergebnisse wie in dem beitrag bin ich noch nicht herangekommen, mit bisher keinem werkzeug. ich würds zugern ausprobieren aber leider läuft das ja nur auf dem mac. :( raw therapee soll einen ähnlichen algo unterstützen, aber probiert hab ichs auch noch nicht.
 
Zuletzt bearbeitet:
Vom Hocker haut mich das aber nicht. Zudem wurde da offensichtlich nicht das verkleinerte Bild (entspricht einer JPG-Qualität von etwa 88 %) nachgeschärft, sondern eine Version direkt aus dem Programm heraus (wo mehr Bildinformationen zur Verfügung standen). In der nachgeschärften Version sind da nämlich auf einmal Informationen, die vorher gar nicht da waren. So kann man natürlich auch einen Vorher-Nachher-Vergleich machen. :D

Die Frage ist halt, ob man hier überhaupt mit Dekonvolution arbeiten muss. Mit höherwertigen Schärfemethoden komme ich da oftmals besser zum Ziel. Dekonvolution würde ich nur benutzen, wenn eine extreme Unschärfe, wie z. B. bei einem Fehlfokus, vorliegt und man mit "herkömmlichen Mitteln" nicht weiter kommt. Und solche extremen Unschärfen produziert ein AA-Filter meines Wissens dann doch nicht. Um die Qualität des hier verwendeten Dekonvolutionsfilters zu beurteilen, benötigt man allerdings ein Originalbild (das aber hier nicht vorzuliegen scheint).

Inwieweit man einen AA-Filter softwaretechnisch simulieren kann, da bin ich überfragt. Trotzdem, hier mal ein Beispiel. Das 1. Bild wurde mit PointResize (vergleichbar mit dem einfachen "Resize" in IrfanView) von 3264x2448 auf 1024x768 skaliert. Wie unschwer zu erkennen, ist das Bild übersät mit Aliasing. Beim 2. Bild habe ich dann stärkeres Antialiasing angewandt (ob das mit einem physikalischen AA-Filter in irgendeiner Weise vergleichbar ist, sei jetzt mal dahingestellt). Die entstandene Unschärfe muss nun entsprechend stark behandelt werden. Hier reicht jedenfalls eine "etwas höherwertige Schärfemethode" voll aus (siehe 3. Bild).
 
archimedes, gibt es soetwas wie das point-resize auch in PS, weisst du das zufällig? nearest-neighbor womöglich? ich schärfe eh nur manuell und solche stechend scharfen konturen selektiv in das bild zu bringen, dort wo der aleasing effekt nicht zusehr auftritt zumindest, das wär schon was.

edit:
frage beantwortet, es ist NN. und die ergebnisse sind SUPER!! :D
 
Zuletzt bearbeitet:
Interessant ist, dass so manches Bild als überschärft kritisiert wird, obwohl man "nur" an den Details/Schärfereglern gedreht hat. Auf einmal könnte sich die kritische Überschärfung zur hochgelobten Deconvolution verdrehen. Ach, wie witzig die Welt machmal ist.

Nonetheless, ich find das Ergebnis ok und gehöre auch zu den Nachschärfern :D

mfg chmee
 
Ist zum Verkleinern eigentlich völlig ungeeignet. Es sei denn, der künstlerische Aspekt steht im Vordergrund. :D

der selektive aspekt steht im vordergrund. nimm dir zum beispiel dein erstes negativbeispiel heran - das bild ist völlig hinüber durch den aleasing-effekt - hin und wieder findest du aber stellen mit einer unglaublichen schärfe, ohne aleasing und halos und vorallem ohne matschigkeit. die ziegel zum beispiel. nimmst du die selektiv in dein resultat kommst du an die besten ergebnisse. :)

ob nearestneighbor deinem pixelresize entspricht weiss ich leider nicht. ich glaube die ergebnisse sind gröber als bei dir. vielleicht muss ich mir mal irfanview besorgen um das weiter zu erforschen. ::]
 
der selektive aspekt steht im vordergrund. nimm dir zum beispiel dein erstes negativbeispiel heran - das bild ist völlig hinüber durch den aleasing-effekt – hin und wieder findest du aber stellen mit einer unglaublichen schärfe, ohne aleasing und halos und vorallem ohne matschigkeit. die ziegel zum beispiel. nimmst du die selektiv in dein resultat kommst du an die besten ergebnisse. :)
Von den Pixeln, die erhalten bleiben. Viele Pixel werden aber einfach verschluckt. Durch PointResize entsteht zwar keine Unschärfe, dafür aber heftigste Aliasing-Effekte kombiniert mit vielen verschluckten Details. Vergleiche das Bild mit PointResize mal mit einem "normal" verkleinerten Bild (siehe Anhang).

So ein mit PointResize skaliertes Bild hat aber auch was Gutes. Wenn ich solch ein Bild mit einem normal skalierten Bild vergleiche, sehe ich, wie viel Unschärfe durch eine Interpolation hinzugekommen ist. Dieses Delta könnte man nun als Maßstab für eine Nachschärfung hernehmen (um den Verlust durch die Skalierung auszugleichen).

Sorry, wir trifften vom Thema ab. Wir sollten das ggf. in einem extra Thread besprechen. Eventuell trennt ein Moderator das hier auch entsprechend ab.
 
genau deshalb ja die selektive arbeitsweise. etwas anderes macht ein filter auch nicht: einige pixel verbessern, andere pixel verschlechtern. kenne bis zum heutigen tag keinen effekt, filter, raw-konverter, etc. der ein bild in einem durchlauf perfekt hinbekommt. das bild im anhang besteht aus deinem pointresize und deinem ursprungsbild. überall dort wo der aleasing effekt nicht auftaucht habe ich die pixel aus dem pointresize genommen. ist jetzt etwas schlampig geworden - sicher gibt es jetzt hier und da noch ein paar schnitzer aber du sieht was ich meine. :)
 
Zuletzt bearbeitet:
Dekonvolution ist eigentlich etwas prinzipiell anderes als die klassischen Schärfungsfilter, die über Erhöhung des Kantenkontrastes arbeiten.

Dekonvolution versucht, eine UNSCHÄRFE mathematisch zu erfassen und diese zu beseitigen (http://de.wikipedia.org/wiki/Dekonvolution), grob gesprochen, aus einer kreisförmigen Abbildung eines Lichtpunktes wie er sich etwa bei Defokussierung ergibt, wieder einen Punkt zu errechnen.

Die Methode hat natürlich Grenzen, aber insbesondere bei leichten Fehlfokussierungen lassen sich Bilder oft ziemlich gut retten (eine gute Mehtode für eine blind deconvolution ist z.B. der Richardson-Lucy Algorhytmus).

Einen anti aliasing Filter softwaretechnisch zu simulieren geht auch (Problem, man bräuchte erstmal ein Bild von einem Sensor ohne AA-Filter, da gibt es nicht viele.
Das geht mit einer Fourier-Transformation, dann auf dem Ergebnis die Störungen außerhalb des Zentrums beseitigen (die korrelieren mit den Moire-Störungen des Bildes) und dann mit einer inversen Fourier-Transformation zurück wandeln.
 
WERBUNG
Zurück
Oben Unten