• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Topaz DeNoise AI

ist eigentlich ziemlich einfach. Erst einmal mach die Einstellungen die Du magst, was die Schärfe betrifft, dann klicke auf die Maske. Dort wird unter anderem ein Pinsel angeboten, dann maskiere den Bereich den Du scharf haben willst mit dem Pinsel. Mit Apply Mask wird dann bei dem Prozess der Fertig Stellung nur dieser Bereich geschärft der mit dem Pinsel maskiert wurde.

Hoffe das hilft Gruss

Die Maske bezieht sich aber doch nicht in erster Linie auf's Schärfen, sondern auf's denoisen, oder?
 
Ich habe gestern erstmals ein Bild mit Maskierung probiert und es dabei auch so herum gemacht: Maske gemalt - apply - Regler eingestellt

Hat funktioniert. Glaube ich zumindest. Was mir nicht gefällt ist, dass es wieder komische Ränder gibt und die Farben verändert! Was soll das denn? Gerade mit den Farben.
Wer es nicht direkt sieht: Ich finde das orange der Iris sieht irgendwie "schwächer" aus nach Topaz obwohl da ja gar keine Maske war und das blau des Himmels im HG wirkt für mich minimal anders. Ränder: Siehe um den kleinen überstehenden Knubbel der rechts über den Stamm hervorsteht. Da ist ein heller Rand drum in der Topaz-Version. Zur Info: Schärferegler in Topaz wurde nicht mal angefasst sondern auf 0 gelassen! Woher kommt dann dieser komische helle Rand?

Deswegen würde mich jetzt auch mal eine offizielle Info interessieren wie das mit dem Maskieren genau abzulaufen hat von der Reihenfolge. Leider ist Topaz bei der Kommunikation solcher Dinge ziemlich schwach bzw. unvollständig. Eine Mail mit der großen freudigen Ankündigung, dass es jetzt auch Masken gibt kam zwar. Freunde die auch schon länger Kunden sind bekamen diese Mail aber nicht. Und eine richtige Funktionsbeschreibung bzw. eine Art Anleitung zum Einsetzen dieser neuen Möglichkeiten finde ich nirgendwo auf der Seite.

Hier nur aus Capture One 20:

_DSC8487-1.jpg


Und hier zum Vergleich danach durch Topaz Denoise AI wobei ich nur den Hintergrund sowie mit viel schwächerer Deckkraft die unscharfen Bereiche des Stamms maskiert habe:

_DSC8487-1200px-denoise-denoise.jpg
 
Zuletzt bearbeitet:
Bei Topaz Labs kann es durchaus helfen, dort im Forum seine Meinung zu schreiben. Offenbar ist Topaz nicht sooo groß, als dass man diese Dinge nicht durchliest.
 
Wer es nicht direkt sieht: Ich finde das orange der Iris sieht irgendwie "schwächer" aus nach Topaz obwohl da ja gar keine Maske war und das blau des Himmels im HG wirkt für mich minimal anders. Ränder: Siehe um den kleinen überstehenden Knubbel der rechts über den Stamm hervorsteht. Da ist ein heller Rand drum in der Topaz-Version. Zur Info: Schärferegler in Topaz wurde nicht mal angefasst sondern auf 0 gelassen! Woher kommt dann dieser komische helle Rand?
Hab das mal an einem eigenen Bild ausprobiert und in PS drei Meßpunkte außerhalb der Maske gesetzt. An zwei von drei Stellen verändern sich die RGB-Werte leicht. Visuell konnte ich keinen Unterschied feststellen. Ich kann mir aber vorstellen, dass intern eine Farbraumkonvertierung vorgenommen wird. Die Rauschreduziereung geschieht evtl. nicht in RGB, da kann es dann zu Abweichungen kommen wenn zurück gerechnet wird. Das ist natürlich nur eine Vermutung.:)

LG Martin
 
Okay Martin, interessant, dass deine Messpunkte meine Beobachtung stützen. Was deine Vermutung angeht mit der Farbmodellkonvertierung - keine Ahnung was du damit meinst, auf dem Gebiet bin ich zu wenig bewandert.

Ich weiß nur ich habe aus Capture One in sRGB exportiert (16bit TIFF) und ich habe beim Export aus Topaz dann auch wieder gesagt der Farbraum soll beibehalten werden.


Zu dem Beispiel muss ich aber auch sagen es wurde halt eigentlich schon komplett fertig bearbeitet in Capture One.
Topaz selbst empfiehlt ja, zuerst zu entrauschen und dann die restliche Bearbeitung zu machen.
Das ist halt nur so für mich leider nicht praktikabel, denn ich will schon bei der Bearbeitung aus den vollen Informationen meines NEF Files zehren und nicht von einem zwischengespeicherten Schritt als Ausgangspunkt ausgehen. Gerade bei so einem Bild gegen 22 Uhr mit ISO 5600.

Und Jens, danke auch für deinen Hinweis. Ist ne gute Idee! Das Topaz-Forum werde ich mir mal ansehen.
 
Zuletzt bearbeitet:
keine Ahnung was du damit meinst, auf dem Gebiet bin ich zu wenig bewandert.
RGB ist ein Farbmodell, die Farben werden mit den Grundfarben rot, grün und blau beschrieben. sRGB und Adobe RGB hingegen beschreiben einen Farbraum innerhalb des Farbmodells RGB. Es gibt neben RGB noch viele andere Farbmodelle, also Beschreibungen von Farbe, z.B. CMYK oder Lab.
RGB ist ein additives Farbmodell je höher der RGB-Wert desto heller der Pixel.
CMYK ist ein subtraktives Farbmodell je höher der CMY(K)-Wert desto dunkler der Pixel. Lab trennt die Farbe von der Helligkeitsdarstellung. Im L-Kanal wird ausschließlich die Helligkeit eins Pixels beschrieben in den Kanälen a und b ausschließlich die Farben. Bevor es spezielle Software zum entrauschen gab war es gängige Praxis das Farbrauschen im Lab-Farbmodell zu verringern. Dazu musste das Bild von RGB nach Lab gewandelt werden und es wurden die Farbkanäle weichgezeichnet, während der L-Kanal unangetastet blieb. Anschließend musste das Bild wieder nach RGB gewandelt werden. Bei der hin und her Rechnerrei kann es dann zu Veränderung einzelner Pixel kommen. Aber wie gesagt das ist nur eine Vermutung. :)

Das ist halt nur so für mich leider nicht praktikabel, denn ich will schon bei der Bearbeitung aus den vollen Informationen meines NEF Files zehren und nicht von einem zwischengespeicherten Schritt als Ausgangspunkt ausgehen. Gerade bei so einem Bild gegen 22 Uhr mit ISO 5600.
In einem RAW-Workflow ist das kaum praktikabel. Was man machen kann ist auf scharfzeichnen und entrauschen im Raw-Konverter verzichten. Das hab ich auch so gemacht mit dem beschriebenen Ergebnis. Man kann ein Raw in DeNoise AI auch direkt öffnen und als DNG speichern allerdings ist es dann schon gerastert (demosaicing) und eigentlich kein RAW mehr. :eek:
 
Bevor es spezielle Software zum entrauschen gab war es gängige Praxis das Farbrauschen im Lab-Farbmodell zu verringern. Dazu musste das Bild von RGB nach Lab gewandelt werden und es wurden die Farbkanäle weichgezeichnet, während der L-Kanal unangetastet blieb. Anschließend musste das Bild wieder nach RGB gewandelt werden. Bei der hin und her Rechnerrei kann es dann zu Veränderung einzelner Pixel kommen. Aber wie gesagt das ist nur eine Vermutung.

Ach so daher deine Vermutung, jetzt kann ich deinen Gedankengang nachvollziehen.
Topaz selbst beschreibt die Funktionsweise ja zumindest als grundsätzlich anders als Entrauschen sonst in jeder anderen Software funktioniert.
Ich bin kein Softwareingenieur und kann es nicht fachlich treffender beschreiben, aber die Kernaussage war: Die haben der Software unzählige Bilderpaare desselben Motivs einmal rauschig und einmal schön sauber mit Basis-ISO gezeigt und durch diesen Vergleich quasi "beigebracht" wie das saubere Bild zu einem verrauschten auszusehen hat. Ob dazu intern trotzdem auch so ein Vorgehen wie du es mit LAB vermutet hast nötig ist weiß ich nicht.
 
Die haben der Software unzählige Bilderpaare desselben Motivs einmal rauschig und einmal schön sauber mit Basis-ISO gezeigt und durch diesen Vergleich quasi "beigebracht" wie das saubere Bild zu einem verrauschten auszusehen hat. Ob dazu intern trotzdem auch so ein Vorgehen wie du es mit LAB vermutet hast nötig ist weiß ich nicht.
Ja klar heißt ja auch nicht umsonst AI, wird wohl trotzdem eine Art Grundentrauschung geben. Wie dem auch sei, solltest du mehr im Topaz-Forum erfahren würde ich mich freuen wenn du es hier mitteilst.

LG Martin
 
Ja klar heißt ja auch nicht umsonst AI

AI ist nur Marketinggeschwätz. Ein Abgleich nur auf Basis des ISO-Werts sind nichts weiter als Wenn-Dann-Abfragen. Das machst Du auch, wenn Du entrauschst. Das Ganze vielleicht noch garniert mit leichten Anpassungen im Kontrast (sämtliche Spielarten) und den Farben.

Als AI könnte mit viel gutem Willen bezeichnen werden, wenn das Programm "lernt" Häufungen zu erkennen und dann darauf basierend bessere Ergebnisse als am Anfang zu präsentieren. Das Ganze wird aber schon dann wieder ad absordum geführt, wenn man unterschiedliche Motive/Themen hat.
 
Zuletzt bearbeitet:
Ich weiß nur ich habe aus Capture One in sRGB exportiert (16bit TIFF) und ich habe beim Export aus Topaz dann auch wieder gesagt der Farbraum soll beibehalten werden.

Das ist richtig, daß Dein Bild nach dem Entrauschen zwar denselben Farbraum hat wie das Eingangsbild, aber zwischendurch kann das alles gewandelt werden.
Möglich wäre hier die Kette: $Ursprungsfarbraum->Lab->$Ursprungsfarbraum.
Lab deshalb, weil man da Farben und Helligkeiten getrennt bearbeiten kann. Daher ist es am Wahrscheinlichsten, daß eine solche Konvertierung stattfindet (sofern sie überhaupt stattfindet). Von alledem bekommt man nichts mit, weil des intern passiert.

Ob es gut oder schlecht ist, daß ggf. kommentarlos zwischen den Farbräumen hin- und hergesprungen wird, muß jeder für sich entscheiden.
 
Frage:
Unter "Remove Noise" und "Sharpen" sind jeweils 15 als Wert voreingestellt.
Könnte man diese Werte irgendwie abändern, damit man (bei einer Serie z.B.) diese Regeler nicht immer wieder neu anfassen muß ?
Bietet das Programm die Möglichkeit, dass man sich persönliche Werte abspeichern könnte?
 
Das ist richtig, daß Dein Bild nach dem Entrauschen zwar denselben Farbraum hat wie das Eingangsbild, aber zwischendurch kann das alles gewandelt werden.
Möglich wäre hier die Kette: $Ursprungsfarbraum->Lab->$Ursprungsfarbraum.

Okay danke, die Erklärung erscheint schon plausibel. Ist eben etwas schade, wenn dann am Ende die Farben etwas verschoben aussehen. Bei Eulen hatte ich das schon mehrmals und aufgefallen ist mir, dass es tendenziell am meisten bei der gelben oder orangenen Iris zu beobachten ist. Andere Farbtöne werden hingegen scheinbar weniger angetastet.

Naja, es ist ja auch alles noch ziemlich neu und es gab nun schon eine signifikante Verbesserung mit den Updates. Ich bin mal gespannt was die Zukunft (längerfristig) bringt für diese Software.

Ideal wäre halt, wenn ich es irgendwie in Capture One integriert auf ein RAW anwenden könnte.
 
Also ich weiß nicht, wie das bei C1 funktioniert.

Ich habe zwei Algorithmen von Topaz (Sharpener AI und DeNoiser AI) als Plugin in Luminar integriert.
Was Topaz jeweils macht ist eine neue Ebene auf - was gelegentlich nervig ist weil Topaz das Enttäuschen als allererstes empfiehlt, und die neue Ebene bei Luminar dann z.B. kein Entzerren mehr kann. Aber bei Deinem Problem mit der Maskierung ist das natürlich klasse - die Augen von Deinem Kauz (klasse Bild übrigens) kannst Du einfach ausnehmen - und Dich nicht auf Topaz verlassen bei der Maskierung.

Insgesamt glaube ich, dass AI an dieser Stelle doch mehr als Marketinggeschwätz ist. Ansonsten habe ich immer eine gegenseitige Beeinflussung von Rauschverminderer und Scharfzeichner - und das kann ich hier nicht feststellen.

Topaz behauptet, dass sie die Bilder komplett analysieren und mittels KI versuchen Bildinhalte und Hintergrund zu trennen um dann das Rauschen als Solches auch erkennen zu können.
Wenn man sieht, wie lange die für ein einfaches Enttäuschen brauchen, bei dem man ansonsten einen Regler betätigt und das Ergebnis sieht, ist man geneigt zu glauben, dass sie etwas anders machen.
 
Dieses AI ist schwer kontrollierbar, weil es an Stellen verstärkt ansetzen kann, wo es auf Detailerhalt ankommt. Und umgekehrt andere Stellen nicht anrührt, wo eigentlich mehr entrauscht werden müsste. Besser ist ein Programm, das grundsätzlich gut entrauscht und über Pinsel, Farb- oder Luminanzmasken präziser gesteuert werden kann.
 
Ich habe es mir gekauft, nachdem ich ganz ordentliche (Test)Ergebnisse erhielt. Nun freue ich mich auf die neueste Version mit automatischer Maskierung!
Test erfolgt prompt nach meinem Urlaub...
 
Dieses AI ist schwer kontrollierbar, weil es an Stellen verstärkt ansetzen kann, wo es auf Detailerhalt ankommt. Und umgekehrt andere Stellen nicht anrührt, wo eigentlich mehr entrauscht werden müsste. Besser ist ein Programm, das grundsätzlich gut entrauscht und über Pinsel, Farb- oder Luminanzmasken präziser gesteuert werden kann.

Sehe ich anders - vor allem frage ich mich, wenn ich Masken verwende, kann ich ja genau das, was nicht so gut wird beim entrauschen, ausblenden.

Letztlich will ich ein gutes Ergebnis - wenns geht schnell und ohne allzu viel an irgendwelchen Reglern drehen zu müssen. Dies ist meiner Ansicht nach bei DeNoiser AI der Fall (Sharpener AI übrigens auch).

Was mich nervt an der SW ist die Arbeitsgeschwindigkeit. Da von Topaz sehr empfohlen wird, VOR der ganzen Bildbearbeitung zu entrauschen, muss ich diese Zeit auch bei Bildern investieren, die ich hinterher verwerfe. Der Sharpener z.B. ist besser als alles, was ich in diesem Bereich kenne, arbeitet aber ähnlich schnell - also muss ich bei Bildern, die der Sharpener vom Schärfeeindruck vielleicht retten kann, den erstmal ausprobieren und bei Erfolg das Original wieder raus kramen und den DeNoiser drüber laufen lassen bevor ich - erneut mit Zeitaufwand - schärfe.

Die beiden beeinflussen sich übrigens relativ wenig. Aber für einen Profi, der nach Zeit rechnen muss, wäre das nix - ich als blutiger Amateur bin ja leidensfähig ;)
 
WERBUNG
Zurück
Oben Unten