Grundsätzlich unterscheidet DeepPRIME Details von Rauschen sehr viel besser als es früher möglich war. ...
Das steht außer Frage. Möglicherweise oder bestimmt liegt das an den heutzutage leistungsfähigeren Rechnersystemen.
Beim Demosaicing kann man durchaus mehr "Spreu vom Weizen trennen", sprich bestimmte Nutzinformationen vom Rauschen unterscheiden, indem die Algorithmen sich in einem größeren Umfeld um den zu interpolierenden Bildpunkt "umsehen", um z.B. einen "Peak" im Helligkeitssignal als Teil einer Kante, eines feinen Haares ... zu erkennen, statt ihn als "Rausch-Peak" zu glätten.
Hat der Algorithmus so eine Regelmäßigkeit in der Nachbarschaft gefunden, kann er die Suche erweitern ...
Insofern ist es für mich vorstellbar, dass mit rechenintensiveren Algorithmen mehr echte Details im RAW erkannt und von der Glättung = Entrauschen unterschieden werden können, als mit, auf geringe/mittlere Rechenleistung ausgelegten einfacheren Algorithmen.
Erst recht gilt das für die nachträgliche Entrauschung eines, bereits zum Bitmap entwickelten RAWs, bei dem feine Details schon dem "einfachen" Demosaicing zum Opfer gefallen sind.
(Anmerkung: die intensivere Auswertung der Nachbarschaft um einen Bildpunkt herum bei Prime oder Deep Prime könnte meiner Meinung nach Grund sein, warum DXO noch einen Bogen um Fuji X-Trans macht. Deren Filtermatrix weicht deutlich von der Bayer-Matrix ab und hat ein unregelmäßiges Muster. Die Suche nach Nutzinformationen im Umfeld eines Bildpunktes dürfte sich bei X-Trans deutlich von der beim Bayer-Sensor unterscheiden und wahrscheinlich auch sehr viel aufwändiger sein)
Gruß
ewm