WERBUNG

LrC - Benchmark KI-Entrauschen

Hat mit LrC jetzt nur am Rande zu tun, und daher auch nur als Amnerkung:

Der exakt gleiche Test, nur nicht in LrC, sondern direkt in CameraRAW, ansonsten exakt identische Vorgehensweise, also alle 4 Bilder entsprechend Vorgabe entrauscht und Zeit gestoppt:

i7-12700H + RTX3070Ti Laptop, mit aktuellem LrC 38s (was wirklich ok ist), mit aktuellem CameraRAW 32s ! Finde den deutlichen Unterschied in der Performance schon auffällig, da ich bislang davon ausgegangen bin, das LrC und CameraRAW die selbe Engine verwenden.

lg
 
00:26 i7-14700k, RTX4070ti 12GB, 96GB DDR5-Ram kein OC, LR14.0.1
 
00:46 R7-5800x, RTX4060 8GB, 48GB DDR4-RAM, kein OC Standard 5800x undervolting Einstellungen, Nvidia Treiber 560.94, LrC 14.0.1, Das B450 Board kann nur PCI-E 3
00:44 R7-5800x, RTX4060 8GB, 48GB DDR4-RAM, kein OC Standard 5800x undervolting Einstellungen, Nvidia Studio Treiber 565.90, LrC 14.0.1, Das B450 Board kann nur PCI-E 3

Danke für diesen Thread!
 
Für mich interessant war die Erkenntnis, dass der Rechner durchaus eine Rolle spielt und nicht nur die Grafikkarte:

"alter" Rechner mit RTX3060
00:64 I5 4690, RTX3060 12GB, 32GB DDR3-RAM, kein OC Standard Einstellungen, Nvidia Treiber 560.94, LrC 14.0.1,

neuer Rechner mit RTX3060
00:41 R9 9900x, RTX3060 12GB, 96GB DDR5-RAM, kein OC Standard Einstellungen, Nvidia Treiber 560.94, LrC 14.0.1,

Mit einer 3070:
00:32 R9 9900x, RTX3070 8GB, 96GB DDR5-RAM, kein OC Standard Einstellungen, Nvidia Treiber 560.94, LrC 14.0.1,
 
Ja, wenn CPU und GPU leistungsmäßig nicht zusammen passen.
Stimmt, aber mit meinem alten Rechner war die 3060 im Bereich dessen was hier schon gepostet wurde. Mit dem neuen im Bereich der 3070 ti

Und die 3070 liegt auch im Bereich min einer Leistungsklasse höher.

Ich bekomme noch eine 4060 ti mal schauen wo die liegt
 
Zuletzt bearbeitet:
Habe ich das richtig verstanden, dass nach diversen Optimierungen seitens Adobe/ Apple - bei Macs es keine/ kaum eine Rolle es spielt welche CPU (Standard, Pro, Max) man hat, weil es eh "nur" die 16 Cores der Neural Engine genutzt werden? Wenn ja - dies bezieht sich aber nur auf diese ENtrauschungsfunktion oder?
 
Für mich interessant war die Erkenntnis, dass der Rechner durchaus eine Rolle spielt und nicht nur die Grafikkarte:

"alter" Rechner mit RTX3060
00:64 I5 4690, RTX3060 12GB, 32GB DDR3-RAM, kein OC Standard Einstellungen, Nvidia Treiber 560.94, LrC 14.0.1,

neuer Rechner mit RTX3060
00:41 R9 9900x, RTX3060 12GB, 96GB DDR5-RAM, kein OC Standard Einstellungen, Nvidia Treiber 560.94, LrC 14.0.1,
Für den Unterschied könnte die jeweilige PCIe-Anbindung der Grafikkarte entscheidend sein: damals noch PCIe 3.0 und heute PCIe 5.0 mit einer bis zu 4x so schnellen Übertragung.
 
Für den Unterschied könnte die jeweilige PCIe-Anbindung der Grafikkarte entscheidend sein: damals noch PCIe 3.0 und heute PCIe 5.0 mit einer bis zu 4x so schnellen Übertragung.
Ja sicher auch ein Grund.
Wenn ich mir die Listen so anschaue sehe ich aber auch Rechner mit einer aktuellen Ausstattung wie z.B. i7 13. und 14. Generation mit einer RTX 3060 die eher an den Ergebnissen meines alten Rechners dran sind. 56-58 sek bei denen 64 sek bei mir.

Wie auch immer, ich bin jedenfalls zufrieden und mal schauen was ich noch so herauskitzeln kann.
 
Da habe ich doch gerade mal nachgetestet. Und ganz ohne Hardware-Tausch ergibt sich folgendes Bild:

LR VersionnVidia TreiberZeit [sec]
V13537.42
56
V13.4555.85
54
V13.4560.75
50
V14.0.1566.03
44

Also kein Hexenwerk, sondern Fortschritte entweder in LR oder bei nVidia oder beides zusammen.


 
Zuletzt bearbeitet:
Da habe ich doch gerade mal nachgetestet. Und ganz ohne Hardware-Tausch ergibt sich folgendes Bild:

LR VersionnVidia TreiberZeit [sec]
V13537.42
56
V13.4555.85
54
V13.4560.75
50
V14.0.1566.03
44

Also kein Hexenwerk, sondern Fortschritte entweder in LR oder bei nVidia oder beides zusammen.


Ich habe jetz noch mal bei meinem alten Rechner die Versuche durchgeführt mit dem 560.75 und dem 566.03 Treiber. Die Zeiten sind identisch.
Anscheinend hat hier das LR Update am meisten gebracht.

Also immer fein updaten!
 
@ObjecTiv ...
P.S. Ich verwende extern keine 980 Pro sondern eine 970 EVO Plus weil diese langsamere SSD auch noch locker für 20 GBit/s schnell genug wäre. Evtl. kaufe ich mir jetzt dafür (20 GBit/s) ein passendes M.2 SSD-Gehäuse oder auch nicht, denn endlich läuft alles stabil. Das war mit meinem 1sten M.2 SSD-Gehäuse nicht so und je höher die Übertragungsrate desto anspruchsvoller die HW inkl. der Kabel.
Die USB-Verbindungsgeschwindigkeit ist nicht der Bremsklotz. Mein neues M.2 SSD-Gehäuse kann 20 GBit/s (= 2500 MByte/s). Die Schreibgeschwindigkeit ist trotzdem nur ca. 600 MByte/s. Wieder zurück aufs alte M.2 SSD-Gehäuse. Auch hier nur ca. 600 MByte/s. Somit bremst die SSD, wohl genauer gesagt die Bitlocker-Verschlüsselung. Die Verschlüsselung ist nicht die SSD eigne HW-Verschlüsselung. D.h. der Kommandozeilen-Befehl "manage-bde -status p:" (p = ist mein Laufwerksbuchstabe) ergibt "Encryption Method: XTS-AES 128". Aufwandsabhängig werde ich jetzt evtl. noch versuchen auf die HW-Verschlüsselung zu wechseln.
 
Zuletzt bearbeitet:
Habe ich das richtig verstanden, dass nach diversen Optimierungen seitens Adobe/ Apple - bei Macs es keine/ kaum eine Rolle es spielt welche CPU (Standard, Pro, Max) man hat, weil es eh "nur" die 16 Cores der Neural Engine genutzt werden? Wenn ja - dies bezieht sich aber nur auf diese ENtrauschungsfunktion oder?
Also z.Zt. ist das so nicht zutreffend, siehe hier. In Bezug auf des KI-Entrauchen wird die Neural Engine später evtl. ja wieder eingesetzt und dann gilt: Je besser die ist desto schneller ist das Entrauchen erledigt. Wenn Apple die Neural Engine nicht zwischen den verschiedenen Prozessorausbaustuffen differenziert, dann ist da natürlich auch keine Unterschiedliche Leistung zu erwarten. Andere LrC Features verlassen sich aber weder auf die Neural Engine noch die GPU, sondern ganz klassisch auf die CPU. Somit sind Optimierungen von Adobe (für jegliche HW) immer begrüßenswert und spielen eine Rolle.
 
Zuletzt bearbeitet:
Die Ergebnisse sind einfach nicht mehr vergleichbar.
Ja, ältere und neuere Resultate sind nicht mehr direkt vergleichbar, deshalb solltte man auch immer noch ein Auge auf das Test-Datum richten. Dennoch halte ich den Benchmark nach wie vor für ein gutes Instrument, um einen groben Überblick zu bekommen, was für Hardware-Änderungen welche Verbesserungen bringen können.

Seit dem ich meinen aktuellen Laptop im Juni gekauft und das erste mal getestet habe, haben sich die Zeiten von anfangs 46s auf inzwischen 38s durch diverse Software- und Treiber-Verbesserungen verringert. Einen nochmaligen deutlichen Performance-Sprung würde ich erwarten, wenn Adobe die derzeitigen Beta-Routinen von KI-Entrauschen aus CameraRaw auch in LrC integriert. Mit CameraRAW benötige ich für den selben Test unter identischen Bedingungen derzeit gar nur 32s.

lg Peter
 
Zuletzt bearbeitet:
@RobiWan Ja, das ist eine allgemeine Aussage auch wenn es die N. E. nur bei Apple gibt. Ob Adobe für MACs außer bei der N. E. Nutzung noch anderweitig etwas anders macht als bei Windows-PCs kann ich nicht sagen.
 
WERBUNG
Zurück
Oben Unten