• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Zweckentfremdet"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juni-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

LrC - Benchmark KI-Entrauschen

75s mit i7 9700k@3,60 GHz (nicht übertaktet) 32GB RAM DDR4@2666MHz und RTX2060 6GB
Gerade mit LR 14.0.1 und Nvidia Treiber 566.14 nochmal laufen lassen. ca. 60s.
15s schneller nur durch Softwareanpassung bei LR und Nvidia.
Ich habe am Rechner sonst nichts verändert.
 
16s | i9-13900KF 24 Kerne | RTX4090 24GB | 64GB DDR5-6000 CL30 RAM | Wasserkühlung

(Powerlimit bei 75%, damit hat man nur einen minimalen Leistungsverlust von wenigen Prozent, spart aber sehr viel Strom und Abwärme. Die letzten Prozente kosten immer unverhältnismäßig viel Energie, um in Benchmarks die besten Plätze zu erreichen, kennen die Hersteller nur eines, das Maximum. Das ist so dumm und steht in keinem Verhältnis zum Mehrverbrauch. Wenn ich das Powerlimit abschalte, bin ich vielleicht eine halbe Sekunde schneller, verbrauche aber 200 Watt mehr.)

Freue mich schon wenn die ersten 5090 hier auftauchen und bin gespannt...
 
Zuletzt bearbeitet von einem Moderator:
Hab gerade den Test auch bei mir mal laufen lassen.
44s Macbook pro M4 (M4Max mit 14CPU/32GPU/36GB RAM)
Wow, doppelt so schnell wie ein M2 pro und gleich schnell wie mein PC mit r7 5800x, 48g und rtx 4060 8g. Apple kennt sich aus.
 
Hat mit LrC jetzt nur am Rande zu tun, und daher auch nur als Amnerkung:

Der exakt gleiche Test, nur nicht in LrC, sondern direkt in CameraRAW, ansonsten exakt identische Vorgehensweise, also alle 4 Bilder entsprechend Vorgabe entrauscht und Zeit gestoppt:

i7-12700H + RTX3070Ti Laptop, mit aktuellem LrC 38s (was wirklich ok ist), mit aktuellem CameraRAW 32s ! Finde den deutlichen Unterschied in der Performance schon auffällig, da ich bislang davon ausgegangen bin, das LrC und CameraRAW die selbe Engine verwenden.
4 Sekunden Vorteil für Camera Raw hier. von 44 auf 40 Sekunden.
 
4 Sekunden Vorteil für Camera Raw hier. von 44 auf 40 Sekunden.
LrC ist bei mir einige Sekunden früher fertig, obwohl der Balken oben links noch nicht weg ist. Ich denke, das liegt am Katalog sortieren, RAW Cache erstellen usw., daher denke ich, dass es nur so aussieht, als ob Camera RAW schneller wäre. Das gleiche gilt auch für HDR RAWs, ich habe die schon geöffnet und bearbeite sie, aber der Balken ist immer noch belegt, aber die Datei ist schon komplett erstellt. Damit der Benchmark aussagekräftig bleibt, sollte man sich hier nach dem Balken richten, sonst kommt alles durcheinander. Nicht das jetzt jemand seine Werte korrigiert ;-)
 
Du hast da nicht unrecht. Allerdings ist das imho eh nicht relevant da keiner freiwillig irgendwelche Bilderserien mir CR bearbeiten wird wenn er LR hat.
Wir schweifen ab.. :ugly:
 
Oh, da wäre ein M3 MAX knapp schneller?

38 Sekunden auf einem Macbook Pro M3 Max mit 36 TB RAM / 1 TB SSD (Somona 14.6.1 / LrC 13.4)

CPU-Kerne: 14 (10 Leistung und 4 Effizienz)
GPU: 30 Kerne
Interessant. Kann eigentlich von den Specs her gar nicht sein.
Wenn ich jetzt allerdings sehe, andere LR und OS Version dann hinkt der Vergleich schon wieder.
Ich meinte auch gelesen zu haben, dass LR momentan die KI Engine beim M4 noch nicht nutzt.
Die Quintessenz aus den Ganzen für mich. Es läuft alles schnell und leise und das war das Ziel.
Evtl. starte ich heute Abend den Rechner mal neu und schliess mal das Netzteil an. Man weiß ja nie :)

Edit:
Ich habe grad was Interessantes im Netz gefunden. Wenn das stimmt würde das die bessere Performance erklären mit LR 13.X
Da müsste man den M3 mal mit LR14 testen.
I noticed processing time went up while denoising images lately. Took a look in iStat and noticed zero usage of the Neural Engine. A quick google showed that they disabled it in Lightroom 14.
Just posting here to confirm what u/disgruntledempanada said. Using the Neural Engine was causing quality issues with Denoise, so we've stopped using it in the latest release of both Lightroom and Lightroom Classic. This results in slower, but higher quality, Denoise.
Adobe has an update on the new Lightroom coming up at Adobe Max soon.

The post from the Adobe rep says that for Macs the Neural Engine will once again be disabled so Denoise speeds will go back to 13.2 and not the faster level in 13.3 and later.

https://community.adobe.com/t5/ligh...-apple-neural-engine-use/m-p/14914697#M382199
 
Zuletzt bearbeitet:
Ich habe grad was Interessantes im Netz gefunden.
Irgendwie zumindest bei mir wird es als Schwarz auf Schwarz angezeigt.
Egal - ja das hatte ich vor einigen Tage wegen der NPU gefragt und da hieß es schon hier, dass Adobe wegen Problemen die neurale Engine wieder deaktiviert hat. Wahrscheinlich muss was angepasst werden und dann wird es wieder "superschnell" :D
 
Irgendwie zumindest bei mir wird es als Schwarz auf Schwarz angezeigt.
Egal - ja das hatte ich vor einigen Tage wegen der NPU gefragt und da hieß es schon hier, dass Adobe wegen Problemen die neurale Engine wieder deaktiviert hat. Wahrscheinlich muss was angepasst werden und dann wird es wieder "superschnell" :D

Oh bei mir siehts normal aus. Aber deine Aussage ist korrekt. Momentan werden die NPUs vom Mx Chip von LR nicht mehr benutzt und daher die „enttäuschende“ Leistung :)
 
Ich bin direkt überrascht, Mac beide Male LR 14.01, beide Sonoma 14.7.1, beide 1tB SSD

Test 1 mit 5kimac, 3.6 Ghz 10 Core Intel I9, 72 GB RAM, AMD Radeon Pro 5700XT aus 2020 mit 16 GB = 82sec

Test 2 mit 14` MB Pro mit M1 Pro aus 2021 , 32 GB RAM = 98sec

Ansonsten ist mein i9 fast immer langsamer und schnell lauter
 
Ist aber beides jetzt nicht so schnell.

Die 4090 ist über 2 Jahre alt, ist aber immer noch unerreichbar für die gesamte Konkurrenz.
Nvidia könnte sich weitere 2 Jahren schlafen legen, aber demnächst kommt die 5090 als Nachfolger. Ich bin gespannt was sie diesmal zaubern und bringen. Gerade KI ist für Nvidia das lukrative Geschäft der letzten Jahre. Hätte ich nur Aktien gekauft.
Bei viel mehr VRAM könnte ich schwach werden. 24 GB sind bei Stable Diffusion ein Krampf wenn man sehr hochauflösende KI Fotos generieren möchte.
Schon verrückt wie sich so einiges durch KI geändert hat. Es gab auch mal ein Jahrzehnt bei Photoshop wo die Grafikkarte völlig egal war.
 
Sicher nicht, die NPUs in den CPUs sind um Welten langsamer als via dediziertet-, aktueller GPU. Leider kann ich die Quelle meiner Aussage grad nicht finden.
 
So nun habe ich endlich meinen Rechner komplett. Grafikkarte ist gekommen.

Mit einer RTX 4070:
00:18 R9 9900x, RTX4070 12GB, 96GB DDR5-RAM, kein OC Standard Einstellungen, Nvidia Treiber 566.14, LrC 14.0.1,

Nun sollte es erstmal reichen. Ne 4080 oder noch mehr lohnt sich glaube ich nicht wiklich für Lightroom / Photoshop außer einer entrauscht tausende von Fotos auf einmal.
 
So nun habe ich endlich meinen Rechner komplett. Grafikkarte ist gekommen.

Mit einer RTX 4070:
00:18 R9 9900x, RTX4070 12GB, 96GB DDR5-RAM, kein OC Standard Einstellungen, Nvidia Treiber 566.14, LrC 14.0.1,

Nun sollte es erstmal reichen. Ne 4080 oder noch mehr lohnt sich glaube ich nicht wiklich für Lightroom / Photoshop außer einer entrauscht tausende von Fotos auf einmal.
Wenn man sehr viele KI Masken in LrC nutzt, werden 12 GB zu wenig sein, aber sonst ist das doch alles völlig in Ordnung. Viel Spaß damit!

Oder mit Stabile Diffusion ab 4K und mehr KI Fotos damit erstellen, oder 8K Videoschnitt, oder 4K Videoschnitt mit sehr vielen Plugins, da sind 24 GB VRAM manchmal zu wenig. Nur um ein Gefühl dafür zu bekommen schreibe ich das.
Das ärgert mich gelegentlich, aber ich weiß auch, dass es nicht mehr so viele Anwe4nder gibt die solche Anforderungen haben.
Daher bin ich gespannt wie hoch der VRAM bei der 5090 sein wird. Klasse wäre 48GB...
 
Wenn man sehr viele KI Masken in LrC nutzt, werden 12 GB zu wenig sein, aber sonst ist das doch alles völlig in Ordnung. Viel Spaß damit!

Oder mit Stabile Diffusion ab 4K und mehr KI Fotos damit erstellen, oder 8K Videoschnitt, oder 4K Videoschnitt mit sehr vielen Plugins, da sind 24 GB VRAM manchmal zu wenig. Nur um ein Gefühl dafür zu bekommen schreibe ich das.
Das ärgert mich gelegentlich, aber ich weiß auch, dass es nicht mehr so viele Anwe4nder gibt die solche Anforderungen haben.
Daher bin ich gespannt wie hoch der VRAM bei der 5090 sein wird. Klasse wäre 48GB...
Ok, KI nutze ich dann hauptsächlich zum Entfernen von Objekten und das geht für mich auch ausreichend flott.
Mal schauen welche Wünsche sich in Zukunft ergeben.
 
WERBUNG
Zurück
Oben Unten