• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

CPU-Vergleich bzgl. Lightroom

  • Themenersteller Themenersteller Gast_226386
  • Erstellt am Erstellt am
Also irgendwie hab ich Mühe damit das alles hier nachzuvollziehen. Gerade z.B. beim Batch Export von Bildern sehe ich wie im Activity Monitor alle 6 Kerne (mehr hab ich leider nicht) meines Rechners ausgelastet werden teilweise sogar mit Hyperthreading. Hier wird also ganz ordentlich parallelisiert. Vielleicht hab ich auch Glück und es skaliert erst ab mehr als 6 Kernen nicht mehr richtig.
Der Export ist ja auch die einzige Funktion in LR, die von Vielkernern profitiert. Der Rest von LR nicht. Da geht zwar u.U. auch mal die CPU-Auslastungskurve bei mehreren Kernen gleichzeitig hoch, aber es hat keinen entsprechenden Effekt beim Arbeitstempo.
 
Und wenn man mal 450 RAWs konvertiert? Dann klaut man dem Batchprozess einfach mal 1-2 Kerne und kann parallel noch etwas andere machen.
Ich nutze diese Zeit z.B. um parallel die Verträge zu tippen, ohne dass ich in Word ausgebremst werde.

Schon klar, wobei die obige Diskussion ja gerade darum ging das LR eben nicht alle Kerne auslastet. Das was du beschreibst ist ja genau das Verhalten das man von einem Multitaskingscheduler erwarten würde. Wo bei ich hoffe das Word nicht 1-2 Kerne dauerhaft belegt (und es bei mir auch nicht tut)
 
Und wenn LR nicht alle Kerne auslastet, kann man dem Programm auch ein paar Kerne klauen, oder?
 
Das Lightroom bis 6 Kerne brauchbar skaliert und es danach weniger effektiv ist, haben die Jungs aus dem Link im ersten Post ja schon früher gezeigt.

Esport (und Import) sind doch auch die einzigen Dinge die nennenswert Zeit kosten.
Das kann man (anscheinend) kritisieren, aber ich kenne die ganzen anderen Tools, die so rasend schnelll sein sollen nicht und von daher scheint mir das alles völlig okay.

Bei der eigentlichen Bearbeitung ist seit der Einführung der GPU-Beschleunigung für mich alles sehr gut.

Allenfalls Pinsel könnten dann und wann ruhig schneller sein.
Wenn man jetzt jemand ist, der jeder seiner Bilder komplett Abpinsel will, macht das vermutlich keinen Spaß, wenn es mit der Funktion in PS vergleicht.

Sonst frage ich mich ein bisschen welche Kritikpunkte es gibt es, die durch eine optimale Mehrkernnutzung beschleunigt werden sollten.

Für mich gibt es auch keine Hinweise, dass Lightroom "schlecht programmiert" ist.

Update:
Aber auch für Adobe hat der SpeedUp "die höchste Priorität":
https://www.dpreview.com/news/35328...-admits-speeding-up-lightroom-is-top-priority

Lustigerweise stellt Adobe aber die gleiche Frage wie ich :)
Und das in einem Survey:
https://www.surveymonkey.com/r/LrDesktop_performance
 
Zuletzt bearbeitet:
Das Lightroom bis 6 Kerne brauchbar skaliert und es danach weniger effektiv ist, haben die Jungs aus dem Link im ersten Post ja schon früher gezeigt.

Esport (und Import) sind doch auch die einzigen Dinge die nennenswert Zeit kosten.
Beim Export kann ich auch sehen, dass alle meine 4 Kerne ausgelastet werden. Die Optimierungen beim Export sind relativ neu. Bis vor ein paar Monaten sah das noch ganz anders aus.

Klar widersprechen muss ich dir allerdings hier:

Esport (und Import) sind doch auch die einzigen Dinge die nennenswert Zeit kosten.

Aus meiner Sicht ist der Import/Export nicht das Kernproblem. Problematisch sind oftmals die trägen Bedienabläufe. Hier geht es um die sehr wohl bekannten "Denkpausen" von 1-5s. Und zwar bei Operationen, die nicht wirklich Rechenintensiv sind.

Beispiel: Nach ein paar Bearbeitungsschritten soll der Ausschnitt korrigiert werden. Allein die Reaktion auf den Klick auf das Symbol kann (je nach Bildgröße und Vorgeschichte) auch mal 3s Sekunden dauern. Dann erscheint der Rahmen. Kaum wird er mit der Maus angefasst, gibt es häufig einen zeitlichen Versatz in der ersten Sekunde. Manchmal springt er auch einfach wieder in die Ausgangslage nach dem Anpassen zurück - wenn man zu schnell den Rahmen neu positioniert hat.

Für mich gibt es auch keine Hinweise, dass Lightroom "schlecht programmiert" ist.

Lightroom ist voll von diesen "Denkpausen" und Synchronisationsproblemen. Das Bild wird sehr offensichtlich nach bestimmten Operationen nicht selten mehrmals gerendert. Kein Wunder, dass die CPU-Leistung hier verpufft.

Diese Eigenschaften sind klar zu erkennen und nicht Abhängig von der verwendeten CPU, sondern zeigen klar Defizite in der Programmierung. LR geht mit den Resourcen alles andere als effizient um.

Unabhängig davon sind einige Kameraprofile nicht in Ordnung. Beispiel: Meine GM1 wird bis heute falsch interpretiert und ich muss in den RAW-Dateien den Kameranamen über einen HEX-Editor austauschen, damit ich einen Fehler bzgl. dem Rotkanal umgehe (siehe https://www.dslr-forum.de/showpost.php?p=12647860&postcount=1183 ; https://www.dslr-forum.de/showpost.php?p=12651109&postcount=1185)
Bei der FZ1000 wird bis heute das Objektiv im Weitwinkel schlecht korrigiert (https://www.dslr-forum.de/showpost.php?p=12524859&postcount=1043)...
Auch bei anderen Kameras ist LR zwar immer ganz schnell dabei, aber die Qualität der Profile liegt je nach Modell zwischen "gut" und "unbrauchbar" (GM1).

Seit LR6 gibt es auch eine Verschlechterung, die viele (mich eingeschlossen) extrem nervt. Da hilft auch kein schnellerer Prozessor oder eine Mehrkernunterstützung: Im Entwicklungsmodul wurden die Vorgaben aus dem Kontextmenü entfernt. Diese sind nun nur noch im Import-Modul über Umweg erreichbar. Was mich diese kleine Änderung bereits an Zeit gekostet hat... Ich dachte erst an einen Bug, aber das ist von Adobe so gewollt.

Bei der eigentlichen Bearbeitung ist seit der Einführung der GPU-Beschleunigung für mich alles sehr gut.
Ein sehr hervorragendes Beispiel: Genau hier wurde auch wieder die Vorwürfe bzgl. der Softwarequalität bestätigt. Als LR6 erschienen ist habe ich es aufgrund der schlechten Stabilität und der vielen Fehler - insb. bei der GPU-Beschleunigung - erst mal wieder deinstalliert.
Was sich Adobe dabei gedacht hat so eine unfertige Software auf den Markt zu bringen grenzt schon an Unverschämtheit.

Schau dir mal die vielen 1-Stern-Rezensione im großen Fluss zu diesem Thema an. Oder auch die Artikel bzgl. Instabilität und Performance (Beispiel: https://www.heise.de/foto/artikel/N...om-6-und-Lightroom-CC-2626770.html?view=print oder https://photographylife.com/lightroom-6-bugs-and-performance-issues oder ...).

Seitdem hat sich einiges getan und die Stabilität und teilweise auch die Performance hat sich mit der GPU-Beschleunigung verbessert. Aber da liegt noch ganz viel ungenutztes Potential. GWegner hatte das mal sehr schön zusammen gefasst: https://gwegner.de/review/lightroom-6-performance-grafikkarte/

Sonst frage ich mich ein bisschen welche Kritikpunkte es gibt es, die durch eine optimale Mehrkernnutzung beschleunigt werden sollten.
Ich bin sehr über diese Frage überrascht - momentan sitze ich fast täglich vor LR und mir fallen spontan so viele Stellen ein...
Ich denke (wie schon vorher in einem Beitrag erwähnt), dass wir alle sehr unterschiedliche Anforderungen insb. an die Bediengeschwindigkeiten haben.
Es freut mich auch, wenn andere User zufrieden mit der Performance von LR sind. Für mich ist es allerdings (neben der Cloud) der größte Kritikpunkt von LR.

Und ich bin froh, dass ich damit nicht alleine stehe und der Druck auf Adobe mittlerweile entsprechend groß ist, so dass es endlich Handlungsbedarf gibt. :)

Solche Aussagen kommen nicht aus dem Nichts:


Spend any time chatting with fellow photographers about Adobe Lightroom and you're bound to hear about performance issues. It's one of the most common and widespread complaints: even with tons of RAM, a great graphics card, and a powerful CPU, many computers still struggle to keep Lightroom running smoothly.

Bzgl. dem Ausgangsthema (CPU-Vergleich) ist es natürlich schwer vorhersehbar wann und was Adobe optimieren wird. Das macht die CPU-Wahl nicht leichter.
 
Zuletzt bearbeitet:
Hier geht es um die sehr wohl bekannten "Denkpausen" von 1-5s. Und zwar bei Operationen, die nicht wirklich Rechenintensiv sind.
Umschalten der Module fällt mir da ein.
Sonst eher nichts.

Beispiel: Nach ein paar Bearbeitungsschritten soll der Ausschnitt korrigiert werden. Allein die Reaktion auf den Klick auf das Symbol kann (je nach Bildgröße und Vorgeschichte) auch mal 3s Sekunden dauern.
Kann mich nicht erinnern das jemals bemerkt zu haben.

Lightroom ist voll von diesen "Denkpausen"
Mir fallen nur die ein/auf:
RAW laden dauert ein bisschen, da wird gerechnet. Finde ich okay.
Problem war eher, dass da früher im Loading stand und alle glaubten, dass eine SSD hilft.

Module umschalten. Gerade beim ersten Mal. Fühlt sich nicht gut an, aber hält mich nur wenig auf, weil ich nicht so oft umschalte.
Da sieht es tatsächlich so aus, als wenn Teile des Programms neu initialisiert werden, was unnötig erscheint bei 32 GB RAM.

Und die Pinsel sind lahm bis sehr lahm.

Das Bild wird sehr offensichtlich nach bestimmten Operationen nicht selten mehrmals gerendert. Kein Wunder, dass die CPU-Leistung hier verpufft.
Den Eindruck hatte ich auch noch nicht.
Wobei ich vielleicht weiß was Du meinst. Man sieht ab und zu ein altes Bild also einen alten Bearbeitungsstand.
Das kam zusammen mit der GPU-Beschleunigung.
Wenn man sich das anguckt, ist es wohl so, dass nicht das komplette Lightroom auf OpenGL läuft sondern wirklich nur das eigentliche Bild.
Da könnte man sicher was machen, müsste aber das komplette GUI neu machen und danach auch für Leute mit und ohne GPU doppelt pflegen.

Unabhängig davon sind einige Kameraprofile nicht in Ordnung.
Bei den Massenmarken/-modellen vielleicht auch weniger ein Problem.
Aber da habe ich auch keinen Vergleich, was besser wäre.
Im Entwicklungsmodul wurden die Vorgaben aus dem Kontextmenü entfernt.

Als LR6 erschienen ist habe ich es aufgrund der schlechten Stabilität und der vielen Fehler - insb. bei der GPU-Beschleunigung - erst mal wieder deinstalliert.
Und ich war happy, dass es endlich richtig flott auch auf einem 5K Monitor ist.
Mit ATI gab es am Anfang wohl Probleme, wenn ich mich recht entsinne.

Ja, es scheint schon so, als wenn Adobe nicht auf ausreichend vielen Konfigurationen testet.

Solche Aussagen kommen nicht aus dem Nichts
Nein klar, das ist ja auch hier immer wieder im Forum.
Aber eben so wie bei dpreview, wird nicht wirklich benannt, was konkret das Problem ist.

Oft ist es nichtmal klar, ob die SW wirklich objektiv langsamer bei dem jeweiligen TO oder das ganze nur Subjektiv ist.

Auch bei dpreview:
many computers still struggle to keep Lightroom running smoothly
Many, struggle, smoothly
Alles komplett unkonkret.

Die Leute denken vielleicht: Das ist so ein Dreck, dass müssen die doch selber merken.
Ist aber anscheinend nicht so. Sind vermutlich alles Happy-User bei Adobe, so wie ich.

Deshalb ja auch die Umfrage von Adobe.
Die würde ich an Deiner Stelle wohl machen. Es kann sicher nichts schaden.
Und am Ende wird sich wohl eher um das Problem gekümmert, wo die meisten Rückmeldungen waren.

Das macht die CPU-Wahl nicht leichter.
Adobe wird wohl auch weiterhin auf Intel optimieren. Da haben die meisten PCs und alle Macs was von.
Genauso wie fast alle 2 oder 4 CPU-Cores haben.

Vielleicht von Interesse HW Survey von Steam. Was deren Nutzer so am Start haben:
http://store.steampowered.com/hwsurvey/

Außerdem stellt Intel die besseren Tools zur Optimierung zur Verfügung dafür. Aber vielleicht habe ich das bei AMD auch verpasst.
 
LR läuft bei mir auf einem Hackintosh mit Yosemite und einem i7 4790K
32GB DDR3-1600 und einer EVGA GTX 960 sehr fluessig.
Das einzige was deutlich sichtbar verzoegert ist sind 1:1 Zooms das dauert bei den 36 Mpix Dateien schon mal eine Sekunde.
Auf den neuesten MacBookPro mit i7 und 16GB Ram geht alles noch schneller.
 
Ich denke wir haben alle sehr unterschiedliche Auffassungen über den Begriff "flüssig".
 
Hey Tobias,

bei der Aufzählung Deiner Optionen bist Du auf die Empfehlung hier
Hast du ein Z-Mainboard? Dann schmeiß doch den 2600 raus und hole dir nen 2600k. Kosten: 100€ Minus Verkauf des 2600. Der Unterschied wird sehr deutlich! ...

gar nicht eingegangen.

Ich habe bereits seit ein paar Jahren ein System mit i7 2600k, mich aber erst vor ein paar Wochen an das Thema OC gemacht, nachdem ich in einem Artikel (ich glaube es war dieser hier) gelesen habe, dass sich in den letzten Jahren letzlich nicht viel bei den CPUs geschoben hat. Irgendwo wurde auch mit übertakteten 2600k verglichen.

Auslöser war auch bei mir die Unzufriedenheit mit der LR-Performance.
(ich verarbeite 36MP Dateien der D800e; und ja: auch einzeln)

Ich habe recht unkompliziert auf 4,6 GHz hochtakten können, ohne die Temperaturen zu sehr zu treiben.
Das geht mit den meisten 2600k wohl ganz gut. Aber nicht zwingend mit allen; man kann auch Pech haben.

Von dem Ergebnis bin ich positiv überrascht. Es ging mir auch um das flüssigere Arbeiten. Import und Export finde ich weniger kritisch als das Arbeiten im Entwicklen-Modul oder das Sichten der Bilder. Vor allem bei letzterem hat sich eine gut spürbare Verbesserung eingestellt.

Ich kann insofern nur dazu raten, Dein System mit wenig Zeit- und Finanzaufwand spürbar zu verbessern.

Im Übrigen hoffe ich dennoch darauf, dass die doch mittlerweile recht lange Zeit seit Veröffentlichung des letzten Releases (LR6) bei Adobe wirklich mal für eine grundlegende Verbesserung der Performance genutzt wird/wurde.
 
Hey Tobias,

bei der Aufzählung Deiner Optionen bist Du auf die Empfehlung hier
gar nicht eingegangen.

Hi,

leider ist das für mich keine Option, da ich den 2600 (ohne) K mit einem "H" (nicht "Z") Board damals bewusst gewählt habe, da ich sowieso nicht (mehr) übertakten wollte und mein Ziel ein ruhiges effizientes System war. Wie gesagt: Mein Rechner ist quasi lautlos - das finde ich persönlich recht wichtig.

Die Performance-Steigerung durch das Übertakten würde rein rechnerisch bei ~20% liegen. Real kommt dabei noch etwas weniger raus. Der Verbrauch steigt ungefähr um Faktor 1.5 (also 50%).
Bei 20% Mehrleistung liegt ungefähr die Wahrnehmungsschwelle bzgl. der Leistungssteigerung bei einem durchschnittlichen User - zumindest bei den "üblichen Operationen" (= maxi 10s-20s).

Klar; finanziell kann sich übertakten lohnen, wenn man die Komponenten sowieso hat. Früher hatte ich das auch immer so gemacht. Heute möchte ich gerne einen guten Mix aus Performance, Verbrauch, Hitze (=Geräuschentwicklung) haben. Da würde ich dann eher zum 7700K greifen. Der bringt ca. 40% Mehrleistung bei einem ähnlichen Verbrauch (im Idle oder via Single Core sogar deutlich weniger, nur bei Auslastung aller Kerne 10% mehr).

Trotzdem danke für den Tipp! :)
 
Das Lightroom bis 6 Kerne brauchbar skaliert und es danach weniger effektiv ist, haben die Jungs aus dem Link im ersten Post ja schon früher gezeigt.

Wo liest Du das heraus? Der eigentliche und ausführliche Performancetest ist hier nachzulesen und der ist meilenweit von "6 Kerne brauchbar" entfernt. Fast alle Subtests hängen ab 2 CPUs im Schnitt im Quark, danach wird die Performancelinie waagerecht Richtung mehr CPUs:

https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-CC-6-Multi-Core-Performance-649

Und die Zusammenfassung bringt es kurz und knackig auf den Punkt:

Conclusion

Based on our testing, there are two major conclusions we can come to regarding the multi-threading capabilities of Lightoom CC and Lightroom 6:

1. Lightoom does not work well with multiple physical CPUs....
...
 
@manoman
Genau den Test meinte ich.
Dann interpretieren wir das nur anders.

Für mich würde der Vorteil beim Export reichen, um einen 6kerner zu rechtfertigen. Falls man jemand ist, dem das zu langsam ist.
https://www.pugetsystems.com/pic_disp.php?id=36559&width=800&height=800

Ob sich das nun "rechnet" oder "lohnt" muss eigentlich jeder selber wissen.
Für mich habe da vor 4 Jahren das letzte mal drüber nachgedacht und landete bei einem 4770K, weil mir die Mehrleistung für meine Anwendungen das Geld auch nicht Wert war.
 
Dann haben wir zumindest mal einen Eindruck was du als nicht flüssig auffasst.

Bevor ich mir hier Arbeit mache - kurze Frage: Welche Monitorauflösung nutzt ihr? Die Performance von LR hängt sehr stark an der verwendeten Auflösung.
Ich nutze 2560*1440.
 
Ich nutze 2x 1920x1080. Ich würde es bei mir als flüssig bezeichnen mit dem 3770k@4,8Ghz. Also es flutscht nicht auf Mausklick, das geht ja gar nicht, aber ohne spürbare Wartezeiten.
 
Monitor: 2560x1440
CPU: i5-3570k @ 4x4,2 GHz
Fotos: RAW mit 36 MP (Nikon D800)
Windows, LR, Katalog und Vorschauen befinden sich auf einer SSD.

Mich nerven die Umschaltzeiten beim Wechsel von Foto zu Foto und noch viel mehr die ständige zeitraubende Renderei beim Wechsel zur 1:1 Ansicht. Zur Weißglut treibt mich dabei regelmäßig der Umstand, daß die Ansichten für die verschiedenen Module separat gerendert werden müssen und das auch überwiegend manuell angestoßen werden muß und auch ewig dauert.

Hat der Rechner eben noch eine halbe Stunde damit zugebracht die 1:1-Vorschauen in einem einizigen lausigen Ordner im Bibliotheksmodus zu erstellen und man wechselst in den Entwickeln-Modus, geht der Spaß dort Bild für Bild von vorne los. Umgekehrt genauso. Du hast gerade alle Fotos im Entwickeln-Modus grob überarbeitet, gehst in den Bibliotheksmodus, und tada, dürfen auch dort erstmal alle Vorschauen inkl 1:1 neu gerendert werden.

Das erste Aussortieren der Fotos nach dem Import auf den Rechner nehme ich deshalb in einem anderen Programm vor. Würde ichs in LR tun, hätte ich zu oft Probleme damit, meinem Drang zu wiederstehen, brutal auf die unschuldige Tastatur einzuschlagen um meine LR-bedingte Frustration abzubauen.

Dementsprechend wäre ein 4k-Monitor, auf absehbare Zeit, das Allerletzte, was ich kaufen würde, solange ich bei LR bleibe. Und so verzichte ich auch auf die Nutzung des 2. Bildschirms in LR.
 
Ich bin mit "5K" also 5120x2880 unterwegs.
Seit die GPU-Beschleunigung da ist, funktioniert das "Entwickeln"-modul mit weniger Latenz bei den Einstellungen als vorher mit einer 2560x1440.

Entwickeln bei 5K, war der wirklich schlimmste Punkt vorher und deshalb hat Adobe da auch die GPU-Beschleunigung drauf gesetzt. Dürften auch die ganzen 5K-Imac-Besitzer gemerkt haben.
IMHO Alles genau richtig gemacht bei Adobe, auch wenn es von allen mit "normalen" Monitoren nicht verstanden wurde und es diese ganzen "bringt nix" Artikel gab.

Frosty, was meinst Du genau mit dem Neuberechnen der 1:1 Vorschauen?
Dass es beim Reinzoomen auf 1:1 nicht sofort scharf ist?

Ich gebe zu, dass ich auch nicht genau sehe, was die 1:1 Vorschauen wirklich bringen. Ich lasse die zwar berechnen, aber die sind ja wohl eigentlich nur für das Bibliotheksmodul und ggf. für die erste Durchsicht.
Bei der Entwicklung ändert man ja eh sofort.

Ebenso habe ich den Cache eher klein eingestellt (30 GB), da merke ich nämlich auch keinen Unterschied, ob die Cachedaten verfügbar sind oder nicht.
Habe damit schon mal ein bisschen rumprobiert.
Lightroom greift darauf zu, wenn man an die gleichen Bilder wie z.B. bei der letzten Session ran geht.
Aber wenn man die Daten entfernt, geht es halt wieder direkt ans RAW ran und die Ladezeiten verändert sich nicht merklich.
 
Frosty, was meinst Du genau mit dem Neuberechnen der 1:1 Vorschauen?
Dass es beim Reinzoomen auf 1:1 nicht sofort scharf ist?
Ja. Wobei ich die Variante meine, die nicht nur eine Sekunden dauert, weil ein vorgerendertes Bild geladen wird (wieso wird das nicht mit der Gesamtansicht im Voraus geladen? :rolleyes:), sondern tatsächlich neu gerendert wird, was deutlich länger dauert.
 
WERBUNG
Zurück
Oben Unten