• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Lightroom-Geschwindigkeit

edgarwallace

Themenersteller
Hallo zusammen,

ich hab mal eine Frage, die mich schon lange beschäftigt und die ich mir nicht wirklich beantworten kann. Warum ist Lightroom Classic so lahm?

Vor zwei Jahren habe ich mir ein neues MacBook Pro gekauft, welches eigentlich genug Leistung haben sollte. Ich hab einen 2,6 GHz Quad-Core Intel Core i7 mit 16 GB RAM, SSD-Speicher und einer Radeon Pro 460 4 GB. Tatsächlich war mein altes MacBook nicht unwesentlich schlechter. Lediglich waren die Komponenten der Zeit entsprechend älter. Ich hatte mir eigentlich nach dem Wechsel mehr erhofft, aber LRC ist nicht wesentlich performanter geworden. Ich frage mich, warum, bzw. was ich tun oder kaufen könnte, damit es besser läuft.

Ich bin Berufsfotograf und arbeite sowohl mit Raws, also auch JPEGS (Sony a7III). Die Dateien sind nicht klein, keine Frage, aber es reicht schon wenn ich diese nur bearbeite und mein über einen externen Monitor laufende ZDF Mediathek fängt an leicht zu ruckeln. Ganz schlimm ist es, wenn ich Bilder importiere/rendere oder exportiere. Das lastet die CPU und auch den RAM locker zu 75-90% aus. Einfaches Internetsurfen läuft dann nicht mehr geschmeidig. Wenn ich zwei Ordner aus Lightroom gleichzeitig exportiere ist Schicht im Schacht. Das nervt einfach und ich frage mich, ob mein System das Nadelöhr ist, was ich dann mehr bräuchte um diese Hänger zu beheben oder ob Lightroom einfach nicht besonders "sparsam" arbeitet. Ich bin drauf und dran, einen konfigurierten PC zu kaufen, weil ich hier einfach viel mehr Leistung für kleineres Geld bekomme. Nichts gegen Apple, im Gegenteil, aber 10000 Euro für einen sehr flotten iMac hab ich nicht. Zur Erklärung: Einen Office-PC oder Mac neben meinem MacBook plane ich schon länger.

Nun hoffe ich auf antworten von euch. Vielen Dank schonmal.
 
Nachtrag: Ich hab jetzt mal einen Test angestossen
AMD Ryzen 7 1700, 32Gb , Nvme-Platte;Nvidia GForce 1060 6Gb
Alle RAW auf NAS

ca 1750 Bilder exportiert
CPU-Auslastung zwischen 30 und 60 Prozent, über alle 16 CPU
Hauptspeicher konstant bei 12,4 (39%)
GPU 30 - 60%

Dazu hab ich dann mal SWR-Fernsehen (ne, ZDF tu ich mir nicht an) und dann youtube laufen lassen
LR selbst aufrufen und z.B. verkleinern reagiert träge, aber alles andere, also jetzt z.b. Schreiben, surfen, Youtube kucken, Excel läuft alles zügig.
Exportdauer ca 28 Minuten
 
Zuletzt bearbeitet:
Warum ist Lightroom Classic so lahm?

Ganz schlimm ist es, wenn ich Bilder importiere/rendere oder exportiere. Das lastet die CPU und auch den RAM locker zu 75-90% aus. Einfaches Internetsurfen läuft dann nicht mehr geschmeidig.
Entweder Du möchtest, dass LR performant ist, oder, dass der Computer hunderte Dinge gleichzeitig tut, jede halt nur mit angezogener Handbremse.

Eigentlich würde man bei gut programmiertem LR erwarten,,dass während dem Im- und Export die CPU zu 100% ausgelastet ist.

Anderersiets würde ich auch bei MacOS erwarten, dass es diese Aufgaben parallel erledigt, bei Windows ist sowas kein Problem.

U.U. ist auch das Ram komplett ausgelastet, wenn neben LR und dem Browser noch andere Programme offen sind.

Tatsächlich war mein altes MacBook nicht unwesentlich schlechter. Lediglich waren die Komponenten der Zeit entsprechend älter. Ich hatte mir eigentlich nach dem Wechsel mehr erhofft,
Nachdem Apple seine konkreten CPU-Modelle als Staatsgeheimnis betrachtet, kann man da als PC/Windows User nur raten. Aber bei der Aussage aus dem Wiki zum 2018er MacBook Pro "beim 15″-Modell wurde die Anzahl der Kerne zuletzt 2011 erhöht" darf man wohl vermuten, dass der Leistungsgewinnn von Deinem alten zum 2017er MacBook Pro nicht allzu groß gewesen sein kann. Sicherlich messbar, aber nicht offenslichtlich spürbar. Je nach Alter Deines "alten" Macbook würde ich von 20-40% ausgehen.

Erst das 2018er und dann nochmal das 2019er Modell haben massiv zugelegt, nach Apples eigener Ausaage "Das MacBook Pro bietet jetzt eine doppelt so hohe Leistung wie ein Quad-Core MacBook Pro und 40 Prozent mehr Leistung als ein 6-Core MacBook Pro". Wobei davon bei LR keine 100% Steigeurng ankommen dürfte, wenn LR den Quad-Core schon nur zu 75-90% ausnutzt.

Ich bin drauf und dran, einen konfigurierten PC zu kaufen, weil ich hier einfach viel mehr Leistung für kleineres Geld bekomme.
Finanziell mag das u.U. stimmen (es ist halt eine Desktop-CPU, die auf Leistung und nicht auf wenig Stromverbrauch "optimiert" ist. Die verbrät dann halt 95W-200W, wenn sie arbeiten soll anstatt auf 45W (oder noch weniger) beschränkt zu sein.

Ob Du vom MacOS weg möchtest und Dir neben dem Systembruch (falls Du LR auch weiterhin mobil nutzen musst/möchtest) auch noch den Aufwand mit zwei Rechnern antun möchtest, musst Du sebler entscheiden.

Wenn die 2-Rechner Lösung nicht stört, würde ich immer einen potenten Desktop und zusätzlich einen kleinne/leichten Laptop/Tablet bevorzugen. Außer natürlich, man benötigt die Rechenleistung ständig mobil, dann ist halt ein entsrpechender Laptop mit i9-9750h oder gar i9-9980HK bald mit dem entsprechendem Nachfolger fällig. Dazu dann genügend Ram und SSD und schon ist man beim Windows-Laptop schnell bei 3000€ angekommen und damit auf dem Priesniveau eines vergleichbaren MacBook Pro.
 
Wahrscheinlich ist der Apple des TO so ausgelastet, daß er derzeit überhaupt nicht ins Internet kommt, geschweige denn seinen Thread zu begleiten.
 
Teste seit einigen Wochen Lightroom, die Möglichkeit der mobilen Nutzung auf dem iPad hat seinen Charme.

Verglichen mit Capture One, dass ich seit einigen Jahren nutze, ist die Geschwindigkeit von Lightoom aber tatsächlich katastrophal schlecht, egal ob untr OSX (MBA) oder Windows 10 mit i7700K.

Es fühlt sich unerträglich langsam an, vor allem was Bildwechsel, Interaktion etc. angeht.

mfg
cane
 
Auf welchem System? Ich kann das auf meinem PC absolut nicht nachvollziehen.

Du verwendest Lightroom Classic und Capture One, beides mit aktiver GPU Beschleunigung, und Lightroom ist ähnlich responsive wie Capture One?

Viele Lightroom Nutzer sind zufrieden, wenn Sie den direkten Vergleich nie hatten...

Das System ist recht flott, alles unter Wasser mit einer Ecke mehr CPU, GPU und GPU Speichertakt:
i7700K
32 GB 3200er Speicher
GTX 1080
1TB NVM SSD, 960 EVO
1TB SATA SSD 850 EVO


mfg
cane
 
Nein ich verwende CO nicht, aber ich empfinde Lightroom weder bei Interaktionen noch Bearbeitung "unerträglich langsam."
Und das war übrigens gar nicht das Problem des TO, sondern die Erfahrung, dass bei rechenintensiven Aufgaben Apple durch LR ziemlich blockiert wird, was in meiner Konfiguration, die deiner recht ähnlich ist, nicht auftritt.
Warum müssen angebliche Besitzer andere Bildbearbeitungssoftware immer, wenn das Wort Lightroom (Oder Adobe) genannt wird, völlig unabhängig vom Problem einen Thread loslassen, dass ihr jeweiliges Programm besser/schneller/billiger/ohne Abo sei.
Ist so ähnlich wie "mein Nikon-Objektiv quietscht" - oh, ich habe das Tamron/Sigma, das ist viel schneller........
 
Ich habe CO vor einen Jahr oder so mal getestet, war nicht schneller als LR. Seitdemiist das Thema für mich abgehakt.
 
Ich habe ebenfalls parallel mit Lightroom und C1 12 auf folgenden Rechnern parallel gearbeitet:

PC mit i5 9600k, Vega 64, 32 GB DR4-3200, 970 Pro SSD (Win 10 Pro)

MS Surface Book 2 mit i5, 8 GB (Win 10 Enterprise)

MS Surface Laptop 3 mit i7, 16 GB (Win 10 Enterprise)

iMac mit i5 9600k, 580x 8 GB, 24 GB DDR4-2667

Macbook Pro 13" mit i5 2,4GHz, 8 GB

Am ehesten erinnert mich der Vergleich an die Umstellung von einer HDD (Lightroom) auf eine SSD (C1). Vorher hat man nicht wirklich etwas vermisst, aber sobald man erstmal eine SSD hat, fragt man sich, wie man mit einer HDD arbeiten konnte.

C1 läuft auf dem Mac besser als auf Windows. Lightroom läuft auf Windows etwas besser als auf dem Mac - so mein Gefühl.

Bei den Firmengeräten (MS Surface) hätte ich noch verstehen können, das diverse Zusatzsoftware den Rechner verlangsamt. Aber gerade im Vergleich zum frisch aufgesetzten Desktop-PC ist es schon erstaunlich, wie viel schlechter Lightroom läuft.

Bei vielen Tutorials im Netz sieht man dieses Phänomen ebenfalls.

Ich bin daher vollständig auf C1 gewechselt.
 
Am ehesten erinnert mich der Vergleich an die Umstellung von einer HDD (Lightroom) auf eine SSD (C1). Vorher hat man nicht wirklich etwas vermisst, aber sobald man erstmal eine SSD hat, fragt man sich, wie man mit einer HDD arbeiten konnte.

Sag mir doch bitte, was ich kaputtmachen muß, damit bei mir LR auch so "katastrophal schlecht" läuft. Ich will das auch mal erleben.

Bei vielen Tutorials im Netz sieht man dieses Phänomen ebenfalls.

Sieht man sich die Kommentare unter den entsprechenden Videos an, ist das bei weitem nicht bei allen so…

Edit: Sowohl System, als auch Daten und LR-Katalog liegen je auf einer SSD.
 
Zuletzt bearbeitet:
Ich bin Berufsfotograf und arbeite sowohl mit Raws, also auch JPEGS (Sony a7III). Die Dateien sind nicht klein, keine Frage, aber es reicht schon wenn ich diese nur bearbeite und mein über einen externen Monitor laufende ZDF Mediathek fängt an leicht zu ruckeln. Ganz schlimm ist es, wenn ich Bilder importiere/rendere oder exportiere. Das lastet die CPU und auch den RAM locker zu 75-90% aus. Einfaches Internetsurfen läuft dann nicht mehr geschmeidig. Wenn ich zwei Ordner aus Lightroom gleichzeitig exportiere ist Schicht im Schacht. D

Das ist normal, beim Exportieren krallt sich LR alles an CPU Leistung was es bekommt, damit es schneller geht, früher war das nicht der Fall, da hat dann jeder gemeckert, wie lange der Export dauert.

Ich nutze eine 8 Jahre alte I5 CPU 2 Kerne auf einem Laptop ohne SSD und kann mich über die Gesamtperformance nicht beklagen, klar Bilder rendern dürfte etwas schneller sein, wenn man ins Entwickeln Menü wechelst, aber die Regler reagiereren schnell genug.
 
N‘Abend,
bislang lief mein LR6 hinreichend schnell.
Seit dem Frühjahr - in dem ich einen 4k Monitor kaufte - läuft es eher zäh. Die Smart-Vorschauen bringen es nicht mehr, da sie auch schon ordentlich gross sind, und die RAWs sind erst recht lahm.
Nun denke ich drüber nach, meinen 2012er i5 mal in Rente zu schicken. Permanent ist die CPU-Auslastung am Anschlag. Und das ist für mich ein guter Hinweis darauf, dass nicht nur beim Import/Export eine Mehrkern-CPU unterstützt wird, sondern auch beim Blättern und Entwickeln. Daher wird es wohl ein i9-9900ks oder Ryzen 3900x werden. Alles Andere wird mir zu teuer ...
 
Seit dem Frühjahr - in dem ich einen 4k Monitor kaufte - läuft es eher zäh. ...
Nun denke ich drüber nach, meinen 2012er i5 mal in Rente zu schicken. Permanent ist die CPU-Auslastung am Anschlag.
Du hast das Problem selbst genannt, den 4k-Bildschirm! Da ist es unter Umständen deutlich wirkungsvoller, eine Grafikkarte mit DirectX 12 einzusetzen, damit LR auf deren Hardware für diverse Funktionen zurück greifen kann. Eine neue CPU bringt deshalb eventuell nicht viel, außer Du nutzt eine mit integriertem Grafikkern der entsprechend nun auch DirectX 12-fähig ist, was bei deinem alten i5 definnitiv nicht der Fall ist.
 
Na ja, der PC ist ja ab-und-an mal aufgerüstet worden. So kamen SSDs hinein (eine explizit für LR) und die GraKa wurde 2-3 mal erneuert. Derzeit ist eine NVidia Quadro K2200 drin; nicht mehr der neueste Schrei, aber dennoch sollte die wohl für LR ausreichen, oder?

Der Treiber sagt, sie wäre DirectX 12.0 tauglich.

Die GPU-Auslastungskurve schlägt während der Entwicklung nur ein paar Prozent aus, stärker wird es wenn man hinein zoomt und den Ausschnitt ordentlich verschiebt; dann werden es auch 30% und mehr.
 

Anhänge

  • NVidiaQuadroK2200LR6Auslastung.jpg
    Exif-Daten
    NVidiaQuadroK2200LR6Auslastung.jpg
    29,5 KB · Aufrufe: 14
Zuletzt bearbeitet:
Hallo erneut,

ich bin ja immer wieder am schwanken, ob ich denn den ach so gehypten Ryzen 9 3900X nehme, oder eher einen i9-9900KS.

Ich habe nun auf meiner Gurke mal einen unwissenschaftlichen Test gemacht, um den Einfluss meiner GraKa und die Skalierung über die CPU-Kerne tendenziell heraus zu finden.

Was mich an allen vorhandenen Benchmarks gestört hat, war die Tatsache, dass das Errechnen von Smart-Vorschauen, wie auch der Export das Bild in meinen Augen verzerrt hat. Warum? Weil ich a.) Smart-Vorschauen nicht wirklich als Steigerung der Performance begreife, da die auf einem 4k Monitor halt nicht mehr so "smart" ausfallen. Und b.) der Export auch unbeaufsichtigt, gerne über Stunden laufen kann. Da bin ich ja nicht aktiv gefordert und sitze auch nicht zum Händchen halten am PC. Das schafft der schon alleine...

So habe ich nun mal von 4 über 3/2/1 Kerne runter geschaltet und das einmal mit und einmal ohne die Grafikbeschleunigung in LR6.

Gemessen habe ich da, wo ich am längsten Wartezeit habe: Im Entwicklungsmodul, wenn ich von Bild zu Bild hüpfe und auch mal reinzoome (und dabei auf das Entrauschen etc. warte...)

Meine CPU ist ein i5-2500k auf 4,2 GHz Takt
Mit GPU (NVidia Quadro K2200)
4 Kerne 27 s
3 Kerne 30 s
2 Kerne 35 s
1 Kern 58 s

Ohne GPU
4 Kerne 29 s
3 Kerne 32 s
2 Kerne 37 s
1 Kern 60 s

Man sieht also, das LR zwar über die Anzahl der Kerne skaliert - das aber leider nur leidlich gut.

Und die Beschleunigung der etwas betagten GPU ist zwar messbar, bleibt aber auch immer konstant.

Die Fragen, die sich mir nun stellen:
- Könnt ihr ähnliches Zeitverhalten nachstellen?
- Habt ihr eine stärkeren Einfluss der GPU?

Und in der Konsequenz:
- Lohnt sich wirklich ein 12kerner, wenn man nur die Arbeit im Entwicklungsmodul betrachtet? Wohl eher nein.

Ich bitte um feedback und Teilnahme!
Gruß, Heiko
 
Zuletzt bearbeitet:
Heiko, du hast wohl einige Werte (i.e. 6 von 8) vertauscht?
Ansonsten guter Praxistest, für viele User mit mehr Aussagekraft als so mancher hochkomplexer Profi-Benchmark.
 
WERBUNG
Zurück
Oben Unten