• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

PC Konfiguration welche Grafikkarte?

Status
Für weitere Antworten geschlossen.
Ne gebrauchte RTX 3060Ti hätte da vermutlich schon mehr als genug Dampf, auch wenn die Dateien mal größer werden.
Würde ich so nicht sagen, wie @Frosty schon schrieb ist die GPU erstmal zweitrangig. Primär nutzt jedes Programm erst mal nur CPU und RAM, erst sekundär kommt die GPU ins Spiel. Aber das wäre zu einfach, denn was nämlich immer untern Tisch gekehrt wird ist die Anbindung der drei Komponenten unter sich und welche Codecs werden nativ unterstützt. Das A und O ist immer noch der Speicher, Hier kannste immer noch die Faustformel ‚unkomprimierte Dateigröße x 3‘nutzen
 
Mainboard: MSI Z790 Tomahawk WiFi6 DDR5
CPU: intel Core i7-13700 8x 2,1GHZ 16 Kerne 8x 2,1GHz/ 8x 1,5GHz
Arbeitsspeicher: 32GB DDR5-5600 Kingston Fury Beast 2x16GB oder evtl. 64GB DDR5-5600 Kingston Fury Beast 2x32GB
Grafikkarte: Nvidia RTX4070 Gigabyte Gaming OC 12GB GDDR6X
Ich hoffe nichts wesentliches vergessen zu haben.

Jetzt bin ich mal gespannt was die Profis zur Konfiguration sagen.
Ich habe mir auch nach vielen Jahren kürzlich neue Hardware gegönnt, hier ist es der i7-12700K geworden auf einem Gigabyte Z690 UD DDR4 mit 32 GB RAM, 1TB SSD plus 4 TB HDD. CPU und Chipsatz könnten auch DDR5, der Spaß kostet aber um die 100 Euro mehr, die IMHO woanders besser angelegt sind. Z. B. mehr RAM, größere/weitere SSD, besserer Monitor, Backupplatte.
GPU-relevante Software hier: Lightroom und Luminar. Grafikkarte kommt noch, warte auf Preissenkungen, wird wahrscheinlich ne 3060 mit 12 GB.
 
Aufpassen, die 3060 in 8 und 12GB hat keinen x Vram, das hat nur die TI Version.
GDDR6x ist doppelt so schnell wie ohne x, deswegen ist die TI überlegen.
Für Spiele stimme ich dir vollkommen zu. Die TI kostete allerdings noch im letzten Jahr so
viel mehr, dass ich zur 3060 mit 12 GB VRAM gegriffen habe und das ist unter allen meinen
Bildbearbeitungsprogrammen schnell genug.
Beispiel: die neue Entrauschung unter LRC geht braucht ca. 15 Sekunden.
Prozessor i5 / 11400 reichte da auch.
 
Hier ein Test vom Herbst 2020 zum Tempo in Lightroom mit diversen Grafikkarten von der iGPU einer Intel CPU bis zur High-End-Grafikkarte RTX 3090: https://www.pugetsystems.com/labs/a...-geforce-rtx-3070-3080-3090-performance-1953/
Zumindest damals war der Leistungsgewinn einer separate Grafikkarte gegenüber der iGPU der getesteten Intel-CPU kaum der Rede wert. Das kann sich allerdings bei irgendeiner (neuen?) Funktion inzwischen geändert haben. Einen neueren Tests dieser Art gibt es da aber aktuell nicht.
Soviel auch zum Thema VRAM-Bestückung.
 
Primär nutzt jedes Programm erst mal nur CPU und RAM, erst sekundär kommt die GPU ins Spiel.
Eine mir viel zu pauschale Aussage! Wenn in einem Programm eingestellt werden kann. welche Hardware zur Bewältigung einer Aufgabe genutzt werden soll, dann wird genau diese eingestellte Hardware verwendet. DXO-PhotoLab ist z.B. so ein Kandidat wo konkret festgelegt werden kann welche Hardware (CPU oder GPU) genutzt werden soll. Bei Wahl der der GPU als Recheneinheit wird im Fall des Falls sofort die GPU belastet während die CPU so gut wie gar nichts zu tun hat. Selbst wenn "automatische Erkennung" ausgewählt wurde, macht DXO mit der Hardware einen einmaligen Test und nutz dann immer und sofort die kompatible und schnellere Hardware.
 
Der Test von Pudgetsystems ist wirklich haarsträubend. Wenn man sich in der Liste ansieht, was getestet wurde, sind das in erster Linie Funktionen, die die GPU kaum oder gar nicht beanspruchen. Dann muss man sich nicht wundern, wenn sich die Ergebnisse kaum unterscheiden.
Der gleiche Quatsch, wie deren Photoshop Tests.
Ist etwa so, als würde man die Beschleunigung eines Porsche und eines 50 PS Autos im freien Fall vergleichen. Komisch, der Porsche ist ja gar nicht schneller...
 
Das ist aber eine ziemlich lange Liste, getestet mit reichlich unterschiedlicher Hardware und dazu mit exakten Meßwerten.
Mir sind keine Tests bekannt, die an diese Qualität herankommen oder gar besser und damit aussagekräftiger wären. Du kannst gerne ergänzende Tests verlinken, die, die dort nicht getesteten GPU-lastigen Funktionen behandeln und ebenfalls aussagekräftige praxistaugliche Meßwerte zeigen.
Wie schon mehrfach erwähnt, kommt es eben auf die verwendeten Funktionen und deren Zeitanteil bei der Anwendung an. Wenn Du zu einem erheblichen Zeitanteil Funktionen nutzt, die dort nicht getestet wurden, bringt dir das vielleicht nichts, aber das erkennst Du dafür eben auch gut, weil da präzise Meßwerte zu jeder getesteten Funktion stehen und nicht irgendein praktisch nutzloser Durchschschnittsbenchmarkscore für 15 verschiedene Funktionen. Für mich ist o.g. Test durchaus hilfreich, weil ich die Funktionen, die auf die GPU setzen, mutmaßlich überwiegend nicht verwende. Mutmaßlich, weil ich außer beim (nach)rendern von Fotos keine Zeitverzögerungen in LR bemerke obwohl ich nur eine bescheidene Grafikkarte im Rechner habe.
 
Zuletzt bearbeitet:
Und mit den Entwicklungen der letzten Jahre ist ein GPU Test von 2020 nicht mehr aussagekräftig.
Für die große Mehrheit der Funktionen, die schon damals in LR vorhanden waren, also über 90 Prozent (?), vermutlich doch.
Daß ein Programm neue Funktionen hat, bedeutet nicht automatisch, daß man sie auch nutzt. Mit den großen Programmen Lightroom und Photoshop ist es wie mit MS Excel. Die vermutlich Meisten nutzen kaum mehr als eine überschaubare Anzahl grundlegender Funktionen und viele vor allem spezielle Funktion brauchen und nutzen sie auch nach 10 Jahren noch nicht.
 
Zuletzt bearbeitet:
Die Liste ist lang, aber es sind eben keine Funktionen, die die GPU in besonderem Maße beanspruchen. Das macht für einen GPU Test wenig Sinn. Wenn man selbst sowie kaum GPU - Funktionen nutzt, bringt so ein Test auch nicht viel. Da würde ja schon eine Liste ausreichen, die die GPU-Funktionen auflistet, da ja bei den Funktionen ohne GPU die Zeiten eh gleich sind.
Bei der veröffentlichten List sollte Pudgetsystems zumindest dazuschreiben, welche Funktionen die GPU überhaupt nutzen.
Da testet man die Panoramafunktion, die keinerlei Berechnungen auf die GPU auslagert, oder konvertiert RAWs in DNG. Auch ohne GPU Beteiligung. Das sind nur 2 Beispiele. Außerdem ist der Test mit einer alten Lightroom Version gemacht worden.
Man kann ja gerne einen allgemeinen Lightroom Performance Test machen, aber doch bitte nicht GPUs vergleichen anhand von Funktionen ohne GPU Beteiligung.
Ich würde gerne einen besseren Test verlinken, aber ich kenne leider überhaupt keinen LR Test, der die GPU Funktionen testet. Höchstens von einzelnen Usern in diversen Foren.
 
Bei der veröffentlichten List sollte Pudgetsystems zumindest dazuschreiben, welche Funktionen die GPU überhaupt nutzen.
Das wäre vielmehr eine Aufgabe für Adobe denn die wissen es, behalten es aber weitestgehend für sich. Von Adobe gibt es kaum nützliche Kommentare, aus denen abgeleitet werden kann, wo was für eine GPU wieviel gegenüber Vergleichssystem X mit schwächerer (interner) Grafik bringen würde bzw. was hier und da die GPU-Nutzung überhaupt gegenüber der vorwiegenden CPU-Nutzung bringt außer etwas für die Marketingabteilung.
Dann hätte es auch Pudgetsystem leichter und könnte sich sparen, manche der Tests durchzuführen, anstatt durch ihre Tests herauszufinden und zu zeigen, wo die GPU (inzwischen) eine Rolle spielt und wo nicht.
Und uns hier in der Diskussion würde es ebenso helfen. Aber Adobe rückt mit den Infos nicht raus. Wird wohl Gründe haben. :rolleyes: Eigentlich sollte man davon ausgehen, dass sie damit offensiv umgehen, wenn es so viel bringt, wie manche spekulieren. Und so muss man sich schon auf eine einzelne Funktionen beschränken um eine Aussage zu treffen, da bringt die externe Grafikkarte ab Generation X und Leistungsklasse Y etwas und da und da ist sie weitestgehend nutzlos. Natürlich mit der regelmäßigen Einschränkung, daß man diese Funktionen dann auch entsprechend stark nutzen muss, damit sich der Zeitgewinn ausreichend aufsummmiert und sich die nicht unerheblichen Extraausgaben lohnen.
Außerdem sind da auch Tests bei, bei denen die GPU offensichtlich eine Rolle spielt, da zwischen der iGPU der Intel-CPU und den Grafikkarten hier und da Zeitunerschiede von bis zu etwas über 100 Prozent vorliegen. Nun gut, aber auch wirklich nur zwischen der iGPU und dem versammelten Rest insgesamt. Was ein Hinweis darauf ist, daß es manchmal schon etwas bringt, eine etwas ältere Grafikkarte der unteren Mittelklasse einzubauen, es aber dann im Weiteren aber irrelevant sein kann, wie leistungsfähig diese ist, weil manche Funktionen innerhalb der Grafikkartengenerationen mit einem Standardtempo abgearbeitet werden.
 
Ich hatte eine AMD RX6600XT mit 8GB Speicher und bin zufällig günstig an eine RX6700XT mit 12 GB Speicher gekommen. Die 6700 hat, wenn man YT glauben darf noch etwas mehr Speed als die 3060 mit 12 Gb (ohne TI) aber ich bemerke zwischen der 6600 mit 8GB und der 6700 mit 12GB keinen Unterschied in der LR Entrauschung was die Geschwindigkeit angeht. Evtl. steigert sich das nochmal bei deutlich teureren und schnelleren Karten aber ne 6600XT kriegt man mittlerweile für schmales Geld und wenn man nicht in 4k den Flight Simulator zocken will, ist die meiner Erfahrung nach ein guter Kauf. Das verlustfrei komprimierte RAW einer A7RV benötigt ca. 50 Sekunden bei der LR Entrauschung, bei beiden Karten dreht der Graka Lüfter deutlich hoch und wird mal kurz sehr laut. Deutlich schneller ist die Entrauschung mit DX0 (V. 2 und 3 sind gleich), da lande ich beim gleichn Bild bei ca. 15sec. mit Deep prime (ohne XD). Und viel Geld für ne Graka auszugeben, damit LR schneller entrauscht, da kann man ja ggf. auch ne Lizenz für DX0 kaufen. Zumal es schwierige Fälle gab, bei denen ich die Ergebnisse noch etwas besser fand.
 
Und viel Geld für ne Graka auszugeben, damit LR schneller entrauscht, da kann man ja ggf. auch ne Lizenz für DX0 kaufen.
Ich frage mich ja, was da bei LRc/ARC noch an Verbesserung kommt in absehbarer Zeit. Dann könnte man sich sowohl eine neue GraKa und eine alternative Software sparen.
 
ich könnte auch von unserer Firma einen HP PC bekommen, ausgestattet mit i7 12700 + UHD 770 / 32GB, den ich Privat für LRC nutzen würde.
Laufen denn mit der integrierten GK die meisten Funktionen, auch die neuen Maskierunsfunktionen, recht zügig?
 
Zuletzt bearbeitet:
Hallo @Frosty ,
ich danke Dir sehr für den link zum LR-Test! Wenn man tiefer in die Tabelle schaut, dann findet man auch Daten, die auf GPU-Unterstützung verweisen, und bei denen die Grakas differieren. Ich habe mich für eine gebrauchte 3080 (10 GB) entschieden - die ist auf dem Preisniveau der 4060er und 3070er, aber hat mehr und schneller angebundenen Speicher. Die Beschleunigung bei LR ist bislang die stärkste, die ich erfahren habe - "KI-Entrauschen" bei 24 MP dauert bei 24 MP etwa 5s (auf der alten 1060 3 GB: 50s). Die Anzeige der 24 MP-Bilder erfolgt jetzt unmittelbar auf meinem 4K-Monitor, selbst wenn die Bilder nicht im Cache sind (ich also mal zu älteren Fotos wechsle). ich bin also sehr zufrieden.
Hallo @casimero ,
ich bin schon länger bei einer Graka. Ich hatte zwischendurch mal Probleme mit den Treibern von NVidea bei meiner 1060, und hatte da auch mal notgedrungen die Beschleunigung abgeschalten, allerdings unter LR 6.14. Das machte dann keinen Spaß mehr, damit (im Entwicklungsmodul oder der Vorschau auf einem zweiten Monitor) zu arbeiten. Das wird wohl unter LrC nicht viel besser sein. Ich habe einen i12600K, bei dem ich mich über das Plus an Leistung freue, also ein ähnliches System wie Deines.
Es muß natürlich keine 3080 sein, um von der GPU-Unterstützung zu profitieren. Für das halbe Budget gibt es schon o. g. Alternativen. Da ich ein ausreichend dickes Netzteil (MSI 750W) und auch ein passendes Gehäuse und Kühlkonzept habe, konnte ich mir so eine GraKa einfach einbauen. Bei "business PC's" würde ich erwarten, dass Du erst mal von der maximalen Einbaugröße her messen mußt, und dann möglicherweise auch an neues Netzteil und Gehäuselüfter denken solltest.
 
ich könnte auch von unserer Firma einen HP PC bekommen, ausgestattet mit i7 12700 + UHD 770 / 32GB, den ich Privat für LRC nutzen würde.
Laufen denn mit der integrierten GK die meisten Funktionen, auch die neuen Maskierunsfunktionen, recht zügig?
bin jetzt weg von diesem HP Komplettrechner und plane einen Vor Konfigurierten Rechner zu bestellen.
Stehe jetzt vor der Entscheidung einen AMD Ryzen 7 5700X / 32GB DDR4 entweder mit der Geforce RTX 4070 (12GB) oder AMD 6800XT (16GB) zu bestellen.

Hat eine von beiden Vorteile in Lightroom?
3 Monitore mit FullHD bzw. bald WQHD, gespielt wird an dem PC nicht.

Von der 4070 habe ich jetzt öfters gelesen, daß der Verbrauch "wohl" 50% niedriger sein soll.
Mein Rechner dümpelt oft den ganzen Tag im Idle Zustand, da ich ab und zu vom Office mit Teamviewer auf den Home Rechnen zugreifen muß.
 
Von der 4070 habe ich jetzt öfters gelesen, daß der Verbrauch "wohl" 50% niedriger sein soll.
Gegenüber der 4090 stimmt das, ggü. anderen nicht. Die 4070 hat ne TDP von 200 Watt
Ich bin mit AMD noch nie so richtig Warm geworden, immer war irgendwas, die Treiber eine Katastrophe.
Mit nVidia fahre ich die letztn Jahre gut. Für LR reicht die 4070 satt aus.
 
Hatte mit keiner Grafikkarte Treiberprobleme, ok die (meine) Anfangszeit Mitte/Ende der 90er war schon... naja...:rolleyes:
Aber alles danach lief ohne Probs
Voodoo3, Kyro II, sowie div. nVidia und ATi/AMD Chips...
Die RX470 lief 1A und meine aktuelle RX5700 läuft auch ohne Murren.
Da ich aber keine Adobe nutze kann ich nichts zu deren Leistung dort sagen.

Nur das die Treiber "eine Katastrophe" sind, kann ich so nicht bestätigen
 
Zuletzt bearbeitet:
Leute, bleibt doch bitte beim Thema
Wenn ihr allgemein über alte Zeiten und Grafikkarten schwadronieren wollt, macht das bitte woanders
 
Mein neuer PC (i9 12900, 32 GB DDR5) hat eine Nvidia RTX 3070 (8GB VRAM). Für unsere Fotoanwendungen (z.B. KI-Entrauschung) hat die genug Bums.
Zu Spielen kann ich nur wenig sagen, aber der Flight Simulator meint, der Rechner sei sehr gut geeignet auch auf 4K Monitor.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten