WERBUNG

LrC - Benchmark KI-Entrauschen

Vielen Dank auch von mir an @MichaelN für das zusammentragen der Testdaten ! :) (y)
Ich hatte mir vor einiger Zeit nur wegen der technischen Daten eine 3080 gekauft (die es gebraucht gut reduziert gibt). Mein Grundgedanke war folgender:

Rechenbeschleunigung beim Rendern (wie in LrC):
1) Hochladen der Daten
2) Verarbeiten der Daten
3) Herunterladen der Daten
Rechenbeschleunigung in Spielen:
1) Herunterladen aller Daten oder nur Teildaten (nur Texturen in voller Auflösung anfordern, so diese in solcher gebraucht werden)
2) Verarbeiten der Daten (hier kann mit DLSS und FSAA etc etliches "weggelassen" werden)
3) Ausgabe an Grafikeingang (geht nicht über Speicherinterface)

Egal ob die Codes von Adobe optimiert sind oder nicht, die Daten müssen zweimal über den PCIe-Bus. Und da die neue 40er Serie von NVidea in dieser Hinsicht ein ordentlicher Schritt zurück war, tut sich dort ein Flaschenhals für "unsere Zwecke" auf; trotz fast verdoppelter Rechenleistung seitens der GPU (4070 zu 3070 usw. usf.) dauern die Benchmarks fast genauso lange (gut 5s Zeitgewinn). Auf einmal wird die 30er Serie zum "sweet spot" - und der Faktor Preis/Leistung ist - von high end mal abgesehen, eine waagerechte Linie. Ich bin froh, einen Datensatz beigetragen zu haben, und freue mich dank der großen Beteiligung über das entstandene Gesamtbild.
 
Ich glaube nicht, das der PCIe Bus den (Nicht)-Unterschied zwischen 40er und 30er ausmacht. Dann würde nicht fast genau die gleiche Geschwindigkeit raus kommen. Ich glaube die Generation ist für die von LR genutzten Funktionen egal und der ausschalggebende Faktor ist die "Klasse", also xx60, xx70, xx80 oder xx90. Zumindest wenn der Vergleich nur über 2 benachbarte Generationen geht. Vielleicht kann ja jemand mit mehr Hardware Kenntnissen mal etwas dazu sagen, wo der Unterschied und die Gemeinsamkeiten bei 4090/3090, 4070/3070, 4060/3060 liegt.
 
... Vielleicht kann ja jemand mit mehr Hardware Kenntnissen mal etwas dazu sagen, wo der Unterschied und die Gemeinsamkeiten bei 4090/3090, 4070/3070, 4060/3060 liegt.
Zu den Nvidia GPUs gibt es eine gute Übersicht bei Wikipedia. Der spannende Punkt für die AI sind die sogenannten Tensor Cores. Da sieht man schon in etwa die Verhältnisse der Grafikkarten zueinander. Das Umfrageergebnis bei den GPUs mit Tensor Cores entspricht auch in etwa dem Verhältnis wie es in der Wikipedia-Tabelle zu sehen ist.
Alle anderen Faktoren spielen da aktuell eine untergeordnete Rolle. Zumindest bei Nvidia scheinen die Grafikkarten durch die Bank weg ganz gut unterstützt zu werden.
 
Zu den Nvidia GPUs gibt es eine gute Übersicht bei Wikipedia. Der spannende Punkt für die AI sind die sogenannten Tensor Cores. Da sieht man schon in etwa die Verhältnisse der Grafikkarten zueinander. Das Umfrageergebnis bei den GPUs mit Tensor Cores entspricht auch in etwa dem Verhältnis wie es in der Wikipedia-Tabelle zu sehen ist.
Aus der Wiki-Tabelle werde ich nicht ganz schlau, aber hier hat eine 4090 doch deutlich mehr Tensor Cores als eine 3090. In der Auswertung #69 liegen sie aber gleich auf.
:unsure:
 
Die Anzahl der Ternsor Cores, deren Taktrate und teils auch die Generatrion der Tensor Cores sind der wesentliche Faktor für die Geschwindigkeit.
Aber es sind nicht alle Faktoren. Um die Performance auch einigermaßen ausreizen zu können, sollte die Gesamtkonfiguration auch passen. So z.B. Bilder lokal auf dem PC auf einer SSD und nicht über Netzwert oder von einer verdammt langsamen Festplatte. So eine einigermaßen zeitgemäße CPU der letzten 5 bis 7 Jahre und eine sinnvolle Aufteilung auf die Steckplätze im PC. Der RAM sollte auch nicht zu klein sein. Dann noch aktuelle Treiber. Und so sollten die 4090 dann schon etwas schneller sein als die 3090. Allerdings wenn man bei Wikipedia schaut, hat die 3090 ein Tensor Compute (FP16) ein Rechenleistung von bis zu 285 TFLOPS. Die 4090 bis zu 330 TFLOPS. Die Unterschiede sind also gar nicht sooooh groß.
 
@ Marco, im Detail magst du recht haben. Mir kam es eher auf die Gesamtaussage an, dass es eben noch weitere Faktoren gibt. Ich hab auch schon langsamer und sehr fragmentierte Festplatten gesehen. Bei der CPU-Generation glaube ich nicht an einen signifikante Einfluss. Zumindest hatte ich da bei meinem i7 6700K nichts negatives festgestellt. Leider musste ich diese wegen einem Defekt des Motherboards tauschen und das war vor KI-Entrauschung.
 
Marco bei Dir limitiert da doch die CPU und der Datenträger :unsure:
Wenn beide schon bei 100% sind kann der RAM ja nicht mehr wegschaffen.
 
Ich finde diesen Thread sehr spannend. Ich habe anhand des sehr schlechten abschneidens meines aktuellen Rechners von 57min, einen neuen Rechner gekauft.
- ASUS ProArt Z790-Creator WIFI
- Corsair Vengeance 4 x 16GB, 7200 MHz, DDR5-RAM
- Intel Core i9-14900K
- ASUS GeForce RTX 4070 Ti ProArt OC Edition

Muss ihn jetzt noch richtig Konfigurieren... aber der Zeitgewinn ist jetzt schon beachtlich

Ich bearbeite und entrausche hauptsächlich einzelne Bilder.

Klar zieht ein high performance PC mehr Strom. Aber was ist günstiger, 20s mit 800 Watt oder wie vorher 25min mit 300 Watt?

Für mich ist klar... Zeitgewinn ist viel wertvoller
 
Zuletzt bearbeitet:
Klar zieht ein high performance PC mehr Strom. Aber was ist günstiger, 20s mit 800 Watt oder wie vorher 25min mit 300 Watt?…
Das Problem ist die Art der Nutzung in der übrigen Zeit, d.h. vier, acht, sechzehn Std/Tag?!
Beispielsweise für Dauergaming wäre das Verhältnis 800 W zu 300 W völlig ok, hingegen für 'normale' Bürotätigkeiten, wie 'klassische' 2D-Bildbearbeitung, läge der Verbrauch (durchschnittlich) eventuell bei 300 W zu 30 W (je nachdem wie oft die Grafikkarte 'hochfährt').
 
Das Problem ist die Art der Nutzung in der übrigen Zeit, d.h. vier, acht, sechzehn Std/Tag?!
Beispielsweise für Dauergaming wäre das Verhältnis 800 W zu 300 W völlig ok, hingegen für 'normale' Bürotätigkeiten, wie 'klassische' 2D-Bildbearbeitung, läge der Verbrauch (durchschnittlich) eventuell bei 300 W zu 30 W (je nachdem wie oft die Grafikkarte 'hochfährt').
Ich kann deine Argumentation nicht ganz nachvollziehen. Aber egal welche Highend-GPU Du da eingebaut hast - wenn deren Leistung nicht gebraucht wird, z. B. Beim Office, dann braucht die auch keine 300W-800W

Meine GPU braucht bei normaler Nutzung nur 25W
 
WERBUNG
Zurück
Oben Unten