Klar gibt es viele Faktoren die die Geschwindigkeit beeinflussen. Aber konkret bringt fast ausschließlich die Grafikkarte die Performance wenn es um KI bassierte Funktionen geht. Auch ältere Rechner profitieren immens von der Leistungsfähigkeit der GPU. Die CPU spielt da nur eine untergeordnete Rolle.
Und da kommt ein weiterer Faktor der Grafikkarten ins Spiel welchen nur neuere Modelle bieten. Die sogenannten Tensor Cores. Diese sind optimiert für Matrixmultiplikationen die eben bei den KI-Anwendungen von Bedeutung sind. Bei NVIDIA sind die ab der 2000er Reihe enthalten.
Ich nutze für meinen Bildverarbeitungsworkflow LR. Um die Größenordnung der des möglichen Performancegewinns zu veranschaulichen hilft vielleicht diese meine Erfahrung:
Mit mein alter PC (vor einem Defekt), ausgestattet mit einem i7-6700k mit 16 GB (3200), NVIDIA1060 und SSDs, lief LR in der normalen Bearbeitung recht flott.
Da bei mir von einem Jahr das Motherboard gestorben ist, habe ich ebenfalls aufgerüstet. i5 12600K, Board MSI Z690-A, 32 GB-RAM (3600) eine weitere schnelle SSD. Die Grafikkarte 1060 hatte ich beibehalten. Der Sprung bei Nutzung von LR war nicht sehr signifikant. Im Zuge der KI-Funktionen habe ich nun eine 3070 als Grafikkarte nachgerüstet. Der Sprung war deutlich spürbar. LR läuft ohne KI nur ein wenig flüssiger. Rechtfertigte daher für die normale Bearbeitung die Aufrüstung nicht. Aber die KI ist um Welten schneller. Meine 24 MPix Bilder brauchten mit dem aktuellen Rechner im Mittel ohne Grafikkarte ca. 300s fürs entrauschen. mit der 1060 waren es 47s und mit der 3070 sind es nun 6,5s. Den Test habe ich im Rahmen des Umbaus extra gemacht um einen Vergleich zu haben was das bringt. Zum Test habe ich jeweils die gleichen 5 Bilder mit gleicher Einstellung verwendet und die Zeit gemittelt.