• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Mai 2025.
    Thema: "Grün"

    Nur noch bis zum 31.05.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

LrC - Benchmark KI-Entrauschen

...
 
Zuletzt bearbeitet:
@Marco R. Ich weiß nicht warum du hier so rum grantelst. Du musst diesen Thread nicht lesen.

Wenn du ihn gelesen hättest, dann wüsstest du, dass ich ganz bewusst das Versuchsdesign so ausgelegt habe, dass es a) ein schneller Test ist und b) die Messungenauigkeit durch Rundung auf 2 Sekunden adressiert wird. Hier ist also nichts falsch. Nur von dir falsch verstanden.

Niemand (sic!) wird seine 1 Jahre alte GPU für 1200€ gegen eine für 1800€ austauschen, um 2 Sekunden pro Bild zu sparen. Daher ist das Versuchsdesign absolut valide und plausibel.
 
Die Testergebnisse sind aus meiner Sicht sehr brauchbar. Kurz zusammengefasst: Die Performance liegt fast ausschließlich bei der GPU und jeder kann grob einschätzen wohin die Reise mit welcher Grafikkarte geht.
In Folge kann doch jeder entscheiden wie viel Geld ihm die Performance Wert ist. Es ist ja auch keine Überraschung, dass die neueste Super-Duper-Grafikkarte nun mal schneller ist. Manch einer kann auch gut mit einer Grafikkarte leben die irgendwo im Mittelfeld ist und muss keine 1000 € und mehr invertieren. Aber wenn ich schon in eine Grafikkarte investiere, dann möchte ich doch wenigstens ungefähr wissen wo ich hinkomme. Ich persönlich hätte mir so einen Test vor rund einem viertel Jahr gewünscht. Habe nach mühevoller Recherche eine Idee gehabt wo ich mit meiner neuen Grafikkarte hinkomme. Zum Glück ging es nicht daneben.
Also Danke an Michael!
 
Zuletzt bearbeitet:
Das relativiert aber auch die Aussage, man könne Geld sparen bei kleinen Sensoren wie mFT, weil deren Gerausche mittel Software rausgerechnet werden könne. Klar, geht, aber entweder hat man viel Geld oder viel Zeit. Wenn ein Laptop angeschafft werden möchte, wird die Auswahl recht übersichtlich, was unterstützte GPU betrifft. Ich verkürze es mal: Entweder ich gebe das Geld für einen großen Sensor aus und spare am Rechner, oder ich spare an der Sensorfläche, gebe das Geld für die GPU aus und warte trotzdem auf eine per KI schöngerechnetes Foto.

Mein Arbeitgeber hat vor drei Jahren sehr viel Geld für einen sehr potenten Rechner mit einer sehr teuren Grafikkarte ausgegeben. Die wird nicht mehr von Adobe unterstützt. Das ernüchtert mich doch deutlich.
 
Bist du irgendwie auf Missionierung? Ich habe Daten gesammelt und präsentiert. Punkt. Welche Schlüsse jemand daraus zieht ist mir total egal und IMHO auch nicht das topic dieses Threads.
 
Also ich finde die Idee, den Test und die Aufarbeitung der Ergebnisse klasse. Erst mal ein Kompliment für die Mühe.

Das die Ergebnisse leicht schwanken können liegt in der Natur der Sache. Und klar kann der Stromverbrauch ebenfalls ein wichtiges Kriterium sein.
Das aber weniger auf die Stromkosten bezogen. Damit machen wir uns lächerlich. Vielmehr bezogen auf den Akku, falls man mobil unterwegs ist.
Das ist aus meiner Sicht mehr für Laptops relevant. Bei den Laptops wäre auch interessant, ob sie während des Tests am Netzteil waren oder nicht.
Intel-Basierende Systeme regeln die Leitung runter, falls sie nicht direkt am Strom angeschlossen sind.
Da hat Appel mit den M-Chips aktuell die Nase vorn, auch wenn sie bezogen auf die pure Leistung hinten liegen.
Sie sind unglaublich effizient.

LG
Pixelmotiv
 
Mich würde mal die Leistung der aktuellen mobilen Ryzen-Prozessoren mit 680M-iGPU bzw. sogar mit RyzenAI interessieren, hat sowas jemand im Einsatz?
 
Das aber weniger auf die Stromkosten bezogen. Damit machen wir uns lächerlich.
Bei meiner RTX3070 habe ich das so eingestellt, dass sich die erst hochtaktet und die Corespannung anhebt, wenn Leistung gebraucht wird. Also in 99,x% der Seit läuft die mit wenigen Watt, die Lüfter sind aus und die Temperatur liegt weit unten.
Ich vermute, dass solche Modis bei quasi allen Grafikkarten aktiviert werden können. Lediglich die Peakleistung sollte das Netzteil können. Und da muss man halt ein bisschen drauf achten, dass man ein Netzteil kauft das auch bei kleiner Leistung noch relativ effizient arbeitet.
 
So, hier nun die Auswertung. Sortiert nach Anzahl Sekunden für den kompletten Benchmark.
Overclocking scheint bei LR Anwendern kein großes Thema zu sein, da gab es nur 2 Meldungen. Daher habe ich das nicht extra ausgewertet.
Verschafft euch selbst einen Überblick, aber nach meiner Analyse ist sowohl die CPU als auch die RAM-Größe für diesen Test bedeutungslos.
Einzig und allein die GPU bestimmt die Geschwindigkeit. Das mag etwas anders aussehen, wenn das Gesamtsystem nichtt aufeinander abgestimmt ist und z.b. eine 4090 mit PCIe3 betrieben wird. Aber das kann ja mal ein anderer erforschen.

Code:
Zeit [sec]    CPU    GPU    RAM
20    R9 7950x3D    RTX4090 24GB    64GB DDR5-RAM
20    R9 5950x    RTX3090 24GB    32GB DDR4-RAM
30    i9-12900K    RTX4070 TI 12GB    64GB DDR5-RAM
30    i5-12600K    RTX3080 10GB    32GB DDR4-RAM
30    R9 5900X    RTX3080 TI    32GB DDR4-RAM
36    R9 5900X    RTX3070 8GB    64GB DDR4-RAM
36    Apple M2 Ultra 24CPU    Apple M2 Ultra 60GPU Cores    64GB RAM
40    R9 5900X    Radeon 6900XT    32GB DDR4-RAM
42    i9-12900F    RTX3070 8GB    32GB RAM
42    i5-12600K    RTX3070 8GB    32GB DDR4-RAM
46    i7-13700    RTX4060 16GB    128GB
46    R7 5800X OC    RX 6900XT OC    32 GB DDR4-RAM
50    R9 7950X    RTX4060 8GB    96GB DDR5-RAM
50    i9-9900    RTX2080 Super    32GB RAM
54    i9-12900K    RTX3060 12GB    32GB DDR4
54    i7-12700    RTX3060 12GB    64GB DDR4-RAM
56    i9-13900    RTX3060 12GB    32GB DDR5-RAM
58    MacBook Pro M2 Max    Apple Pro M2 Max (30 GPU)    64GB RAM
58    i7-13700H    RTX4060 8GB mobile    32 GB RAM
66    R9 5900X    Quadro RTX4000 8GB    64GB DDR4-RAM
70    R5 5600G    RTX3050 8GB    32GB DDR4-RAM
90    i7-12850HX    RTX-A1000 4GB    64GB DDR5-RAM
92    Apple M2 Pro    Apple M2 Pro    16GB RAM
106    Apple M2 Pro    Apple M2 Pro    32GB RAM
122    i5 (iMac 2020)    Radeon Pro 5300 4GB    32GB RAM
146    i9-10940X    Intel ARC 770LE 16GB    128GB DDR4-RAM
160    i7-1280P    RTX3050 Ti Mobil 4GB    32 GB RAM
178    i7-6700K    GTX 1660Ti 6GB    16GB RAM
190    i9-9900K    NVidia 1070 8GB    65GB RAM
200    R7 6800h    RTX3050 Ti 4GB    16GB DDR5-RAM
246    i5-9300h    GTX 1650 4GB    16 GB RAM
254    MacBook Pro M1    Apple M1 Pro    16GB RAM
260    i7-4790    RX 6400 4GB    32GB DDR3-RAM
300    R7 6800h    iGPU    16GB DDR5-RAM
308    R9 6900HX    iGPU    32GB RAM
918    i7-1165G7    Intel Iris Xe    16 GB RAM
960    R5 5600G    iGPU    32GB DDR4-RAM
974    R5 7600x    Radeon Pro WX3100 4GB    32GB RAM

Hier noch eine Grafik mit der ich versucht habe Leistung und Preis ins Verhältnis zu setzen. Die Preise sind aktuelle Marktpreise, wobei ich teilweise z.B. bei Apple schätzen musste. Daher - und auch weil sich der Markt ständig ändert -ist das nur ein grober Richtwert.
Kalkuliert habe ich Preis/Leistung als den €-Betrag, den man jeweils pro 10 gewonnener Sekunden zu einer iGPU investieren muss:
Code:
Preis geteilt durch (300 sec - Benchmark sec) * 10.
300 Sekunden ist der schnellste Wert mit iGPU und daher die Referenz für den Nutzen einer GPU

Anhang anzeigen 4545293
Wie ist die Grafik zu interpretieren:
GPUs die unterhalb der Trendlinie liegen sind besser als der Durchschnitt, GPUs die darüber liegen sind schlechter - im Sinne von Preis/Leistung.
Zum Vergleich zweier GPUs geht man so vor: die weiter links; bzw. weiter unten stehende ist die bessere im Sinne von Preis/Leistung.
Also z.B. eine 4070Ti und eine 3080 bringen die gleiche Leistung, die 3080 ist aber billiger.
Hier die gleiche Liste für DxO, sehr ähnliche Rangliste
 
CPU: AMD 3900x
RAM: 64Gb DDR4 2666Mhz
Grafikkarte: RTX 3060 12GB (PCIE 4.0)
SSD: Samsung 980PRO 2TB


Grafiktreiber: 537.58
Lightroom Version: 13.0.1

Zeit: 58 Sekunden
 
Wo darf man denn jetzt über den Sinn und die Hardware-Ableitungen diskutieren, wenn nicht hier?
Oder sollen solche Threads für die Katz sein?
Da gebe ich Dir Recht.
Ich finde die Frage spannend ob die Kundschaft der Bildbearbeitungs-Software dieses Rattenrennen mitmachen wird.
Die Notwenigkeit einen Desktop mit Mittelklasse-Graka die dann im Belastungsfall >200 Watt frisst oder einen Gamer-Laptops der gehobenen Klasse
nur für Bildbearbeitung anzuschaffen?
Warten wir es ab!
 
Das relativiert aber auch die Aussage, man könne Geld sparen bei kleinen Sensoren wie mFT, weil deren Gerausche mittel Software rausgerechnet werden könne. Klar, geht,....
Gerade als mft User wird man mit dieser Frage konfrontiert. Ein 20 Mpx mft-Sensor entspricht nun mal einem 80 Mpx Vollformat-Sensor.
Und bei Aufnahmen mit >1600 ASA merkt man das (bei mir Lumix G9). Da überzeugen LR und PureRaw mit ihrer KI Entrauschung.
Aber wieder einen neuen Rechner dafür?
 
Offenbar sind die Prozessorhersteller ja durchaus daran interessiert KI-Optimierungen in den Prozessoren zu integrieren, RyzenAI wird z.B. jetzt ganz frisch durch Topaz unterstützt (kenne aber noch keine Benchmarks/Resultate) und Intel geht ja auch in die Richtung... Qualcom wird auf seinem neuem Chip auch KI unterstützen usw.

Vielleicht kommen wir also wieder dahin, das man nur einen Prozessor braucht und nicht unbedingt teure und energiehungrige Grafikkarten...bzw. das es KI-Karten gibt, die halt wirklich nur darauf spezialisiert sind
 
WERBUNG
Zurück
Oben Unten