• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Ryzen fuer Photoshop und Lightroom - eher nicht so?

Status
Für weitere Antworten geschlossen.
Weiss eigentlich irgendwer, ob und wie gut die NIK Filter parallelisiert sind? Die sind bei mir naemlich auch elend lahm. Ich vermute, dass z.B. Hugin allerdings sehr gut parallelisiert ist?

Schau' doch einfach mal auf die Auslastung der einzelnen Cores, wenn die Filter laufen.
 
Naja, wie lange hatten Adobe und Co. schon Zeit, diese Optimierungen vorzunehmen...?

Und: Ich habe es längst aufgegeben, bei Computern und sonstiger Technik in Lebenszyklen von 'zig Jahren zu denken. Mein PC war 6 Jahre alt, die meisten rüsten den PC wesentlich schneller auf.

Seh ich genauso.
Ich will meine PCs so lange nutzen, wie möglich.
Realistisch sind derzeit >>5 Jahre!
Gerade deswegen ist es aus heutiger Perspektive m.E. viel sinnvoller, bzw. für mich viel sinnvoller einen 8-core AMD zu kaufen, als einen 4-Core Intel!

Adobe und Co. haben sich schon viel zu viel Zeit genommen.
Andere Softwarehersteller profitieren jetzt schon sehr deutlich von >4 Cores.

Die Wahrscheinlichkeit, dass es in den kommenden 5 Jahren endlich passiert ist deutlich höher, als, dass wir in 5 Jahren immer noch bei 4-Cores festhängen.
Für diese Aussage muss man wirklich kein Prophet sein...
;)

Sorry, aber ich würde mir vorkommen, als hätte ich den Schuss nicht gehört, wenn ich jetzt noch einen 4-Core kaufen würde...
;)
 
Zuletzt bearbeitet:
Sorry, aber ich würde mir vorkommen, als hätte ich den Schuss nicht gehört, wenn ich jetzt noch einen 4-Core kaufen würde...
;)

Ich wüsste nicht, warum.

Ich bin 6 Jahre sehr gut mit meinem i5-2500K zurechtgekommen und hatte zwischenzeitlich auch eine 42MP-Kamera und habe mit deren TIFF's gearbeitet.

Wenn es die plötzlichen Probleme mit den wiederholten Abstürzen vor 3 Wochen nicht gegeben hätte, hätte ich den Rechner auch nicht so schnell ersetzt. So musste relativ zügig eine Entscheidung getroffen werden und die fiel aus den zuvor angegebenen Gründen (Mainboard-Verfügbarkeit und komplett neues Produkt) auf den "Platzhirsch". So what?

Ich erfreue mich jetzt am Performance-Schub und denke nicht darüber nach, ob ich mit AMD noch 10 oder 20% Mehrleistung hätte. Denn klar ist auch: Mit jedem Core mehr wird der entsprechende Leistungszuwachs geringer.

Du müsstest doch eigentlich einen Intel 10 Core favorisieren... ;)
 
My part of Senf:
Innerhalb PS wird sich sicherlich was an der Schnelligkeit tun, wenn du auf AMD gehst. Die 8 Kerne und 16 Threads werden sich bemerkbar machen. Hauptproblem ist aber Windoof, da es den Anwendungen die Kernauslastung überlässt. Linux ist da anders; tut aber hier nichts zur Sache.
Ich würde grundsätzlich eher auf den neueren Sockel gehen, da damit auf die kommenden 2-? Jahre preisgünstiger ein Upgrade zu machen sein wird, als mit der auslaufenden 1151er Plattform, für welche in diesem Jahr keine neuen Prozessoren kommen werden.

Ich selbst stelle mir gerade einen Ryzen 1700x zusammen und was mir bei der ganzen Recherche untergekommen ist, dass es innerhalb dieser Programme mehr auf die OpenCL-Performance ankommt, wenn das PS, LR o.ä schneller werden sollen. Wie es da aber bei den Kandidaten weitergeht kann ich nicht sagen, weil ich mit darktable unter Linux unterwegs bin.
 
My part of Senf:
Innerhalb PS wird sich sicherlich was an der Schnelligkeit tun, wenn du auf AMD gehst. Die 8 Kerne und 16 Threads werden sich bemerkbar machen.

Genau an diesem Punkt irrst Du Dich gewaltig. Gerade bei der RAW-Entwicklung (also Camera RAW) ist Photoshop extrem Singlecore-lastig und die zusätzlichen Kerne drehen oft nur Däumchen - das ist schon bei 4-Kernern so.
 
Das ist kein Senf, das ist Quark, seit NT nutzt auch Windows präemtives Multitasking.
Und Windoof ist irgendwie 90er.

Überlässt es nicht den Anwendungen, ob diese alle oder mehrere Kerne verwenden und steuert die Progranmnthreads einzelnen Kernen zu? Womit also Programme, welche nicht auf Mehrkern ausgelegt sind im schlechtesten Fall einfach alle Kerne zu gleichen Teilen auslasten?
 
Ich bin selber gerade am zusammenstellen eines neuen PCs. Habe aber auch auf Ryzen gewartet und bin mir jetzt absolut nicht sicher ob es der Ryzen 1700X oder der i7700k werden soll.

Je mehr ich lese, desto mehr weiß ich nicht wirklich was ich mir kaufen soll. Bei den meisten Tests ist der i7700k etwas besser bei Lightroom und Photoshop. Fraglich ist aber wann Adobe auf den Zug mit mehreren Kernen aufspringt und man hier dann mit einem Quad-Core etwas doof aus der Wäsche schaut.

Ebenso die Tatsache, dass der Intelsockel am auslaufen ist stört mich etwas.

Schwierige Entscheidung :confused:
 
Fraglich ist aber wann Adobe auf den Zug mit mehreren Kernen aufspringt und man hier dann mit einem Quad-Core etwas doof aus der Wäsche schaut.
Wenn Adobe im bisherigen Tempo weiter macht, wird das noch ewig dauern. Und mit der Beschleunigung via Grafikchips gehts auch nicht so wirklich weiter, weil das offenbar nicht viel bringt oder arbeitsintensiv ist und Adobe den Aufwand scheut.

Hinzu kommt, daß die Effektivität mit steigender Kernzahl regelmäßig deutlich abnimmt. Zumal hohe Kernzahl meist niedrigeren Takt bedeutet, was dann unterm Strich annähernd zum Nullsummenspiel führen kann.

Ebenso die Tatsache, dass der Intelsockel am auslaufen ist stört mich etwas.
Bei Intel kommt doch inzwischen gefühlt jede neue CPU-Generation mit neuen Sockeln daher. Anderseits ist das inzwischen nicht mehr weiter wild, weil der Leistungszuwachs immer überschaubarer ausfällt, was dafür sorgt, daß sich ein Aufrüsten nur noch selten lohnt und ein kompletter Tasuch einige Jahre später erfolgen kann. So spät, daß dann auch bei AMD ein neues Board fällig wäre.
 
Überlässt es nicht den Anwendungen, ob diese alle oder mehrere Kerne verwenden und steuert die Progranmnthreads einzelnen Kernen zu?

Das Programm erzeugt Prozesse und Threads, das Betriebssystem gibt denen Zeitscheiben verteilt die Prozesse auf die Ressourcen (Kerne etc.), da ist kein grosser Unterschied zwischen Unix und Win, zumindest ab NT.
Ja, unter win 9x konnte die Anwendung sich alles krallen (kooperatives Multitasking) aber das ist lange Geschichte.

Womit also Programme, welche nicht auf Mehrkern ausgelegt sind im schlechtesten Fall einfach alle Kerne zu gleichen Teilen auslasten?

Das ist unter Unix / Linux nicht anders und an sich auch sinnvoll, was sollen sonst mehrere Kerne.
Du kannst aber überall Prozesse an bestimmte Kerne binden, bzw die Priorität anpassen, um händisch einzugreifen, wenn es sinnvoll ist.
 
Wenn Adobe im bisherigen Tempo weiter macht, wird das noch ewig dauern. Und mit der Beschleunigung via Grafikchips gehts auch nicht so wirklich weiter, weil das offenbar nicht viel bringt oder arbeitsintensiv ist und Adobe den Aufwand scheut.

Hinzu kommt, daß die Effektivität mit steigender Kernzahl regelmäßig deutlich abnimmt. Zumal hohe Kernzahl meist niedrigeren Takt bedeutet, was dann unterm Strich annähernd zum Nullsummenspiel führen kann.

Hast du natürlich auch wieder recht. Es ist echt wirklich schwierig zu sagen in welche Richtung man hier gehen soll. 4 Kerne mit hohem Takt oder 8 mit etwas weniger. Wenn Ryzen schon nicht bei Lightroom seine Vorteile hat, wie verhält es sich mit AfterEffects oder Premiere? Bringen die Kerne dort auch nix? --> Timelapse

Bei Intel kommt doch inzwischen gefühlt jede neue CPU-Generation mit neuen Sockeln daher. Anderseits ist das inzwischen nicht mehr weiter wild, weil der Leistungszuwachs immer überschaubarer ausfällt, was dafür sorgt, daß sich ein Aufrüsten nur noch selten lohnt und ein kompletter Tasuch einige Jahre später erfolgen kann. So spät, daß dann auch bei AMD ein neues Board fällig wäre.

Wird wohl oder übel in diese Richtung gehen. Soll ja immerhin wieder 5 jahre oder mehr halten. Habe nicht vor wieder in wenigen Jahren etwas neues zu kaufen.
 
Die Wahrscheinlichkeit, dass es in den kommenden 5 Jahren endlich passiert ist deutlich höher, als, dass wir in 5 Jahren immer noch bei 4-Cores festhängen.
Für diese Aussage muss man wirklich kein Prophet sein...
;)

Naja, 4-Core Prozessoren gibt es seit, was, 8 Jahren? Mehr? Dennoch hast Du in PS auch heute noch mit einem (schnellen) Dual-Core ohne HT gegenueber einem Quad-Core mit HT kaum Nachteile. Das, was am meisten zaehlt, sind die IPC und der Takt. Da hat AMD zumindest momentan weiterhin merkliche Nachteile. Und da, wo es skaliert (siehe Eingangspost), skaliert es meist nicht ueber 4 Kerne hinaus.

Die Frage ist also:

a) Sind die Algorithmen in PS ueberhaupt sinnvoll parallelisierbar?
b) Angesichts der Tatsache dass Adobe es in den letzten 10 Jahren nicht geschafft hat, warum sollten sie es in den naechsten 5 Jahren schaffen?

Sorry, aber ich würde mir vorkommen, als hätte ich den Schuss nicht gehört, wenn ich jetzt noch einen 4-Core kaufen würde...
;)

Mag ja sein - in der Praxis hat man mit einem Ryzen momentan aber Nachteile gegenueber einem i7-7700K, was die single-Core-Leistung angeht. In PS ist der i7 7700K im Schnitt zwischen 11.7% und 23.5% schneller als der Ryzen 1700X (Link).

In der reinen single-Core-Performance liegt der i7-7700K 28% vor dem 1700X (195 vs. 152 Punkte, Cinebench R15 single-core), in der reinen multi-Core-Leistung liegt der 1700X um 52% vorne (1506 vs. 988 Punkte). Das ist bei stock clock speeds, die Intel lassen sich zudem etwas besser uebertakten. Wuerde PS perfekt parallelisieren, waere Ryzen klar die bessere Wahl. In dem Fall waere der Performance-Zuwachs aber auch beim i7 7700K so gross, dass es vermutlich egal waere. Und momentan ist es halt quasi gar nicht parallelisiert. Leider.

Ich wuerd naemlich eigentlich echt gerne einen Ryzen kaufen.
 
Ebenso die Tatsache, dass der Intelsockel am auslaufen ist stört mich etwas.
Wie oft schmeisst ihr eigendlich dem CPU-Herstellern Geld hinterher? Wenn ich heute (nach 5 1/2 Jahren) meinen I7-2600k austausche, dann gibt es für das Mainboard seblstverständlich keine neue CPU mehr.

Kaufe ich aber heute einen i7-7700k (oder 1700x/1800x), dann werde ich den mit Sicherheit (HW-Defekt mal außen vor gelassen) in den kommenden 3, eher 4-5 Jahren nicht austauschen wollen.

Gelingt es AMD oder Intel in der Zeit eine CPU mit mind. 70% Leistungssteigerung (bei der von mir genutzten Software) auf den Markt zu bringen (alles unter 50% merkt man nur in Ausnahmefällen und wäre mir daher keine 200 Euro für eine neue CPU im alten Board wert), dann ist das mit Sicherheit mit neuen Technologien verbunden (andere Sockel, anderes Ram). Auch von AMD gibt es z.B. noch kein Board, das Intels 3D XPoint Ram (oder vergleichbares von AMD) unterstützt.

Dennoch hast Du in PS auch heute noch mit einem (schnellen) Dual-Core ohne HT gegenueber einem Quad-Core mit HT kaum Nachteile.
Es gibt nunmal viele Algorithmen, die sich nicht oder nur mit nicht vertretbarem Aufwand parallelisieren lassen. Oder der Ovverhead für die Zusamenführung der Daten ist so groß, dass dies die vorherige Aufteilung wieder auffrisst.

Wenn man schon nur ein einfaches Schärfen betrachtet (z.B. mit einem 8x8 Kernel). Dann hängt es schon von der Prozessorarchitektur (Caches, Speicheranbindung) ab, ob sich das parallele Abarbeiten für jeden Pixel lohnt (8 Pixel breite, 8 Threads müssen auf die selben Daten zugreifen) oder ob es gesamthaft performanter ist, nur wenige, große Blöcke zu parallelisieren, damit die Schnittmenge klein bleibt. Und wenn man dann noch die Implementierung für exakt die vom Kunden gerade genutzte CPU falsch wählt, dann passen diese "großen" Blöcke leider nicht alle in den Cache der CPU und der Speichertransfer benötigt mehr Zeit wie man durch die parallelisierung wieder gewinnt.

Das ganze soll dann dann natürlich noch für 8 Bit und 16 Bit Farbtiefe optimiert werden, am Besten in Kombination mit SIMD, AVX2 und was sich die CPU-Hersteller noch so alles an tollen Erweiterungen ausdenken, von denen zunächst nur der Käufer neuer CPUs etwas hat.

b) Angesichts der Tatsache dass Adobe es in den letzten 10 Jahren nicht geschafft hat, warum sollten sie es in den naechsten 5 Jahren schaffen?
Weil u.U. die Verbreitung moderner Prozessorarchitekturen dazu führt, dass eine Paralelisierung Sinn macht und bei vielen (professionellen) Nutzern auch einen Vorteil bringt.
 
Hör' bloß auf damit, ich habe die Hoffnung, ich muss erst wieder 2023 (Support-Ende Win7) drüber nachdenken :p :ugly:

Apropos:
Ich habe nach meinem Upgrade gelernt, dass Windows7 mit den neuen Prozessoren (sowohl 7700K als auch Ryzen) nicht mehr wirklich kompatibel ist, das heißt der Service beschränkt sich auf Bestandssysteme.

Man könnte es zwar noch installieren, aber jegliche Updates wären nicht mehr möglich (Fehlermeldungen).

Wer also upgradet und weiter mit Windows7 arbeiten will, wird enttäuscht werden. Zum Glück ist das Upgrade auf Win10 weiterhin kostenlos. ;)
 
Weil u.U. die Verbreitung moderner Prozessorarchitekturen dazu führt, dass eine Paralelisierung Sinn macht und bei vielen (professionellen) Nutzern auch einen Vorteil bringt.

Das haette es aber auch schon bei den 4-Kern-Prozessoren gemacht... passiert ist wenig bis gar nichts.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten