http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/4
Ich würde eher dem Anandtech-Test vertrauen, und da sieht es (wie ja leider zu erwarten war) nicht so gut aus.
das ist aber CS4

Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/4
Ich würde eher dem Anandtech-Test vertrauen, und da sieht es (wie ja leider zu erwarten war) nicht so gut aus.
das ist aber CS4![]()
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/4
Ich würde eher dem Anandtech-Test vertrauen, und da sieht es (wie ja leider zu erwarten war) nicht so gut aus.
stimmt.
kurz nochmal google anschmeißen ergibt:
http://www.hardwarecanucks.com/foru...-8350-cpu-review-amds-vishera-arrives-12.html
Meines erachtens immer noch nicht empfehlenswert, der fx-8350 kostet das gleiche wie ein i5-3570k, ist etwa 20% langsamer und verbraucht doppelt soviel(!) strom.
Wenn man schon anfängt zu rechnen, dann müsste man auch festlegen, wie man seine Freizeit kalkuliert. Ich will in der Regel meine RAWs so schnell wie möglich haben und bin beim Neukauf eines Rechners dafür auch gerne bereit, 50 Euro pro Jahr mehr einzuplanen (was dann schon 200 Euro Aufpreis für CPU/Mainboard und vielicht noch die Kühlung wären).Kannst ja mal ausrechen was der Mehrverbraucht kostet wenn die Cpu mal wirklich 2h arbeitet und wann du das Geld zum i7 wieder reingearbeitet hast.
Und dann sollte man noch dutzende anderer Parametern testen wie Entrauschen, Schärfung oder auf HW-Seite CPU-Takt und eine echte Kernabschaltung, Die "Deaktivierung" per Task Manager liefert schließlich nicht wirklich identische Werte, da das System selber ja noch mehr Kerne zur Verfügung hat. Und vor allem müsste man das dann nicht mit LR 4.2 RC1 sondern mit der aktuellen Verkaufsversion machen, wofür ich dann erst einmal eine Lizenz benötigen würde.Interessant wäre noch ein Test mit vier physischen Kernen und deaktiviertem HT.
Das wäre für mich der falsche Weg. Adobe müsste es eher Bibble Pro gleich tun und die Konvertierung eines RAWs auf x Kerne gleichmäßig verteilen. So lange keine wirklich globalen Filter angewendet werden (wo die Farbe eines Pixels von sehr vielen anderen Pixeln abhängt) ließe sich sowas eigentlich sehr gut parallelisieren, zur Not halt mit etwas Datenoverhead.Ich verstehe nicht warum Adobe nicht einfach ein Bild pro Kern berechnen lässt
Was heißt denn müsste?Das wäre für mich der falsche Weg. Adobe müsste es eher Bibble Pro gleich tun und die Konvertierung eines RAWs auf x Kerne gleichmäßig verteilen.
Und dann sollte man noch dutzende anderer Parametern testen wie Entrauschen, Schärfung oder auf HW-Seite CPU-Takt und eine echte Kernabschaltung, Die "Deaktivierung" per Task Manager liefert schließlich nicht wirklich identische Werte, da das System selber ja noch mehr Kerne zur Verfügung hat.
Und vor allem müsste man das dann nicht mit LR 4.2 RC1 sondern mit der aktuellen Verkaufsversion machen, wofür ich dann erst einmal eine Lizenz benötigen würde.
Adobe hat mal argumentiert, dass der Export für sie ein Hintergrundprozess ist, man dabei mit LR weiterarbeiten können soll und daher es nicht das Ziel sei den Rechner maximal auszulasten.
LR macht dies aber im Vergleich zu Bibble Pro äußerst schlecht, und daran ändert auch die Tatsache nichts, daß ViewNX 2.5.1 es auch nicht viel besser wie das aktuelle LR macht. Bibble Pro arbeitet ebenfalls sequentiell, schafft es aber trotzdem, über 2 Minuten hinweg die 8 Kerne meines i7-2600K zu 95-100% auszulasten.Was heißt denn müsste?
Genau das macht LR natürlich.
Obwohl ich die ganzen Tests nicht für praxisrelevant halte, habe ich unter https://www.dslr-forum.de/showthread.php?t=1165159 nun eine komplette Testreihe aufgestellt.Nein, müsste man nicht. Es würde reichen wenn du HT deaktivieren und den Test aus Beitrag #237 wiederholen würdest.[/I]
Es ist auf jeden Fall sehr interessant das Lightroom Probleme mit HT hat.
Da weiß man gar nicht wo man anfangen soll ...Helft Ihr mir?
Das wird auch weiterhin so sein, ein System, bei dem die RAW-Konvertierung (mit allen möglichen Optionen) in Echtzeit geht, ist mmir noch nicht unter gekommen (da feht bei meinem i7-2600K locker noch Faktor 10 an Geschwindigeit, um ohne Entrauschen mit LR4.3 auf 0,2 Sekunden kommen zu können)Rendering dauert trotz Win7 64Bit i7 CPU 860 mit 4/8-Core und 2.8/2.93GHz fühlbare Sekunden
Müsste rein technisch funktionieren. Wie man da aber abseits von Börsenanwendungen noch den Überblick behält (egal, ob die beiden 27"-Monitor hochkant neben einander oder über einander angeordnet werden) weiß ich nicht.ich habe eine Grafikkarte mit 2 DisplayPorts drinnen, wenn ich später vielleicht mal mit zwei 27"ern arbeiten will. Korrekt? Oder ist das schon "gesponnen"???
Sehe ich auch so. RAID raus und dafür ein Xeon oder ein Intel® Core™ i7-3970X rein.HighEnd und Quadcore?
Du brauchst für alles bei der Bildbearbeitung vor allem CPU-Power. Warum also nicht die paar Euro mehr für eine dicke Intel-CPU.
Ist das ">" ein Tippfehler oder ernst gemeint? M.W. nach kann der i7-3770K "nur" 32 GB, das ASUS ist auch nur dafür ausgelegt. Für >32 GB brauchst Du zwangsweise einen Xeon (oder i7-3970X) und ein entsprechendes Workstationboard. Also z.B. sowas hier:Thema RAM:
macht es Sinn gleich > 32GB einzusetzen?
OK, ich sehe ich brauche Nachhilfe in i7-Klassifizierung. Ich weiß, daß die sich in den Sockeln unterscheiden. Aber: ist der i7-3970X mit der Sandy-Bridge=2nd Generation nicht langsamer als der 3770 mit Ivy aus der 3rd Generation (beide haben ja ja 3.5GHz)??? OK es ist ein 6 Core... Ich brauche doch grundsätzlich eher schnellere GHz als noch mehr Cores, oder?...dafür ein Xeon oder ein Intel® Core™ i7-3970X rein.
Das war kein Tippfehler, aber ich wußte nicht, daß bei dem Board bei 32GB Schluß ist (wobei das wohl reichen dürfte). Da wie ich nun vermute, daß das Board von der CPU abhängt ...=> ich sollte wohl zu allererst mich auf die CPU festlegen. Stimmt's?Ist das ">" ein Tippfehler oder ernst gemeint? M.W. nach kann der i7-3770K "nur" 32 GB, das ASUS ist auch nur dafür ausgelegt. Für >32 GB brauchst Du zwangsweise einen Xeon (oder i7-3970X) und ein entsprechendes Workstationboard. Also z.B. sowas hier:
http://www.supermicro.com/products/motherboard/xeon3000/x58/x8ste.cfm
Doch, Du hast die Sockel 2011 CPUs übersehen:Hallo Blur!
Ich meinte mit der i7 3rd-Generation und 3.5GHz schon ziemlich zugelangt zu haben: 4 phys. Cores/8 virtuelle mit Hyperthreading... Das ist doch kaum steigerbar, oder?
Nja, wie die andern schon schrieben. Bei 3-4 Platten wäre ein RAID-5 sinnvoller, da Du weniger Platz verschenkst.Das RAID ist für das Datengrab mit dennoch schnellem Suchzugriff zur Erhöhung der Sicherheit gedacht. Nachvollziehbar?
Ram eines echten RAM-Herstellers:Beim RAM habe ich die Geizhalspreise leicht aufgerundet genommen. Was wäre Dein Gegenvorschlag?