Die Performanceanzeige sagt nicht wirklich viel über die Auslastung ausIch denke, daß das Capture bereits kann. Capture NX2 erreicht bei meinem Quad-Core PC Auslastungen von über 60%. Das wäre nicht möglich, wenn Capture nur einen einzelnen Core benutzen würde.

Da ich auch mehr Performance haben wollte, und meinen Duocore ggbf. durch einen quad oder sogar 2 ersetzt hätte, bin ich letztes Jahr zur Version 1 von NX dem noch nachgegangen und da gab es hier und andernorts diverse Diskussionen darüber und auch eine offizielle (mit hartnäckigem Nachfragen) Anfrage an Nikon wurde damit beantwortet, dass keine Multicore unterstützt, respektive ausgenutzt werden. Auch in den anderen Diskussionen kam man zum Schluss, dass NX nicht wirklich die mögliche Leistung von Multicore intensiv ausreizt. (siehe: http://www.nikon-fotografie.de/vbulletin/showthread.php?t=38686)
Bei der Version 2 konnte ich keine markante Geschwindigkeitssteigerung feststellen, hatte es aber nicht wirklich getestet, so dass ich aktuell davon ausgehe, dass sich das noch nicht wirklich geändert hat.
Ich habe nicht behauptet, dass das nicht geht. Muss auch sagen, dass die Zeit zu der ich das etwas mehr verfolgt habe auch schon eine Weile vorbei ist, (Windows NT4) Da war es z.B. nur über Tricks möglich, dem OS beizubringen, dass er die angelegten Threads auch wirklich auf den unterschiedlichen Prozessoren laufen lässt. Sonst war das threaden für die Katz. Aber so ganz ohne ist das in meinen Augen auch heute noch nicht. Siehe folgenden Post:ja, das ist wirklich kein Hexenwerk, mehrer Cores auszulasten. Das geht ganz einfach: entweder per Hand mit POSIX pthreads -- die selbst bei einem Microsoft OS implement sein solten, oder voll automatisch auf Compiler Level via OpenMP. Alle Intel Compiler können das sei Jahren. Dann parallelisert der Compiler schleifen automatisch und die Library findet bei Laufzeit die Anzahl der Cores beim Start selbst heraus. Das ist doch alles Kinderkram.
http://www.nikon-fotografie.de/vbulletin/showpost.php?p=279829&postcount=30
Perfomance von Software, wie auch die optimale Ausnutzung von Rechnersystemen ist auch heute noch immer wieder ein heisses Eisen. Wenn es wirklich so trivial wäre, müssten nicht Heere von Spezialisten rund um die Welt ständig Datenbanken, Programme, Systemarchitekturen etc. optimieren... Egal ob bei grossen Systemen oder Embeddedsystemen. Ob die von dir beschriebenen Automatismen ausreichen, jede Software "annähernd" optimal zu trimmen, damit die zur Verfügung stehende Multicore-Leistung zu einem akzeptablen Bereich ausgereizt werden, davon bin ich noch nicht wirklich überzeugt.Wer heute das nicht hinbekommt, sollte keine professionelle Software entwicklen.