Gast_175389
Guest
AW: Lightroom 3 released!
Ich hab ja schon am Anfang angedeutet, daß ich deswegen mit dem einen Beispiel das Ergebnis nicht pauschalisieren möchte.
Wie du allerdings gleich auf sowas kommst
Mathematisch sehr hochwertige Algos von der CPU auf die GPU abzubilden stelle ich mir einfach nicht so leicht vor. Egal ob es sich um ein Frame oder ein RAW/TIFF/Jpeg handelt. Ein Beispiel dafür kann man im RL schonmal finden. GPU-unterstützte Neukodierung von Videoframes. Geschwindigkeit JA, Qualität NEIN.
Die Parallelisierung selbst halte ich dagegen für nicht so schwierig in dem Fall.
(Darstellungsfehler)
Was ich bis jetzt rausgefunden habe, es gibt Probleme mit der 3000 und der 5000 Serie. Lightroom nutzt viel GDI(+). Damit werden eben einige Darstellungsoperationen hardwarebeschleunigt von der GPU (dem Grakatreiber) unterstützt.
GPU-unterstützt heißt nicht zwangsläufig 3D-Einheit. Die Grafikkarten hatten schon sehr lange spezielle 2D-Einheiten. Schon zu Win98-Zeiten, wenn nicht sogar davor. Für Zeichen, Linien, Flächen usw. GPU-unterstüzt unter Windows war die Darstellung also schon vor Vista. Nur im kleineren Masse.
Eine ausschliesslich auf der CPU-berechnete Grafikausgabe (Desktop) hat man mit dem "StandardVGA" Treiber. Da haben bestimmt auch hier schon einige miterleben können wie höllisch lahm das ist.
Bei ATI fiel die 2D-Einheit mit den HDs weg und wird auf den 3D-Einheiten emuliert. Bei NV mittlerweile auch. Deswegen aber waren z.B. die 2900pro auf dem Desktop spürbar langsamer als eine 1950pro. Unter XP. Unter Vista/Win7 kann man das besser auffangen und malt auch mehr direkt mit der 3D-Einheit.
Ohne da jetzt noch tiefer einzutauchen, es gibt wie bei der Bildquali auch dafür RL-Beispiele. CS3 war Anfang 2010 auf ATIs auch schonmal broken. Malt auch viel über GDI. Z.B. Zoomen hat direkt zu Grafikfehlern geführt. Übrigens genauso wie jetzt bei Lightroom (Aha?)
Ein Treiberupdate und es war weg. Daß man da also sehr wohl abseits von Windows selbst etwas verkacken kann steht eben fest.
Ich hab ja schon am Anfang angedeutet, daß ich deswegen mit dem einen Beispiel das Ergebnis nicht pauschalisieren möchte.
Wie du allerdings gleich auf sowas kommst
weiß ich auch nicht. Für die Soft ist ein dekodiertes Frame auch einfach nur ein Bild.Für LR sollte es einfach um die Prozessorpower der GraKas gehen und da gäbe es eher keinen 'qualitativen' Unterschied (ich meine vom Ergebnis her).
Mathematisch sehr hochwertige Algos von der CPU auf die GPU abzubilden stelle ich mir einfach nicht so leicht vor. Egal ob es sich um ein Frame oder ein RAW/TIFF/Jpeg handelt. Ein Beispiel dafür kann man im RL schonmal finden. GPU-unterstützte Neukodierung von Videoframes. Geschwindigkeit JA, Qualität NEIN.
Die Parallelisierung selbst halte ich dagegen für nicht so schwierig in dem Fall.
(Darstellungsfehler)
Was ich bis jetzt rausgefunden habe, es gibt Probleme mit der 3000 und der 5000 Serie. Lightroom nutzt viel GDI(+). Damit werden eben einige Darstellungsoperationen hardwarebeschleunigt von der GPU (dem Grakatreiber) unterstützt.
GPU-unterstützt heißt nicht zwangsläufig 3D-Einheit. Die Grafikkarten hatten schon sehr lange spezielle 2D-Einheiten. Schon zu Win98-Zeiten, wenn nicht sogar davor. Für Zeichen, Linien, Flächen usw. GPU-unterstüzt unter Windows war die Darstellung also schon vor Vista. Nur im kleineren Masse.
Eine ausschliesslich auf der CPU-berechnete Grafikausgabe (Desktop) hat man mit dem "StandardVGA" Treiber. Da haben bestimmt auch hier schon einige miterleben können wie höllisch lahm das ist.
Bei ATI fiel die 2D-Einheit mit den HDs weg und wird auf den 3D-Einheiten emuliert. Bei NV mittlerweile auch. Deswegen aber waren z.B. die 2900pro auf dem Desktop spürbar langsamer als eine 1950pro. Unter XP. Unter Vista/Win7 kann man das besser auffangen und malt auch mehr direkt mit der 3D-Einheit.
Ohne da jetzt noch tiefer einzutauchen, es gibt wie bei der Bildquali auch dafür RL-Beispiele. CS3 war Anfang 2010 auf ATIs auch schonmal broken. Malt auch viel über GDI. Z.B. Zoomen hat direkt zu Grafikfehlern geführt. Übrigens genauso wie jetzt bei Lightroom (Aha?)
Ein Treiberupdate und es war weg. Daß man da also sehr wohl abseits von Windows selbst etwas verkacken kann steht eben fest.
Zuletzt bearbeitet: