• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Lightroom + 4k - Welche Grafikkarte?!?

Thomas Busek - phoTom

Themenersteller
Hallo,

meine Grafikkarte schafft es gerade noch in 4k zu arbeiten. Es ist eine Alte Radeon 5450. Win7 Rennt auf 4k, Win8 allerdings nicht mehr trotz den neuesten Treibern.

Es handelt sich um den PC auf dem meine Mitarbeiter den Kunden Fotos zeigen. Dieser ist per HDMI an einen 4k Bildschirm angeschlossen.
Leider dauert es beim Fotos durchblättern EWIG (2-4 Sekunden) bis ein Foto scharf angezeigt wird (i7, 16gb, SSD)
Würde man es mit einer schnellen Grafikkarte beschleunigen? Ligtroom CC soll ja den Grafik_Prozessor mitbenutzen?!
Soll es eine Radeon R9 werden (http://geizhals.at/sapphire-radeon-r9-380-nitro-11242-07-20g-a1280834.html?hloc=at)

oder reicht eine Radeon R7 ?
http://geizhals.at/sapphire-radeon-r7-370-nitro-11240-04-20g-a1282684.html?hloc=at

Der Unterscheid ist 70eu, das ist eigentlich fast egal?!
Wird ligtroom beide unterstützen oder ist es dafür zu überdimensioniert.
Mein Netzteil ist übrigens leider nur ein 450W

Danke für eure Hilfe!
LG
Tom
 
Hallo, für Endkunden sind es immer JPG.
Das mit 1:1 machen wir eh schon! bringt nicht so enorm viel. Es geht nur um 4k. In FullHD rennt alles sehr sehr schnell!

Hmm... Dann verstehe ich es nicht, aber ich bin den UHD Schritt noch nicht gegangen. Betreibe den Laptopbildschirm 1920x1080 und den Monitor mit 2560x1440 an einer GeForce 540m und hab das Problem nicht, aber auch nur die halbe Auflösung auf dem Monitor...
 
Das Problem kenne ich auch, hab hier auf dem Laptop ein 3k Display, Trotz 1TB SSD, i7 und genug RAM dauert es etwas bis die Fotos in 1:1 scharf sind.

Was hier auch auffällt, dass die 2:1 Ansicht endlich Sinn macht wenn man mal Korrekturen ausführt. 1:1 auf 15" mit 3k ist schon sehr.... klein. Die 12MP Fotos meiner D3 sind da ganz schnell abgedeckt - ohne viel scrollen.

Leider hab ich auch keine Lösung, im LR dauert es auch etwa 5-6 Sekunden bis ein D800 RAW scharf angezeigt wird, auch mit 1:1 Vorschau.
 
Soweit mir bekannt ist, wird die Grafikkarte nur im Entwicklungsmodus verwendet. Für die Vorschau bringt ne neue Karte wohl nichts. Wichtiger als 1:1 sind für die Vorschau aber die Standard Previews, dort sollte man bei LR 6 auf automatisch gehen.
Versuch das mal, eigentlich sollte das die Vorschau beschleunigen.
 
Soweit mir bekannt ist, wird die Grafikkarte nur im Entwicklungsmodus verwendet. Für die Vorschau bringt ne neue Karte wohl nichts. Wichtiger als 1:1 sind für die Vorschau aber die Standard Previews, dort sollte man bei LR 6 auf automatisch gehen.
Versuch das mal, eigentlich sollte das die Vorschau beschleunigen.

hallo, meistens werden die Fotos im Entwicklungsmodus durchgeschaut damit noch kleine Korrekturen vorgenommen werden können.
Habe ich gerade versucht. Bringt nichts. OPtimal wäre, wenn er eine vorschau erzeugt die 1:1 an die Auflösung angepasst ist, die am Bildschirm angezeigt wird....!!!
 
Das Problem kenne ich auch, hab hier auf dem Laptop ein 3k Display, Trotz 1TB SSD, i7 und genug RAM dauert es etwas bis die Fotos in 1:1 scharf sind.

Was hier auch auffällt, dass die 2:1 Ansicht endlich Sinn macht wenn man mal Korrekturen ausführt. 1:1 auf 15" mit 3k ist schon sehr.... klein. Die 12MP Fotos meiner D3 sind da ganz schnell abgedeckt - ohne viel scrollen.

Leider hab ich auch keine Lösung, im LR dauert es auch etwa 5-6 Sekunden bis ein D800 RAW scharf angezeigt wird, auch mit 1:1 Vorschau.


5-6 sekunden ist echt bitter :( :eek:
 
5-6 sekunden ist echt bitter :( :eek:

Wobei es echt auf die Bildgröße ankommt, die D3 Raws sind schnell geladen, ausserdem meine ich natürlich die 100% Ansicht wenn man so zwischen Bildern hin und herschaltet (welches ist das schärfste?). Beim einfach nur durchblättern in "Einpassen" gehts auch mit der D800 schneller.

Andererseits, am PC mit weniger Auflösung (1920x1200) gehts wesentlich schneller, in jedem Fall.
 
Zuletzt bearbeitet:
meine Grafikkarte schafft es gerade noch in 4k zu arbeiten. Es ist eine Alte Radeon 5450. Win7 Rennt auf 4k, Win8 allerdings nicht mehr trotz den neuesten Treibern.

Würde man es mit einer schnellen Grafikkarte beschleunigen? Ligtroom CC soll ja den Grafik_Prozessor mitbenutzen?!
Adobe ist nicht sonderlich ausführlich mit seinen Informationen. Bei Systemanforderungen findet man lediglich: "OpenGL 3.3- und DirectX 10-fähige Grafikkarte für GPU-bezogene Funktionen"

Wie wenig es an Bearbeitungsgeschwindigkeit bringt, wenn man mit einer Monster-GraKa sein Büro heizt, will Heise getestet haben:
http://www.heise.de/foto/artikel/Na...-in-Lightroom-6-und-Lightroom-CC-2626770.html

Man ist dort auch nach einer Reaktion von Adobe weiterhin skeptisch: http://www.heise.de/forum/Foto/Komm...-ist-da-Wir-testen-nach/posting-3485629/show/

Lightroom ist nun mal kein Performance-Wunder - auch nicht in der CC-Version. Die beste Beschleunigung dürfte (neben einer SSD) eine flotte CPU sein. Vermutlich schafft nur eine vorherige JPEG-Konvertierung eine echte Abhilfe für eine flüssige Vorschau.
 
Adobe ist nicht sonderlich ausführlich mit seinen Informationen. Bei Systemanforderungen findet man lediglich: "OpenGL 3.3- und DirectX 10-fähige Grafikkarte für GPU-bezogene Funktionen"

Wie wenig es an Bearbeitungsgeschwindigkeit bringt, wenn man mit einer Monster-GraKa sein Büro heizt, will Heise getestet haben:
http://www.heise.de/foto/artikel/Na...-in-Lightroom-6-und-Lightroom-CC-2626770.html

Man ist dort auch nach einer Reaktion von Adobe weiterhin skeptisch: http://www.heise.de/forum/Foto/Komm...-ist-da-Wir-testen-nach/posting-3485629/show/

Lightroom ist nun mal kein Performance-Wunder - auch nicht in der CC-Version. Die beste Beschleunigung dürfte (neben einer SSD) eine flotte CPU sein. Vermutlich schafft nur eine vorherige JPEG-Konvertierung eine echte Abhilfe für eine flüssige Vorschau.

sehe leider nicht den ganzen Artikel aber das was ich sehe gefällt mir gar nicht :(
 
Die Bibliotheksansicht verwendet die Vorschau/Previews für die Darstellung und sie werden bislang nur von der CPU berechnet.
Was aber interessant ist: In welcher Größe werden deine Standardvorschauen generiert? Passen diese nicht zur Monitorauflösung, muss die Vorschau vom RAW-Bild generiert werden, was entsprechend dauert. Schau mal, ob du da nicht optimieren kannst.
 
Ich habe eine Nvidia GTX970 an einem 5K-Monitor.

Die Nvidia läuft gut und problemlos.

Im Moment scheint es ja auch so zu sein, dass AMD/ATI es nicht hin bekommt einen Treiber zu bauen, der gut mit Lightroom läuft.

Bedienung der Regler in der Entwicklung ist wesentlich schneller.
Das Laden ansich, also bis das Bild scharf ist, ist mit der Grafikkarte nicht wirklich schneller.
 
Hallo,

meine Grafikkarte schafft es gerade noch in 4k zu arbeiten. Es ist eine Alte Radeon 5450. Win7 Rennt auf 4k, Win8 allerdings nicht mehr trotz den neuesten Treibern.

Laut Spezifikation ( http://www.amd.com/de-de/products/graphics/desktop/5000/5450# )


Integrated dual-link DVI output with HDCP11
Max resolution: 2560x1600

Integrated DisplayPort output
Max resolution: 2560x1600

HDMI® (With 3D, Deep Color and x.v.Color™)
Max resolution: 1920x1200

Integrated VGA output
Max resolution: 2048x1536

kann Deine Graka gar kein 4k egal welchen Ausgang Du verwendest... :confused:

... Dieser ist per HDMI an einen 4k Bildschirm angeschlossen.

Die nächsten Probleme:

Deine Graka hat mit Sicherheit noch keinen HDMI-2.0-Anschluß...

Ob Dein 4k-Monitor über einen HDMI-2.0-Anschluß verfügt, das wissen wir nicht, da Du keine genauen Angaben gemacht hast. Daß Dein Monitor jedoch HDMI 1.3 oder HDMI 1.4(a) hat, könnte ebenfalls der Fall sein (ist sogar sehr wahrscheinlich) und somit wäre eine vollwertige 4k-HDMI-Anbindung ebenfalls nicht möglich.

Bei 4k mit HDMI 1,4 hast Du nicht nur eine reduzierte Framerate, sondern (speziell bei Deinem Verwendungszweck) noch ein viel größeres Problem.

Obwohl HDMI 1,4 bei Full-HD Bilder mit einer Farbtiefe von 16 Bit übertragen kann, wird diese beim Umschalten auf 4k auf 8 Bit begrenzt, da einfach nicht genügend Bandbreite für 16-Bit-Daten vorhanden ist...


Du siehst, für 4k hast Du noch viel mehr Baustellen und ich frage mich, ob Du auf Deinem 4k-Monitor wirklich ein 4k-Bild siehst, oder ob da noch jede Menge Interpolationen zwischen zwischen Soll und Ist liegen. Auch diese würden zusätzliche Rechenleistung "verbraten"...


Edit: Habe vergessen eine sinnvolle Alternative zu nennen: Verbindung über (Mini-) Displayport 1.2.
 
Zuletzt bearbeitet:
Hallo,

es soll nicht gehn. Geht aber scheinbar schon.
http://www.photom.at/screenshots2/2015-07-22_0233.png
2015-07-22_0233.png
 
Wobei 30Hertz sind nicht zu gebrauchen als 4K mindestens 60Hz da merkt man gar kein ruckeln oder für Spieler 144Hz.

Viele Grüße

Lukas
 
Adobe ist nicht sonderlich ausführlich mit seinen Informationen. Bei Systemanforderungen findet man lediglich: "OpenGL 3.3- und DirectX 10-fähige Grafikkarte für GPU-bezogene Funktionen"

Wie wenig es an Bearbeitungsgeschwindigkeit bringt, wenn man mit einer Monster-GraKa sein Büro heizt, will Heise getestet haben:
http://www.heise.de/foto/artikel/Na...-in-Lightroom-6-und-Lightroom-CC-2626770.html

Man ist dort auch nach einer Reaktion von Adobe weiterhin skeptisch: http://www.heise.de/forum/Foto/Komm...-ist-da-Wir-testen-nach/posting-3485629/show/

Lightroom ist nun mal kein Performance-Wunder - auch nicht in der CC-Version. Die beste Beschleunigung dürfte (neben einer SSD) eine flotte CPU sein. Vermutlich schafft nur eine vorherige JPEG-Konvertierung eine echte Abhilfe für eine flüssige Vorschau.

Ist auch so ich habe eine Quadro 4200k und einen 4K Monitor, Illustrator und Premiere Pro geht super mit GPU auch PS aber Lightroom das ist eine Zumutung. Ich habe die neusten Treiber usw. eigentlich besten Voraussetzungen aber Lightroom ist einfach fehlerhaft darum lasse ich die GPU Beschleunigung raus. Viel Speicher, schnelle SSD und ein i7 Prozessor und Lightroom rennt richtig schnell auch mit den Daten einer A7R somit muss Adobe nochmal nachsitzen!

Viele Grüße

Lukas
 
Hallo,

es soll nicht gehn. Geht aber scheinbar schon.

Ich könnte mir vorstellen, daß die Graka mit den aktuellen Treibern nun auch eine höhere Auflösung (auf Kosten der Framerate), als original angegeben ist, kann.

Ich bin mir sicher, daß die Graka den Monitor und dessen Auflösung auch über HDMI korrekt erkennt.

Ich bin mir aber nicht sicher, ob die volle Auflösung/Farbtiefe auch am HDMI-Ausgang der Graka anliegt, da dieser vermutlich schon hardwarmäßig nicht für 4k ausgelegt ist.

Ich würde mal mit einem Dual-Link-DVI-Kabel (oder Displayport) gegentesten, ob sich beim Umschalten zwischen den Monitor-Eingängen optische Veränderungen (Schärfe/Auflösung/Farben) erkennen lassen.
Als Testquelle solltest Du direkt ein RAW, oder ein 4k-16-Bit-TIFF/PSD... verwenden, da Du bei einem Jpg-Bild die Reduzierung der Farbtiefe schon vorweggenommen hättest.

Die verringerte Farbtiefe betrifft nur den HDMI-Ausgang bei Versionen unter HDMI 2.0.

Das, was Dein obiges Bild anzeigt, könnte durchaus korrekt sein, wenn man eine Verbindung nutzt, die die erforderliche Datenmenge auch transportieren kann.

Falls Du Dich fragen solltest, warum ich auf diesen Themen "rumhacke", so möchte ich Dir sagen, daß Du einfach sicher sein solltest, daß Du am Ende der Anzeigekette auch wirklich 4k hast.

Mein Vater hat meinen "alten" 27er-4k-Monitor bekommen und versucht, diesen an seine GTX 970 per HDMI anzuschließen (wie seinen alten HD-Monitor). Er war über die Bildqualität enttäuscht - bis er dann doch auf DP umgestellt hat...
 
WERBUNG
Zurück
Oben Unten