WERBUNG

Frage zu 8bit+FRC Monitor

Dr. Seltsam

Themenersteller
Hallo Zusammen,

seit kurzem habe ich einen BenQ Monitor GW2765. Er hat 100% sRGB aber nur 8bit+FRC Farbtiefe. Wenn ich es richtig verstanden habe, könnte er damit wenigsten 10bit Farbtiefe emulieren, wenn er über HDMI oder DP angeschlossen ist.

Meine Grafikkarte (GTS 250) hat jedoch nur einen DVI-D Ausgang, da macht der Monitor nur 8bit ohne FRC.

Wäre es nun sinnvoll sich eine neue Grafikkarte zuzulegen, die den Monitor mit 10bit ansteuert? Oder sind die Verbesserungen so marginal, dass ich bei meinem bisherigen Setup bleiben soll?

lG Klaus
 
Das kommt wirklich auf den Monitor an.

Auf einem Eizo CG2420 gibt es einen sichtbaren Unterschied, auch auf einem Wacom Cintiq 24 HDT. Glaube beides sollen echte 10 Bit bieten.

Auf einem 2013er Dell 24er mit 8Bit+FRC siehst Du halt bei näherem Hinsehen ein leichtes Rauschen in den dunklen Bereichen, aber im Grunde genommen waren mir die weicheren Verläufe wichtiger (Hab mit dem auch mal 2 Jahre gearbeitet).

Eine QuadHD fähige Quadro K4000 ist z.B. schon für 200 € gebraucht zu haben, eine M2000 kostet ein wenig mehr. Sofern Du damit nicht unbedingt spielen willst, reicht das.
 
Man muss auch wissen welche Software man nutzt.
Bei der üblichen Fotosoftware ist das ausschließlich Photoshop, die überhaupt 10 Bit unterstützt.
Für mich lohnt sich das z.B. nicht, weil ich damit ja auch auf eine spieletaugliche Grafikkarte verzichte.
 
Gut, das ist eine Preisfrage aber man kann ja bei den meisten Mainboards auch 2 Karten verbauen... z.B. eine Quadro, die die Mindestanforderung an die Auflösung erfüllt und eine dedizierte Consumerkarte a la GTX 1070 und beide an den Monitor anschliessen.

Vorteil bei vielen Anwendungen die GPU-Rendering unterstützen: Die GTX rendert, die Bildschirmausgabe erledigt die Quadro und man arbeitet ganz normal weiter (3D Anwendungen z.B.).

Einige Spiele unterstützen ja jetzt schon die 10 Bit Ausgabe per DirectX im Fullscreen... da trumpft dann auch die GTX in 10 Bit auf.... aber das ist ein anderes Thema.

Nachtrag: Am Ende muss man sich dann fragen, ob sich der Aufwand, als Fotograf nur für Photoshop, lohnt. Für 3D Artists, Mediziner, Wissenschaftler, Konstrukteure, Compositor und Cutter ist es leichter... wir/die haben einiges mehr an Software, die das unterstützt.
 
Zuletzt bearbeitet:
Gut, das ist eine Preisfrage aber man kann ja bei den meisten Mainboards auch 2 Karten verbauen... z.B. eine Quadro, die die Mindestanforderung an die Auflösung erfüllt und eine dedizierte Consumerkarte a la GTX 1070 und beide an den Monitor anschliessen.

Vorteil bei vielen Anwendungen die GPU-Rendering unterstützen: Die GTX rendert, die Bildschirmausgabe erledigt die Quadro und man arbeitet ganz normal weiter (3D Anwendungen z.B.).
Ich habe da auch schon drüber nachgedacht, klappt bei meinem Setup nicht so richtig.
Aber klappt das sonst gut, wenn man die Consumer und Quadro-Karten mischt?
Wie ist das dann mit den Treibern für die Karten?

Einige Spiele unterstützen ja jetzt schon die 10 Bit Ausgabe per DirectX im Fullscreen... da trumpft dann auch die GTX in 10 Bit auf.... aber das ist ein anderes Thema.
Videoplayer mit 10 Bit DirectX bekommt man auch hin. :)
 
Ich habe da auch schon drüber nachgedacht, klappt bei meinem Setup nicht so richtig.
Aber klappt das sonst gut, wenn man die Consumer und Quadro-Karten mischt?
Wie ist das dann mit den Treibern für die Karten?

Das hat man schon Anno 1997-1999 hinbekommen als man noch ne Elsa Riva TNT für 2D und ne Vodoo für 3D verbaut hat oder ich hatte damals in meinem Firmenrechner eine Matrox Karte dediziert für eine perfekte 2D Ausgabe, neben der obligatorischen 3D Grafikkarte (+ 2 fette 21" 4:3 Röhrenmonitore, unter denen sich der Tisch verbogen hat). Und das war unter Windows NT oder 2000.

Momentan ist es für für kleine Studios garnicht so unüblich , sich für Octane/Redshift/VRay RT/IRAY eine Quadro für die Ausgabe und 3x 980 GTX TI/Titan X/Z für das Rendern zu verbauen (In Zukunft auch die Pascal Reihe, wenn endlich mal alle Treiber/Unterstützungen perfekt funktionieren). Damit ist man unabhängier von Renderfarmen und auch flexibler. 4 Karten brächten nicht soviel mehr als 3 Karten (irgendso ein komisches mathematisches Gesetz:D), daher verbaut man eine dedizierte für die Ausgabe, um normal weiterarbeiten zu können.

Videoplayer mit 10 Bit DirectX bekommt man auch hin. :)

Kenne mich mit Videoplayern nicht so aus... Im Filmbereich - wo eigentlich 10 oder mehr Bit seit Jahren Standard ist (Allerdings kosten die Monitore da auch ein Vermögen), , müsste ja eigentlich genug Material vorhanden sein...
 
Hallo,

vielen Dank, das ist ja schon mal jede Menge Input:). Wenn ich es richtig verstanden habe, ist FRC am Monitor nur verfügbar, wenn die Grafikkarte über eine 10bit Ausgabe verfügt?

Eine QuadHD fähige Quadro K4000 ist z.B. schon für 200 € gebraucht zu haben, eine M2000 kostet ein wenig mehr. Sofern Du damit nicht unbedingt spielen willst, reicht das

Mein PC ist ne alte Kiste, darin werkelt ein Intel Q9550 @ 3,6Ghz hochgetaktet. Die Leistung reicht mir völlig, da ich nicht spiele. Die einzigen Anwendungen, die etwas Leistung erfordern ist EBV und etwas Videoschnitt.

Wäre da eine K4000 nicht etwas oversized? Könnte ich z. B. auch eine firepro V4800/V4900 für 2560x1440 Auflösung und 10bit Farbtiefe nehmen, die gebraucht schon für etwa 20€ zu haben ist?

Oder lieber einer Nvidia den Vorzug geben, denn von den AMD Karten laß ich kürzlich von einem Problem, dass sich unter Windows, die 10bit Farbtiefe im Treiber nicht aktivieren ließ? Selber nutzte ich Win10.

Ich nutze hauptsächlich die Nikon Software Capture NX-D und View NX-I für die RAW Dateien meiner Nikon D7200. Keine Ahnung ob hier 10bit Sinn macht. Ansonsten noch Photoshop Elements 13 von der ich weiß, dass nur 8bit unterstützt wird.
 
Zuletzt bearbeitet:
Von AMD würde ich persönlich Abstand nehmen. Die Gründe aufzuführen würde hier den Rahmen sprengen. Nimm dann lieber ne Pre-Kepler Karte, also ne quadro 2000 z.b. http://www.nvidia.de/object/product-quadro-2000-de.html
Gibts für 50€ gebraucht.

Die Software die Du nutzt, unterstützt kein 10 Bit. Du brauchst schon Photoshop ab CS 5.5 (habs damals ca. 2010, 10 Bit so zum Laufen gebracht)und am sichersten fuktioniert ein aktuelles 2015er CC.
 
Zuletzt bearbeitet:
Borys1978 schrieb:
Nimm dann lieber ne Pre-Kepler Karte, also ne quadro 2000 z.b.

Die Software die Du nutzt, unterstützt kein 10 Bit. Du brauchst schon Photoshop ab CS 5.5 (habs damals ca. 2010, 10 Bit so zum Laufen gebracht)und am sichersten fuktioniert ein aktuelles 2015er CC.

Das überrascht mich, hätte schon erwartet dass Nikons RAW-Konverter 10bit unterstützt, die RAWs haben auch mind. 12bit. Naja man lernt nie aus. Vielen Dank für die wertvollen Tips Borys :top:
 
Nein, das hat eher was mit der GPU Unterstützten OpenGL Bildschirmausgabe zu tun. Capture NX-D, etc. nutzen ja eher die ganz normalen Windows Apis für die GUI, Viewports, etc. Da kannste sogar ein echtes 16 Bit Tiff reinladen, wenn es danach geht und es wird trotzdem 8 Bit pro Kanal ausgegeben.

Von 10 Bit Ausgabe sind die noch recht weit entfernt. Es gibt ja nichtmal GPU Unterstützung für stufenloses Zoom/Pan + Rendering in der Nikon Software.
 
Zuletzt bearbeitet:
Das überrascht mich, hätte schon erwartet dass Nikons RAW-Konverter 10bit unterstützt,
Das meinten wir als wir sagten, dass es ausschließlich PhotoShop im Fotografiebereich macht.
Ist aber auch nicht alles schlecht in 8-Bit.
Lightroom bespielsweise Dithert selbst die Darstellung, so dass die üblichen 16-Bit-Testbilder für 10-Bit Display auch stufenlos aussehen.
 
Das meinten wir als wir sagten, dass es ausschließlich PhotoShop im Fotografiebereich macht.
Prinzipiell ist auch Qt5 10Bit-fähig. Damit sollten also auch der Firefox oder Krita laufen. Unter Linux kann man theoretisch den gesamten KDE-Desktop mitsamt nativen Anwendungen unter dieser zeitgemässen Farbauflösung betreiben. Praktisch ist dies leider immer noch vermintes Gelände, obwohl die Vorteile auf der Hand liegen.
 
Wer sich für das Thema interessiert, sollte sich mal diesen Artikel von 2009 reinziehen. Ausserhalb des professionellen Bereichs, ist da ja verhältnismässig wenig im Consumermarkt passiert... http://www.cgw.com/Publications/CGW/2009/Volume-32-Issue-6-June-2009-/A-Bit-of-Difference.aspx

Würde Nvidia nicht so restriktiv mit Treibern umgehen, dann wäre das ganze Thema heute standard. Aber hey, ne P6000 werde ich in der Luftfahrt- oder Medizinbranche für 10K € los... wäre doch doof denen nur 900 € für ne 1080 GTX Ti abzuknüpfen...:D
 
WERBUNG
Zurück
Oben Unten