• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Braucht man für einen 10-Bit-Schirm eine 10-Bit-Graka?

betazoid

Themenersteller
Hi Leute,

ich überlege, mir einen neuen Bildschirm zuzulegen, konkret habe ich den Benq SW240 im Visier. Aber was ich mich in diesem Zusammenhang gefragt habe ist, ob der Bildschirm an meinem Laptop überhaupt funktionieren würde. Wie ist das mit 8 und 10 Bit? Also mein Laptop hat sicher keine 10-Bit-Grafikkarte. Und wenn der Bildschirm an meinem Laptop prinzipiell funktionieren würde - würde ich den Unterschied bei der Bildqualität bei einer 8-Bit-Grafikkarte überhaupt sehen? Oder brauchte ich gleich auch einen neuen PC?

Danke im Voraus für die Antworten
b
 
die Grafikkarte muss es liefern, HDMI ist Pflicht und wenn das nicht geht, kannst es lassen.

Einen Unterschied zu 8bit wirst Du eher auch nicht sehen ; « merken » - wenn überhaupt - kannst Du das bei Verläufen.
Lohnen tut es bei Video mit heftigerem grading hintendran und wenn Du viel (professionnel) ausbelichten lässt.
 
Moment. Das habe ich jetzt nicht verstanden. Hab ich bei einer 8-Bit-Graka jetzt einfach kein Bild am 10-Bit-Monitor? Oder doch? Oder was jetzt?
Also HDMI-Anschluss habe ich klarerweise.
 
Bild schon. 8bit.
 
Also mir ginge es nicht so sehr um 10 oder 8 Bit sondern um den Farbraum - bessere, lebendigere Farben halt, und die Tatsache dass CMYK in AdobeRGB hineinpasst - im Gegensatz zu sRGB. Momentan habe ich ja einen sRGB-Schirm (nicht ganz genau sRGB).
 
Also mir ginge es nicht so sehr um 10 oder 8 Bit sondern um den Farbraum - bessere, lebendigere Farben halt, und die Tatsache dass CMYK in AdobeRGB hineinpasst - im Gegensatz zu sRGB. Momentan habe ich ja einen sRGB-Schirm (nicht ganz genau sRGB).

Kurz gesagt: 10Bit sind fuer Photo praktisch irrelevant (das aendert sich dann, wenn sich HDR - auch im Zuge von 8K - durchzusetzen beginnt), wichtiger ist, dass der Bildschirm gut kalibriert werden kann.
 
Also mir ginge es nicht so sehr um 10 oder 8 Bit sondern um den Farbraum - bessere, lebendigere Farben halt, und die Tatsache dass CMYK in AdobeRGB hineinpasst - im Gegensatz zu sRGB. Momentan habe ich ja einen sRGB-Schirm (nicht ganz genau sRGB).

AdobeRGB/sRGB/ProPhotoRGB gibt hier nur den Farbraum an, also welche reale Farbe welchem R/G/B Pixelfarbwert von (0/0/0) bis (max/max/max) zugeordnet ist. 8bit-Adobe RGB enthält dabei z.B. ein leuchtenderes Rot und ein leuchtenderes grün als sRGB bei identischen Pixelwerten. Dafür fehlen ein paar andere Farben, die es in 8-bit sRGB gibt.

Die Farbtiefe gibt dann an wie viele Stufen von 0 bis max jeweils vorhanden sind. Bei 8-bit hat man 2^8, also 256 Stufen, bei 10-bit hat man 2^10, also 1024. Damit kann der 8-Bit Monitor eben 265 verschiedene "Rot-Helligkeiten", der 10-bit Monitor 1024. Somit lassen sich im Prinzip vom Monitor her auch viel feinere Rotstufen darstellen. Wobei man für die 10-bit Ausgabe in OpenGL und damit in Photoshop und LR usw. leider eine "Profi" Karte braucht, also eine Radeon Pro oder eine Nvidia Quadro. Und die sind nicht so ganz günstig, vor allem wenn sie noch etwas 3D-Leistung haben sollen.

Damit reicht eigentlich mit einer 8-bit Grafikkarte an einem nicht-kalibrierbaren Monitor im Prinzip auch erst mal ein 8-Bit Display. Hier hat man allerdings bei der notwendigen Profilierung über ein Messgerät dann das Problem, dass man am Ende weniger Farben hat, da die GPU z.B. ein "250/0/0" ausgeben muss, damit auf dem Monitor dann ein "256/0/0" Rot dargestellt zu bekommen. Diese "Differenz" bzw. "Neuzuordnung" wird dann in der Grafikeinheit in der LUT, der "Look up Table" gespeichert. Wobei diese bei "einfachen GPU" auch nur mit 8-bit arbeitet. So dass man am Ende z.B. keine 16.7 Mio tatsächliche Farben mehr hat, sondern nur z.B. nur noch 15,6 Mio, es fehlen durch die Profillierung ein paar Farben. Das kann eventuell dazu führen, dass man am Monitor Farbabrisse sieht, die im Bild eigentlich nicht vorhanden sind. Und wenn man in der EBV 100% Farbecht arbeiten möchte (z.B. wegen Produktfotografie...), dann ist das so auch ein bisschen ein Problem. Für private Zwecke und nur hin und wieder mal ein Bild bearbeiten reicht das aber völlig. Besser ist hier natürlich ein 10-bit Monitor, hier sind die möglichen Stufen zwischen den Farben am Monitor kleiner. So dass man hier normal nicht so viel korrigieren muss, man verliert weniger Farben.

Wirklich Abhilfe bei mehr Anspruch schafft dann aber erst ein hw-kalibrierbarer Monitor - hier gibt die Grafikkarte direkt ein "256/0/0" an den Monitor, man hat alle 16.7 Mio mögliche Farben am Ausgang der Grafikkarte. Und der Monitor wird dann intern so eingestellt, dass dort dann auch ein 256/0/0" dargestellt wird. Somit können am Monitor auch alle 16.7 Mio Farben dargestellt werden. (Und mit einer 10bit-GPU hätte man 1 Mrd mögliche Farben in der Darstellung..).Das geht u.a. deswegen weil diese Monitore dann z.B. intern mit einer 16-bit Tabelle für die Farben arbeiten.

Der Nachteil ist, dass man einen guten, hardware-kalibrierbaren Monitor mit >99% AdobeRGB, 24" und 1920x1200 bzw. 1920x1080 erst ab rund 650€ kriegt (grob geschätzt). Während man einen guten nicht-kalibrierbaren 10-bit Monitor (echte 10bit) vermutlich für schon rund 400€ bis 500€ kriegt und einen guten 8-bit (16.7 Mio Farben) schon ab rund 250€ bis 350€ oder so.

Aber wie gesagt: Wer nicht 100% Farbecht arbeiten möchte oder nicht die höchsten Absprüche hat, der kann auch schon mit einem guten "nur" 8-bit Display weit kommen - das ist zumindest in meinen Augen manchmal besser als mit einem schlechten hw-kalibrieraren, der dann nicht gleichmäßig ausgeleuchtet ist oder kein homogenes Bild hat usw.und bei dem dann auch die Kalibrierungs-Software noch rum zickt. Etwa wenn man mal schnell in den sRGB-Modus wechseln will, weil man irgendwelche Software ohne Farbmanagement verwenden möchte. Was bei guten Monitoren ein Mausklick ist kann bei schlechten auch mal 2 bis 3 Minuten dauern. Oder mehr. Oder die Software hat eine Einstellung verloren...
 
Der Benq, um den es hier geht, ist hardwarekalibrierbar und kostet knapp 500 EUR.

Ist mir bekannt.
Deswegen habe ich auch den guten hardware-kalibrierbaren erwähnt, der dann rund um die 650 Euro kosten würde in der Größe.
Bei BenQ muss man in aller Regel leichte Abstriche machen bei der Homogenität, der Ausleuchtung und vor allem der Software.
 
Ich hab in der Zwischenzeit weitergesucht und einen möglicherweise interessanten Monitor mit großem Farbram aber ohne 10 Bit und möglicherweise auch ohne Hardwarekalibrierung gefunden:
Dell UltraSharp UP2516D
Glaubt ihr ist der besser oder schlechter als der BenQ?
 
Hallo Betazoid,
ich habe meine letzten Monitore nach folgenden Prioritäten gekauft:
- Budget (Blickwinkelabhängigkeit, ... will ich mal auslassen, über TN's etc reden wir nicht)
- gleichmäßige Ausleuchtung,
- ausreichende Helligkeit (o. k., mein 4K-Monitor ist ein wenig zu dunkel),
- Farbraumunterstützung von >=sRGB, und einstellbare Farbwiedergabe.
Interessanter Weise kamen da hardwarekalibrierbare Modelle mit 10 Bit LUT heraus (aber nicht 10 Bit ansteuerbar). Leider war ich, wenn es um die Auswahl ging, in weitem Umfeld alleine, und auch Dir wird's nicht viel anders gehen (so oft kauft man nun mal nicht neue Monitore). Wenn mehr als ein Display an einer Grafikeinheit hängt, ist ein "hardwarekalibrierbarer" nötig, wenn man Einfluß auf die Farbdarstellung nehmen will.
Mir wäre eine gleichmäßige Darstellung am wichtigsten, noch vor Kalibrierbarkeit und möglichen Farbräumen. Leider schränkt das die Auswahl an Modellen ein.
 
Ich würde bei so was einfach mal schauen ob der Monitor nicht irgendwo in einem Computerladen oder Fotoladen steht (die haben teilweise auch Monitore in der Ausstellung...) und das Gerät mal genauer ansehen, am besten mit einem bekannten Bild.
(Bei meinem letzten Monitor bin ich dafür auch bisschen weiter gefahren, allerdings ging es da auch um rund 1000€ Budget, da lohnt sich ein Vergleich schon. Und 50€ Fahrtkosten zusätzlich sind mir da lieber als 700€ für einen Monitor auszugeben, mit dem man am Ende nicht glücklich wird...)
 
Nur welches Bildbearbeitungsprogramm unterstützt 10 Bit Farbausgabe?
Und wie muss der Rechner dafür aufgerüstet werden?

Spontan fällt mit nur Photoshop ein. Es benötigt dafür proffessionelle Grafikkarten wie z.B. aus der Quadro Reihe. Die gehen ab 130€ für eine P400 und 200€ P600 los, nach oben hin +/- offen im Preis bis über 10.000€ für die GV 100.
 
Nur welches Bildbearbeitungsprogramm unterstützt 10 Bit Farbausgabe?
Und wie muss der Rechner dafür aufgerüstet werden?

Prinzipiell sollten alle Qt-basierten Programme mit 10Bit zurechtkommen. Die Linux-Version von Krita schafft das auch seit vielen Jahren- ob die Win-Version das auch kann, wäre eine Frage an die Entwickler wert.
 
Hallo Peter,
10 Bit Bildanzeige ist immer mal Thema in einer der letzten c'ts "Digitale Fotografie" (2/15, S. 44). Neben dem Monitor bedarf es auch der passenden Grafikkarte (nämlich einer "Pro-Version", wie einer Firepro von AMD oder einer Quadro von NVIDEA). Die sind hinsichtlich P/L mir deutlich zu heftig.
Die Info ist zwar 3 Jahre alt, aber ich habe noch nichts Neues dazu gelesen. Im Artikel werden Photoshop und Affinity Photo als Kandidaten genannt.
Ich würde allerdings erst mal Geld für einen "farbverbindlichen" Monitor und den zugehörigen Arbeitsplatz ausgeben, mit dem ich 8 Bit gut angezeigt bekomme, sollte mir ein Monitor "von der Stange" nicht reichen. Das ist bereits außerhalb Deines Budgets.
 
Prinzipiell sollten alle Qt-basierten Programme mit 10Bit zurechtkommen. Die Linux-Version von Krita schafft das auch seit vielen Jahren- ob die Win-Version das auch kann, wäre eine Frage an die Entwickler wert.
Als Zwischenschicht gibt es die Grafiktreiber die bestimmte Protokolle erfüllen. Adobe setzt auf OpenCL. Diese wird im Gegensatz zu HDR Lösungen nicht von NVIDIA für Spiele und Consumer GraKas passend unterstützt.

Es geht um die Anzeige, dass viele Grafikprogramme nicht nur 8bit sondern auch 16 oder 32 und dazu Floatingpointformate können ist bekannt. Aber welches Programm kann auch Anzeige in 10-bit?
Eben....
 
WERBUNG
Zurück
Oben Unten