• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Kaufberatung Monitor: Welche Features verzichtbar?

Seb

Themenersteller
Hallo zusammen,

nach Jahren mit einem 22" TN-Monitor würde ich mir gerne einen neuen anschaffen und bin mir nicht sicher welche Features er haben muss/soll/kann. Ein Topgerät hätte wohl:
  • 4k-Auflösung
  • IPS-Panel
  • >27" Diagonale (30-32)
  • aRGB-Abdeckung
  • Hardwarekalibrierung möglich
  • 10 bit Farbtiefe
Wenn ich mich damit durch die Preismaschinen wühle, lande ich im vierstelligen Bereich, was mein Budget sprengt. Daher die Frage, auf was ich wohl am ehesten verzichten kann.
Ich verwende den Monitor überwiegend für Office und Surfen. Bildbearbeitung mache ich nur recht gelegentlich, aber es ist natürlich der Hauptanschaffungsgrund für den Neukauf. Die Bilder werden hauptsächlich ausbelichtet/als Fotobuch gedruckt

Mein bisheriger Wissensstand/Meinung:

4k-Auflösung: Für Bildbearbeitung primär natürlich nicht entscheidend, aber evtl. kommt als nächste Kamera mal eine mit 4k-Video, da wäre dann ein Monitor mit entsprechender Auflösung schon nett. Außerdem scheint das ja der kommende Standard für Filme & Videos zu werden.

Bildschirmdiagonale: 27" wären schon ein guter Sprung von 22". Noch größer wäre evtl. wegen sonst zu kleiner Bedienelementen in Programmen nett.

IPS-Panel: ist eigentlich gesetzt und wohl unverzichtbar

aRGB: Bei dem Punkt bin ich mir eigentlich am unsichersten, ob ich nicht vielleicht mit sRGB genauso auskommen würde. Mir fehlen da schlicht die Erfahrungen/Vergleiche.

Hardwarekalibrierung: Ist eher eine Bequemlichkeitssache, also verzichtbar?

10bit: Das ist eher vorsorglich als "Zukunftssicherheit" auf der Liste gelandet, bisher sind mir bei Bildern am Monitor noch nie Farbabrisse aufgefallen. Also auch eher verzichtbar?


Bisherige Kandidaten:
Dell UP3216Q hätte wohl alles, kostet aber eben vierstellig.
BenQ PD3200U hätte nur sRGB und ist nicht hardwarekalibrierbar, dafür halt groß und 4k. In Tests wurde von einer etwas ungleichmäßigen Helligkeit gesprochen. Gäbe es für 800€.
BenQ SW2700PT würde fast die komplette Liste abhaken, hat aber nur WQHD-Auflösung und (Dafür aber auch) nur 27" Gäbe es für 700€


In welche Richtung würdet ihr gehen? Habt ihr noch andere Vorschläge?

Danke für Input,
Sebastian

PS: Falls es relevant ist: ich arbeite unter Linux
 
Wichtig und sinnvoll für ambitionierte:
- IPS oder ähnliches
- 99-100% sRGB
- gleichmäßige Ausleuchtung
- 25-27''
- gutes Farbverhalten Richtung sRGB ab Werk
- Einstellbarer Weißpunkt und manuelle Farbbalance direkt am Monitor zur Voreinstellung hinsichtlich Software-Kalibrierung

Meines Erachtens verzichtbar (von unwichtig zu eher sinnvoll)
- 10 Bit Farbtiefe (nur mit teuren Profikarten und nur für spezielle Software möglich)
- Adobe RGB - Wide gamut (nur sinnvoll wenn man korrektes Farbmanagement einsetzt und versteht, sonst eher hinderlich)
- Hardwarekalibrierung
- 4K (scharfe Schrift und Details sind schon geil, braucht je nach Software aber richtig Leistung und nicht jede Software ist dafür ausgelegt.

Also im Bereich von 500-800 € solltest du eigentlich ein anständiges 27'' Gerät finden, mit dem man gut arbeiten kann. Oft genannte Vertreter findet man bei Eizo, Dell, NEC.
 
Zuletzt bearbeitet:
Es gibt mittlerweile auch schon 5k, z. B. in 27" Größe. Nur so als Hinweis. :)

27" wären schon ein guter Sprung von 22". Noch größer wäre evtl. wegen sonst zu kleiner Bedienelementen in Programmen nett.
Du musst Dir erst mal überlegen, was Du Dir von 4k erwartest. Es gibt zwei Möglichkeiten: mehr Platz oder feinere Darstellung. Im letzteren Fall muss im Betriebssystem eine entsprechende Skalierung eingestellt sein, und die Anwendungsprogramme sollten es ebenfalls unterstützen. Bei den neueren Windows- und Mac-Programmen klappt das ziemlich gut; wie es bei Linux aussieht, weiß ich allerdings nicht (da hinkt die Entwicklung ja gerne mal etwas hinterher).
Inwieweit man für Bildbearbeitung die feinere Darstellung braucht, darüber kann man streiten. Für Office-Zwecke ist sie auf jeden Fall ein Fortschritt. Man kriegt z. B. eine viel feinere Textdarstellung; wenn man damit mal gearbeitet hat, erscheinen "normale" Monitore einfach nur noch grobschlächtig.

Ich persönlich habe mittlerweile 4k-Auflösung auf 23,8" Diagonale und finde es absolut genial. Dank 200 % Skalierung sind die Bedienelemente genauso groß wie auf einem HD-Monitor gleicher Größe bei 100 % - aber Texte sehen aus "wie gedruckt", und Bilder sind superscharf. Allerdings arbeite ich unter Windows 10, und da können mittlerweile auch die meisten Programme eine saubere Skalierung. (Ältere Programme werden von Windows grafisch hochskaliert. Die sind dann nicht so schön scharf, aber man kann sie dennoch benutzen.)
 
Hallo zusammen,

nach Jahren mit einem 22" TN-Monitor würde ich mir gerne einen neuen anschaffen und bin mir nicht sicher welche Features er haben muss/soll/kann.
(...)
PS: Falls es relevant ist: ich arbeite unter Linux

Erst mal: Mit dem Betriebssystem hat das nur bedingt zu tun. Linux ist da nicht besser oder schlechter als macOS oder Windows, beim Farbmanagement sogar ein bisschen durchdachter als Windows.

Wichtig ist viel mehr:
Was genau machst du denn mit dem Monitor? Wo liegen deine Ansprüche?

Generell kann man nur sagen, dass der Monitor einigermaßen Blickwinkelstabil sein muss, daher ist IPS immer gut, eigentlich notwendig, ebenso eine gute Gleichförmigkeit der Ausleuchtung. Mit billigen TN Panels kann man hier immer nur mit dem Kopf an einer Position wirklich gut arbeiten, weil sich z.B. die Kontraste und Farben schon leicht ändern können, wenn man sich mal am Schreibtisch weit zurück lehnt.

Auch wichtig ist zumindest eine gute sRGB Abdeckung: mit nur 85% sRGB kann man zwar schon was anfangen, denn das ist besser als kein Monitor - man hat aber das Problem, das man eventuell einen leichten Farbstich bei der Ausbelichtung (oder an einem andern Monitor) hat, den man selbst nicht gesehen hat.
Mit AdobeRGB oder gar ProPhoto an einem Wide Gamut Monitor zu arbeiten hat dann durch den deutlich größeren Farbraum durchaus viele Vorteile, wenn man z.B. seine Bilder in 16-bit in PS bearbeitet - aber man sollte dann schon genau wissen, was man macht. Denn nur eine Handvoll Ausbelichter fangen mit diesen Farbräumen irgendwas was an - und selbst die machen aus nicht richtig gekennzeichneten Bildern dann eben mal ein sRGB. Und auch die meisten sonstigen Monitore sind auf sRGB beschränkt, die meisten PC-User nutzen kein Farbmanagement. Und damit sehen Bilder im AdobeRGB oder gar im ProPhoto Farbraum, die als sRGB interpretiert werden, unschön aus. Außerdem muss man wissen, was man macht und sich bisschen einarbeiten in die Thematik. Sonst macht man leicht mal Fehler und weiß nicht warum und was. sRGB als Farbraum reicht also erst mal für viele User.

Bei der Größe kommt es auf den Schreibtisch und den Platz an. Hat man 60cm bis 80cm Tiefe am Schreibtisch, dann kann man sich einen 27" Monitor hin stellen, der dann in Armlänge vor einem steht. Hat man nur wenig Platz in der Tiefe, dann ist der schon zu groß. Und ein 24" ist wohl besser. Hängt der Monitor an der Wand hinter dem Schreibtisch in z.B. 1m Entfernung, dann darf es auch mal ein 32" oder größer sein.

Was die native Auflösung an geht, so sind für mich an einem 27" monitor WQHD (2560x1440) ideal bzw. FullHD (1920x1080) an einem 23". (Das hat auch den Vorteil, dass man Spiele mit nicht zu hoher Auflösung "nativ" laufen lassen kann, das aber nur am Rande). 4K ist klar nett zu haben und ab spätestens 30" bei Armlängenabstand auch irgendwo empfehlenswert - verteuert den Monitor aber auch deutlich.


Ansonsten kommt es dann auf das eigene Profil an:
Wenn du nur gelegentlich mal ein paar Bilder ausbelichtest, alle paar Tage mal ein Bild für Facebook oder WA oder deine Webseite vorbereitest, dann sind das keine großen Anforderungen. Da tut es auch ein "einfacher" Monitor. So ab 400€ bis 500€ kriegt man da schon was ganz gutes in 27". Wenn man nicht zu viel verstellt am Monitor, dann kann man sich nach z.B. 2 Jahren dann einmal im Jahr ein Colorimeter für 20€ ausleihen und das Ding damit wieder neu einstellen.
Das dürfte für die meisten User alles schon reichen.

Wenn du dagegen den Profi-Bereich ankratzt und Bilder ausbelichten oder veröffentlichen willst, bei denen die Farben korrekt zur mit fotgrafierten Farbkarte und auch wirklich ununterscheidbar zu den Farben der Bilder passen müssen, die du vor einem Jahr mit einer anderen Kamera gemacht und an deinem Rechner bearbeitet hast, und wenn du vor der Ausbelichtung auch sehen willst ob du z.B. eventuell ein Banding durch Veränderungen in den Gradationen hast, dann sind das ganz andere Anforderungen. Hier sollte dein Gerät eben zusätzlich noch möglichst wenig Farbfehler (kleines DeltaE) haben und intern ein 10-bit Display (auch wenn man mit 8bit GPU arbeitet) und am besten auch hardwarekalibrierbar sein, da man durch die Software-Kalibrierung (vor allem bei 8-bit Displays) eben ab Farbumfang bzw. an Farbwerten verliert. Dafür muss man dann allerdings auch schon rund 900€ bis 1000€ für so einen Monitor rechnen. Und noch mal 150€ bis 200€ für ein Colorimeter. Dann sollte der Monitor nämlich alle 200h oder so neu kalibriert werden.

Will man auch noch Videoschnitt und ähnliches auf diesem Niveau machen, dann kosten die notwendigen Monitore, die den DCI-P3 oder gar den BT.2020 Farbraum abdecken, sogar schnell mal mehrere tausend Euro. Die kosten dann schon in 27" oder 29" teilweise mehr als ein neuer Mittelklassewagen.
 
Zuletzt bearbeitet:
Wichtig und sinnvoll für ambitionierte:
- IPS oder ähnliches
- 99-100% sRGB
- gleichmäßige Ausleuchtung
- 25-27''
- gutes Farbverhalten Richtung sRGB ab Werk
- Einstellbarer Weißpunkt und manuelle Farbbalance direkt am Monitor zur Voreinstellung hinsichtlich Software-Kalibrierung

sehe ich ganz genau so (y)

und Bilder sind superscharf.

die Frage ist, was das bringt. Zum eigenen Betrachten mag das OK sein- mache ich so gut wie nie. Ich bearbeite meine Bilder am PC- um sie dann woanders anzeigen oder ausdrucken zu lassen.
Würden die Bilder schärfer dargestellt werden, müsste ich den Schärfeeindruck ja senken, weil sie jetzt genau so scharf auf meinem Monitor ausssehen, wie sie es sollen.

Ist ein prinzipielles Problem- aber mich überzeugt ein Monitor, der von sich aus Bilder schärfer anzeigt nicht (genau genommen sprechen wir hier ja auch nicht von Schärfe, sondern von Schärfeeindruck).

Ich bin immer wieder erstaunt, wenn auf meinem SD Kanal Werbung für HD TV gemacht wird ("schärfer als die Realität")- wie die es schaffen, dass plötzlich auf meiner SD Auflösung einen das Bild anspringt...da wird einem immer wieder klar vor Augen geführt, dass es weniger um Auflösung denn um Kontraste geht.

Und es mag an meinen alterschwachen Augen liegen- aber ich sehe auch mit meiner gerade neu eingestellten Brille kein bißchen mehr an Details auch bei niedrigerer Auflösung als 4K. Erst wenn ich gaaaanz nah rangehe, kann ich da was erkennen.
Und in der EBV muss ich heute oft schon bei 1920x1200 und 24" auf 200% Zoomen, wenn es um feinste Detailbearbeitung geht.

vg, Festan

edit: das Gesagte zu 4K gilt natürlich nicht mehr bei sehr nahe stehenden Monitoren die dann jenseits der 30" Größe angelangt sind, bei denen man dann also den normalen Betrachtungsabstand unterschreitet
 
Zuletzt bearbeitet:
Zum eigenen Betrachten mag das OK sein- mache ich so gut wie nie. Ich bearbeite meine Bilder am PC- um sie dann woanders anzeigen oder ausdrucken zu lassen.
Würden die Bilder schärfer dargestellt werden, müsste ich den Schärfeeindruck ja senken, weil sie jetzt genau so scharf auf meinem Monitor ausssehen, wie sie es sollen.
Man muss unterscheiden zwischen verkleinerter (= runterskalierter) Darstellung und der 100-%-Darstellung zur Detailkontrolle.
Runterskalierte Bilder wirken auf hochauflösenden Monitoren schärfer, weil sie bei gleicher Darstellungsgröße mehr Pixel zur Verfügung haben und daher nicht so stark runterskaliert werden müssen wie auf herkömmlichen Monitoren. Also es steigt tatsächlich die nutzbare Detailschärfe und man sieht etwas mehr von dem, was in der Datei steckt; das ist nicht vergleichbar mit stärkerer Scharfzeichnung auf einem niedrig auflösenden Monitor. Man kommt der Schärfe, die man beim Drucken erhält, schon wesentlich näher.
Die Kehrseite hoher Pixeldichten ist, dass man in 100-%-Darstellung vielleicht nicht alle Unzulänglichkeiten erkennt, weil die einzelnen Pixel schon zu klein sind. Die Bilder wirken dort noch sehr scharf, selbst wenn in Wirklichkeit schon leichte Unschärfen da sind, die man in 100 % auf einem herkömmlich auflösenden Monitor sehen würde. Da muss man dann auch mal auf 200 oder 300 % schalten, um solche Fehler zu sehen. Wenn man das weiß, ist es kein Problem.

Wenn man Bilder für die Bildschirmdarstellung optimieren will, muss man im Hinterkopf haben, dass Bilder heute sehr oft auf Monitoren mit hoher Pixeldichte angeschaut werden (allein schon auf den ganzen Smartphones). Allerdings gibt es an den stationären PCs auch noch viele "niedrig auflösende" Standardmontore. Man muss also heute an beide denken.
Auf einem hochauflösenden Monitor kann man mittels 200 % oder 300 % Darstellungsgröße (Pixelwiederholung, nicht Interpolation) jederzeit einen niedrigauflösenden Monitor simulieren.
Umgekehrt geht das nur eingeschränkt. Man kann an einem niedrig aufgelösten Monitor höchstens etwas weiter weggehen, um eine Ahnung davon zu kriegen, wie die Schärfe auf einem hochaufgelösten Monitor wirken würde. Aber dann hat man natürlich nur noch einen Bruchteil der Fläche zu Verfügung.

das Gesagte zu 4K gilt natürlich nicht mehr bei sehr nahe stehenden Monitoren die dann jenseits der 30" Größe angelangt sind, bei denen man dann also den normalen Betrachtungsabstand unterschreitet
Interessanter Aspekt! Die Vorstellungen, wie nah oder fern ein "normaler Betrachtungsabstand" ist, gehen vermutlich weit auseinander. Mag auch sein, dass die Leute je nach Art ihrer Fehlsichtigkeit einen großen Monitor aus größerer Entfernung oder einen kleineren Monitor aus geringerer Entfernung vorziehen.

Ich habe einen Betrachtungsabstand von 50 cm - und genau auf diese Distanz habe ich auch meine PC-Brille anpassen lassen. Mit meinem 24-Zöller (4k und 200 %) passt das für mich sehr gut. Um Platz zu gewinnen, könnte ich vermutlich auch mit 175 % Skalierung noch arbeiten, aber das würde dann schon anstrengender.
Ich hatte auch mal testweise für ein paar Tage einen 27"-Monitor. Da ergab sich bei 50 cm Betrachtungsabstand aber das Problem, dass zu den Seiten hin schon starke Winkelabweichungen auftreten und man trotz IPS kein gleichmäßiges Gesamtbild mehr sehen kann. Also einen 27-Zöller würde ich eher etwas weiter weg stellen (vielleicht 70 cm) - wodurch sich der vermeintliche Platzgewinn auch wieder aufheben würde.

Gerade für Bildbearbeitung, wo man ja gleichmäßige Farbe und Kontraste sehen möchte, finde ich mehrere kleinere Monitore sinnvoller als einen großen. Denn die kleineren Monitore kann man dann in unterschiedlichen Winkeln auf den Betrachter hin ausrichten. (Einen ähnlichen Zweck dürften auch überbreite, gebogene Monitore erfüllen. Allerdings hätte ich da Bedenken, ob man die Bildgeometrie noch richtig beurteilen kann, z. B. bei der Perspektivkorrektur.)
 
Man muss unterscheiden zwischen verkleinerter (= runterskalierter) Darstellung und der 100-%-Darstellung zur Detailkontrolle.
Runterskalierte Bilder wirken auf hochauflösenden Monitoren schärfer, weil sie bei gleicher Darstellungsgröße mehr Pixel zur Verfügung haben und daher nicht so stark runterskaliert werden müssen wie auf herkömmlichen Monitoren. Also es steigt tatsächlich die nutzbare Detailschärfe und man sieht etwas mehr von dem, was in der Datei steckt; das ist nicht vergleichbar mit stärkerer Scharfzeichnung auf einem niedrig auflösenden Monitor. Man kommt der Schärfe, die man beim Drucken erhält, schon wesentlich näher.

mmh, mir scheint, dass Du hier Schärfe und Schärfeeindruck nicht sauber trennst- aber vielleicht verstehe ich auch nur nicht alles.

Die Kehrseite hoher Pixeldichten ist, dass man in 100-%-Darstellung vielleicht nicht alle Unzulänglichkeiten erkennt, weil die einzelnen Pixel schon zu klein sind. Die Bilder wirken dort noch sehr scharf, selbst wenn in Wirklichkeit schon leichte Unschärfen da sind, die man in 100 % auf einem herkömmlich auflösenden Monitor sehen würde.

wenn man sogar in der 100% Ansicht einen höheren Schärfeeindruck hat und hier nicht alle Details erkennt, wie soll man das dann wie oben geschrieben in der Vollansicht des Bildes?:

Also es steigt tatsächlich die nutzbare Detailschärfe und man sieht etwas mehr von dem, was in der Datei steckt

Sieht man nun mehr an Details oder steigt der Schärfeeindruck?


Wenn man Bilder für die Bildschirmdarstellung optimieren will,

...
Auf einem hochauflösenden Monitor kann man mittels 200 % oder 300 % Darstellungsgröße (Pixelwiederholung, nicht Interpolation) jederzeit einen niedrigauflösenden Monitor simulieren.

das gilt aber dann nicht für die Vollansicht- die Detailauflösung eines 4K kann ich nicht an einem niedrig auflösenden Monitor simulieren.


Interessanter Aspekt! Die Vorstellungen, wie nah oder fern ein "normaler Betrachtungsabstand" ist, gehen vermutlich weit auseinander.

eigentlich nicht- zumindest nicht zum Betrachten eines ganzen Bildes auf einmal- hierzu braucht man ca. die Diagonale der Bildgröße. Näher ran führt zu einer Vergrößerung/Detailansicht des Bildes.


Ich hatte auch mal testweise für ein paar Tage einen 27"-Monitor. Da ergab sich bei 50 cm Betrachtungsabstand aber das Problem, dass zu den Seiten hin schon starke Winkelabweichungen auftreten und man trotz IPS kein gleichmäßiges Gesamtbild mehr sehen kann. Also einen 27-Zöller würde ich eher etwas weiter weg stellen (vielleicht 70 cm) - wodurch sich der vermeintliche Platzgewinn auch wieder aufheben würde.

Ich habe ja auch noch einen 24" (sitze aber ca. 60-65cm weit weg). Mein nächster wird dann wohl auch ein 27"- bei LR sind an den beiden Rändern ja die Panels, die ich heute oftmals ausblende, um mehr Bildfläche zum Bearbeiten zu haben (ähnlich bei PS, wo das etwas weniger stark ist, weil ich vieles aus dem Weg geräumt habe, das ich aber eigentlich gerne wieder da hätte).
Meine Hoffnung ist also, dass ich durch den größeren Monitor eine ähnlich große Bildfläche habe wie jetzt ohne die Panels, diese aber eingeblendet lassen kann oder evtl. sogar etwas größer ziehen kann bei LR und mehr einblenden kann bei PS.

Mit zwei Monitoren arbeite ich einfach nicht so gerne, wäre aber natürlich auch eine denkbare Lösung.

Denn die kleineren Monitore kann man dann in unterschiedlichen Winkeln auf den Betrachter hin ausrichten.

ja, das stimmt- was aber bedeuten würde, dass der Monitor, der das zu bearbeitende Bild anzeigt frontal ausgerichtet werden würde und der andere dann daneben- was schon ziemlich weit an der Seite wäre und deutlich stärkere Drehbewegungen des Kopfes bedürfte.

Bei einem großen Monitor und freiwillige Beschränkung des zu bearbeitenden Bildes, hat man die gleiche Bearbeitungsfläche mit weniger Kopfbewegung (ich denke, das wäre ergonomischer). Und bei weniger farb/helligkeitkritischen Bearbeitungsschritten könnte man dann sogar die noch größere Bearbeitungsfläche nutzen.

Das Schöne dabei ist, dass sich ja jeder das raus suchen kann, was ihm besser liegt und/oder besser seine Bedürfnisse befriedigt. Glücklicherweise haben wir heute ja diese Wahl :)

vg, Festan
 
wenn man sogar in der 100% Ansicht einen höheren Schärfeeindruck hat und hier nicht alle Details erkennt, wie soll man das dann wie oben geschrieben in der Vollansicht des Bildes?:
Ich weiß schon, dass das nach Widerspruch klingt. Ist es aber nicht. :)

Vollansicht heißt ja, es wird runterskaliert. Nur wird für 4k nicht so stark runterskaliert wie für 2k, also bleiben mehr Details sichtbar. Wo man auf 2k schon Pixel sieht, sieht man in 4k noch zusätzliche Details. Das heißt aber nicht, dass man schon jedes mögliche Detail sieht - denn erstens sind die Einzelpixel sehr klein, und zweitens sieht man ja nach wie vor nur eine herunterskalierte Version des Originals.

In 100 % hat man zwar im Prinzip immer alle Details, aber es ist in 4k natürlich kein so "mikroskopischer" Vergleich wie 100 % auf 2k. Also muss man für genaueste Analysen entweder mit dem Kopf näher rangehen (so nah, dass man doch wieder die einzelnen Pixel sieht - notfalls mit Lupe) oder eben auf 200 % schalten.

Sieht man nun mehr an Details oder steigt der Schärfeeindruck?
Es gibt ja zwei Wege, den Schärfeeindruck zu steigern: durch Tricks (Scharfzeichnung) oder durch tatsächliche Vermehrung der Details. Ein hochauflösender Monitor tut Letzteres - insbesondere in der Ganzbilddarstellung, wo runterskaliert wird.

In den 100-Prozent-Ansicht hat man zwar immer noch einen höheren Schärfeeindruck dank mehr Details - aber nur, weil man im Vergleich zum 2k-Monitor einen größeren Bildausschnitt sieht und dieser nicht so stark vergrößert wird. Das widerspricht der Intention, in 100-%-Ansicht wirklich pixelgenau zu arbeiten. Zum Beispiel fallen JPEG-Artefakte dann noch kaum auf, und auch feinere Fokus-Unterschiede sieht man nur mit Mühe.
Erst wenn man dann auf 200 % schaltet, hat man wieder ziemlich genau das, was man vom 2k-Monitor in 100 % kennt.

die Detailauflösung eines 4K kann ich nicht an einem niedrig auflösenden Monitor simulieren.
Richtig, das geht nur umgekehrt.

Mein nächster wird dann wohl auch ein 27"- bei LR sind an den beiden Rändern ja die Panels, die ich heute oftmals ausblende, um mehr Bildfläche zum Bearbeiten zu haben [...]
Meine Hoffnung ist also, dass ich durch den größeren Monitor eine ähnlich große Bildfläche habe wie jetzt ohne die Panels, diese aber eingeblendet lassen kann
Okay, das ist natürlich auch eine Strategie. Für die Panels spielen die Winkel-Effekte eine untergeordnete Rolle. Hauptsache, man sieht das Bild in der Mitte gleichmäßig.

was aber bedeuten würde, dass der Monitor, der das zu bearbeitende Bild anzeigt frontal ausgerichtet werden würde und der andere dann daneben- was schon ziemlich weit an der Seite wäre und deutlich stärkere Drehbewegungen des Kopfes bedürfte.
Ich hatte jahrelang zwei 19-Zöller. Ich selber saß genau in der Mitte. Das ging eigentlich recht gut und verursachte keinen Drehwurm im Hals. (Für Textverarbeitung und dergleichen habe ich häufig auch nur den linken Monitor benutzt und den rechten ausgeschaltet.)
Demnächst will ich sowas Ähnliches mit zwei 24-Zöllern probieren; ist nicht ganz dasselbe, weil die neuen Monitore 16:9 haben und die alten waren 5:4, aber ich bin trotzdem zuversichtlich.

Das Schöne dabei ist, dass sich ja jeder das raus suchen kann, was ihm besser liegt und/oder besser seine Bedürfnisse befriedigt.
Das stimmt. Jeder hat andere Bedürfnisse.

Was ich früher auch nicht so bedacht habe, sind die gesundheitlichen Aspekte, z. B. die Anfälligkeit für Kopfschmerzen bei bestimmten Kopfhaltungen oder bei Monitorflimmern. Oder die ganzen Varianten der Fehlsichtigkeit und Brillenvarianten (nicht nur Weit- und Kurzsichtigkeit, sondern z. B. auch die altersbedingt nachlassende Fähigkeit, auf unterschiedliche Entfernungen zu fokussieren). Wenn zwei Leute aus derselben Entfernung auf denselben Monitor schauen, sehen und empfinden sie nicht unbedingt dasselbe.
 
Es gibt ja zwei Wege, den Schärfeeindruck zu steigern: durch Tricks (Scharfzeichnung) oder durch tatsächliche Vermehrung der Details.

Mwn. nennt man eine Vermehrung der Details Schärfe und die "Tricks" Schärfeeindruck. Meine Raws, flat aufgenommen sehen alles andere als scharf aus- das ändert sich auch dann nicht, wenn die Details sich verfielfachen (die sahen ohne "Tricks" damals bei 8 MPixel schon genau so unscharf aus wie heute bei 24 MPixel (mehr habe ich nicht)).

Flau bleibt flau und erst durch die "Tricks" können die Details ja überhaupt erst vom Auge wahrgenommen werden (natürlich aber nur die, die da sind- von daher gibt es natürlich schon eine Abhängigkeit).


Okay, das ist natürlich auch eine Strategie. Für die Panels spielen die Winkel-Effekte eine untergeordnete Rolle. Hauptsache, man sieht das Bild in der Mitte gleichmäßig.

Ich hatte jahrelang zwei 19-Zöller. Ich selber saß genau in der Mitte. Das ging eigentlich recht gut und verursachte keinen Drehwurm im Hals.

Wenn Du so die Bilder bearbeitet hättest, hättest Du ja ebenfalls wieder das Problem mit der Winkelabhängigkeit- dann eben nicht auf zwei Seiten jeweils die Hälfte, sondern einseitig so viel wie bei einem Monitor rechts und links zusammen.

Wie Du ja schreibst: "Hauptsache, man sieht das Bild in der Mitte gleichmäßig." --> dazu muss man sich dem einen Monitor ja aber frontal zuwenden und der zweite steht entsprechend weit weg oder aber man arbeitet permanent mit gedrehtem Kopf. Wie das ohne (Kopf)drehbewegung gehen soll, kann ich mir nicht vorstellen. Viel eher schon, dass man sich so dran gewöhnt, dass es einem nicht mehr auffällt (was aber nicht bedeutet, dass es keine Auswirkungen auf einen hätte.)

vg, Festan
 
(...)

ja, das stimmt- was aber bedeuten würde, dass der Monitor, der das zu bearbeitende Bild anzeigt frontal ausgerichtet werden würde und der andere dann daneben- was schon ziemlich weit an der Seite wäre und deutlich stärkere Drehbewegungen des Kopfes bedürfte.

Das mit dem 2. Monitor ist eine Frage der Organisation von Desktop und Programmen.

Ich hab hier mittlerweile einen 27" Monitor als Haupt-Display. Und rechts daneben noch einen 23" als sekundären Monitor, auf dem dann z.B. am linken Rand die PS-Werkzeuge abgelegt werden, die Ebenenfloater usw. Aber auch andere unwichtige Fenster wie z.B. Media-Player oder Info-Fenster für den Router (wegen Telefonie) liegen dort, dann am rechten Rand. Also alles, das man nur selten braucht, aber dennoch gern im Blick hat. Die Monitore sind dabei im160° Winkel oder so angeordnet.

Die notwendige Drehung des Kopfes dabei ist dann beim Arbeiten minimal. Das ist im Prinzip wie ein bisschen breiterer Haupt-Monitor, da ich mit der Maus fast nie über die Hälfte des sekundären Monitors muss. Zudem nutze ich auch noch einen Drehstuhl am Arbeitsplatz.
 
dazu muss man sich dem einen Monitor ja aber frontal zuwenden und der zweite steht entsprechend weit weg oder aber man arbeitet permanent mit gedrehtem Kopf. Wie das ohne (Kopf)drehbewegung gehen soll, kann ich mir nicht vorstellen.
So wild ist das nicht. Ob man die ganze Zeit stur in die Mitte schaut oder mal 15° nach links und dann wieder 15° nach rechts, dürfte für die Kopfhaltung gleich gut oder schlecht sein. Da gibt es für Dauernutzer bestimmt größere Probleme mit Sitzhaltung und dergleichen.
Meine Erfahrungen gehen, wie gesagt, noch auf zwei 19-Zöller im 5:4-Format zurück. Mit zwei 24-Zöllern in 16:9 werde ich die Sache ein wenig modifizieren, z. B. etwas links von der Mitte der beiden Monitore sitzen. Wenn man dann den rechten Monitor so organisiert, dass (wie Felix schon schrieb) die wichtigeren Sachen am linken Rand liegen und die rechte Hälfte des rechten Monitors eher für "Ferner liefen" nutzt, engt das den Radius der häufigsten Nutzung weiter ein. Die Monitore sind ja drehbar, meine Tatatur lässt sich verschieben und mein Stuhl ist nicht am Boden festgeschraubt. So lässt sich für jede Arbeit eine passende Haltung finden.

Leider sind noch nicht alle Programme optimal für den Zweimonitorbetrieb geeignet. Das betrifft die Verteilbarkeit der Einstellfenster und auch das Farbmanagement. Aber mit etwas Überlegung und Organisation kriegt man das immer irgendwie hin.
 
Das Liebäugeln mit 4k hat bei mir glaub ich 2 Aspekte:
Zum einen auf jeden Fall mehr Platz, ich bin bei der Bildbearbeitung schon recht häufig am hin- und herspringen zwischen 100%-Ansicht und entsprechend weniger für die Übersicht. Da ich momentan mit 1060 Zeilen arbeite, wäre da QHD (1440 Zeilen) allerdings wahrscheinlich schon eine sichtbare Verbesserung.
Die Detaildarstellung wäre sekundär, ich bin mit der reinen Pixeldichte meines momentanen Monitors halbwegs zufrieden.

Der andere Aspekt zielt wie gesagt auf Video ab. Von 4k-Videos in nativer Auflösung verspreche ich mir dank fehlender Interpolation eine schärfere Darstellung. Allerdings hab ich mir das noch nie in live angeguckt.

Letztendlich soll das Ding idealerweise auch die nächsten 10 Jahre auf dem Schreibtisch stehen, ein wenig ist wohl auch das Bedürfnis nach "Zukunftssicherheit" mit dabei.


bzgl Farbraum:
ein bisschen mit sRGB und aRGB hab ich mich schon eingelesen, ich würde mir schon zutrauen einen entsprechenden Workflow hinzukriegen. Die Frage ist halt auch wieder wie groß der Unterschied im Endprodukt ist. Gibts irgendwo ein aussagekräftiges Bild einmal als aRGB und einmal als sRGB zum ausbelichten?
 
Als ersten UHD Monitor habe ich den Samsung U28E590D, 28" erworben. Wegen seines günstigen Displays zeigt sich ein wenig die Farbveränderung am Rand. Weniger Auflösung möchte ich in keinem Fall mehr nutzen!
Ich verwende 100% Skalierung bei 50-60cm Betrachtungsabstand.

Auf meiner Wunschliste für höhere Ansprüche habe ich mir notiert. Zuerst zwei neue Modelle
  • ViewSonic VP2785-4K, 27" - relativ kompakt
  • LG Electronics 32UD89-W, 31.5" - der günstigste, niedrige Leistungsaufnahme, Lautsprecher
und mit etwas weniger Priorität
  • ASUS ProArt PA329Q, 32", Lautsprecher
  • LG Electronics 31MU97Z-B, 31" - etwas älter, echte 4k Zeilen, Lautsprecher, höhere Leistungsaufnahme
  • BenQ SW320, 31.5" - Displayport 1.4, schlechtere DCI-P3 Abdeckung
Die meisten Modelle haben hohe Überlappung zu sRGB (meist 100%) und Adobe RGB (idR mindestens 99%) Farbräumen und gute Abdeckung DCI-P3.
 
bzgl Farbraum:
ein bisschen mit sRGB und aRGB hab ich mich schon eingelesen, ich würde mir schon zutrauen einen entsprechenden Workflow hinzukriegen. Die Frage ist halt auch wieder wie groß der Unterschied im Endprodukt ist.

Vielleicht ganz hilfreich zur Orientierung sRGB vs. AdobeRGB für Fotografen:
http://fotovideotec.de/adobe_rgb/index.html

Gibts irgendwo ein aussagekräftiges Bild einmal als aRGB und einmal als sRGB zum ausbelichten?

gibt es aussagekräftigere Bilder als Deine eigenen?

Um die Farben selber beurteilen zu können, reicht ja irgendein Bild an sich nicht aus- es geht ja nicht um "schönere" Farben, sondern um realistischere. Und das dann nur bei denjenigen, die zwar außerhalb des sRGB liegen, aber noch nicht außerhalb von AdobeRGB.
Dazu musst Du ja zu allerst einmal wissen, wie eine Farbe in der Realität ausgesehen hat- für mich ist das dann auch schon der Punkt, wo ich für mich aufhöre, über AdobeRGB nachzudenken. Ich brauche keine Farbverbindlichkeit bei meinen Fotos- ich verdrehe die Farben sowieso so, wie sie mir gefallen. Würde ich Gegenstände für einen Katalog fotografieren wäre das natürlich was ganz anderes.

Und es gibt übrigens auch einen Nachteil von AdobeRGB, zumindest bei 8 Bit- die "Schritte" zwischen zwei Tonwerten sind höher als bei sRGB.

Außerdem geht man beim Konvertieren von AdobeRGB nach sRGB immer bestimmte Kompromisse ein, schließlich muss ein größerer Farbraum auf einen kleineren abgebildet werden. Nimmt man es ganz genau, muss so ein Bild dann immer auch noch extra aufgearbeitet werden, soll es nicht nur gedruckt und am eigenen Monitor gezeigt werden.

Mag sein, dass mein nächster Monitor sogar AdobeRGB kann- aber den kaufe ich dann, weil er andere positive Eigenschaften hat und nutzen werde ich ihn definitiv mit sRGB- die eingesparte Zeit ist IMHO besser in anderes besser investiert.
Mag sein, dass man bei einigen wenigen Farben im direkten Vergleich kleinere Unterschiede sehen kann- aber ich glaube nicht, dass sich jemand ein sRGB Bild anschaut und sagt "oh je, da passen ja die Farben gar nicht" (bei richtiger Bearbeitung natürlich nur :D).

vg, Festan
 
Wenn man viel Zeit und Muße hat und die Bilder nicht 15 min nach dem Shooting fertig haben will (weil man sie z.B. so schnell wie möglich abliefern muss..), dann kann AdobeRGB oder gar ProPhoto durchaus Sinn machen als Arbeitsfarbraum. So dass dann auch ein recht teurer 100% AdobeRGB 10bit (zumindest intern) Monitor dann Sinn macht.

Ich selbst arbeite dabei schon aus Prinzip einfach gern "farbecht", und das nicht nur dann, wenn ich z.B. gelegentlich Produktbilder für einen kleinen, aber spaßigen Nebenjob mache (u.a. "KFZ-Begutachtungen" und Protokollierungen von bestimmten Leasing- und vor allem Testfahrzeugen im weitesten Sinne, da wird auch die Farbtafel des Herstellers mit abfotografiert...und das Bild am Monitor dann mit dieser Tafel bei annähernd Normlicht von mir noch mal abgeglichen und entsprechend korrigiert, weil das so z.B. an den Hersteller geht, der dann die Lichtechtheit des Lacks und ähnliches an seinen Testwagen untersuchen möchte. Und mit Hilfe der Bilder eben schon mal eine Vorauswahl treffen kann). Ich will das eben auch für meine Fotos und meine "Lichtkunst", da hab ich diesen Qualitätsanspruch an mich selbst einfach. Und da ich eine sehr gut ausgeprägte Farbwahrnehmung, aber dafür eine nur schwach ausgeprägte chromatische Adaption meiner Wahrnehmung habe, stören mich "falsche Farben" auf den Fotos schon ziemlich, vor allem bei Porträts, aber auch bei Landschaftsbildern usw. Das muss dann auf dem Monitor so aussehen, wie ich das vor Ort gesehen und in Erinnerung habe. Und genau so will ich es dann auch auf der Ausbelichtung sehen später, in exakt diesen Farben und Nuancen.

Daher arbeite an meinen Bildern mittlerweile an einem Wide-Gamut Monitor, der im wesentlichen so den AdobeRGB Farbraum vom Umfang her darstellen kann. (Eizo CS2730) Und dabei mit dann mit ProPhoto als Arbeitsfarbraum - den der Monitor eben nicht mehr komplett darstellen kann. Was aber mit 16-bit Workflow, Umfang-Warnungen und Softproofs usw. kein Problem ist. Letztendlich arbeite ich so immer vom Großen Farbraum zum kleineren (sRGB) hin. Und kann so Verluste und Artefakte bei der Bearbeitung minimieren. Hier hat der sehr große ProPhoto Umfang einfach den Vorteil, dass man im Prinzip auf jeden Fall im Farbraum bleibt, auch dann noch, wenn man bisschen stärker an den Reglern schraubt. So dass dann dort weniger "Farbinterpretationen" und Interpolationen gibt, wenn ein Wert an die Grenze von sRGB kommt. Und durch die 16 bit Tiffs hat man dafür eine ausreichend feine Abstufung der Tonwerte. (Intern arbeitet PS nebenbei mit einem ähnlich großen Farbraum..)

Aber dafür haben z.B. die Bilder, die im 16-bit ProPhoto Workflow verarbeitet und erst ganz am Schluss zu sRGB werden, dann oft auch weichere/sanftere Farbübergänge und deutlich weniger Neigung zu Banding als die jpg, die gleich in sRGB bearbeitet werden. Und 16-bit Bilder die erst am Schluss zu 8-bit Bildern werden, sehen klar generell auch noch mal ganz anders aus als jene, die gleich in nur 8-bit bearbeitet werden - da sieht man selbst bei minimalen Änderungen der Helligkeiten z.B. über Luminanzmasken oft gewaltige Unterschiede. Und die Farben stimmen eben auch alle. Weswegen auch ein 10-bit Panel im Monitor Sinn macht, das kann einfach mehr Farbabstufungen differenzieren. Selbst wenn man nur 8-bit Signale an ihn schickt hat man so immer noch 256 saubere Werte für jede Farbe. Während ein kalibrierter 8-bit Monitor unter Umständen nur noch 250 oder noch weniger diskrete Werte für eine Farbe annehmen kann.


TL;DR:

Die großen Farbräume wie AdobeRGB oder ProPhoto und damit eben die 100% ArobeRGB Monitore machen immer dann Sinn, wenn man die Größe des Farbraums wirklich ausnutzt, wenn man mehr Zeit investieren kann in die Bildbearbeitung. Mann muss immer nur auch sehr gut aufpassen, dass die ProPhoto-Bilder immer schön im Käfig bleiben und nur ausschließlich die Bilder raus gehen, die man sauber in sRGB konvertiert hat.

Wer aber all den komplizierten Aufwand nicht betreiben möchte, der ist mit einem sRGB Monitor und einem sRGB Workflow ausrechend bedient. Eventuell sogar nur mit einem ganz unkomplizierten in 8-bit Workflow, mit JPEG OOC und an einem einfachen 8-bit Monitor, wenn man nicht wirklich viel machen will in Richtung EBV.
 
Zuletzt bearbeitet:
stimme Dir bei allem von Dir Gesagtem zu und in Deinem Fall macht das genau so auch Sinn.
IMHO trifft das aber eben nicht auf die Mehrheit der Fotografen zu, so wie Du es hier ja auch sagst

Wer aber all den komplizierten Aufwand nicht betreiben möchte, der ist mit einem sRGB Monitor und einem sRGB Workflow ausrechend bedient.

Aber während all das einen erheblichen Aufwand, Kosten und Wissen erfordert, ist das Arbeiten in 16-Bit mit fast keinem Aufwand verbunden, der Vorteil aber sehr viel höher und für sehr viel mehr Fotografen von Vorteil.
Deshalb...

Eventuell sogar nur mit einem ganz unkomplizierten in 8-bit Workflow, mit JPEG OOC und an einem einfachen 8-bit Monitor, wenn man nicht wirklich viel machen will in Richtung EBV.

...würde ich das wirklich nur sehr eingeschränkt empfehlen und auch explizit auf den letzten Halbsatz hinweisen.

IMHO sind AdobeRGB/10Bit und JPG/8Bit Workflows zwei Extreme.

vg, Festan
 
IMHO sind AdobeRGB/10Bit und JPG/8Bit Workflows zwei Extreme.

vg, Festan

Das stimmt, jpg weiter zu bearbeiten ist so ziemlich das schlechteste, was man machen kann.

Ich kenne dennoch nicht wenige, die zum einen direkt die jpg aus der Kamera per LR auf die Festplatte holen (weil es schneller ist als mit RAW zu arbeiten) und die dann allenfalls noch minimalst bisschen an der Klarheit ändern. Dabei verschlechtert sich das jpg dann aber auch kaum, im Gegensatz zu Änderungen an der Belichtung oder bei den Tonwerten (Schwarzpunkt, Weißpunkt) usw., zumindest wenn man ein jpg in hoher Bildqualität hat.
 
Ich kenne dennoch nicht wenige, die zum einen direkt die jpg aus der Kamera per LR auf die Festplatte holen (weil es schneller ist als mit RAW zu arbeiten) und die dann allenfalls noch minimalst bisschen an der Klarheit ändern. Dabei verschlechtert sich das jpg dann aber auch kaum, im Gegensatz zu Änderungen an der Belichtung oder bei den Tonwerten (Schwarzpunkt, Weißpunkt) usw., zumindest wenn man ein jpg in hoher Bildqualität hat.

(y)

Man kann bei sauberer Belichtung IMHO sogar erstaunlich viel bearbeiten, bevor man Probleme bekommt.

Ich bearbeite ab und an für einen Freund, dem das alles nur lästig ist und bei dem sich eben ab und zu ein Modell eine stärkere Bearbeitung wünscht.
Da gehe ich für stärkere Bearbeitungen in PS und wandele das Bild dort erst mal in 16-Bit- das nimmt Vielem auch den Schrecken oder mindert ihn zumindest ab.

vg, Festan
 
Ich hole das Thema noch mal aus der Versenkung... Vielen Dank für den Input von euch, ich war dann doch noch mal ein Weilchen mit dem Einlesen in die Thematik beschäftigt (Auch wenn ich diese sicher noch nicht 100%ig durchdrungen habe).

Nachdem ich noch ein bisschen Datenblätter und Tests gewälzt habe, habe ich es jetzt eigentlich auf folgende beiden Modelle eingegrenzt:

NEC EA275UHD

EIZO CS2730

d.h. ich hab mich von den 30"+ verabschiedet (werde einfach den Monitor näher ranstellen :) ) und muss mich jetzt nur noch entscheiden ob ich 4k oder wide gamut möchte.
So aus dem Bauch raus tendiere ich sehr zum NEC und dem arbeiten in sRGB.

Um mir einen Eindruck von den Auswirkungen der unterschiedlichen Farbräume bei der Ausbelichtung zu machen, habe ich jetzt folgendes vor:
Ich würde dem Bild im Anhang (ohne die heftige jpg-Komprimierung) einmal ein sRGB-Profil und einmal ein aRGB-Profil zuweisen und die dann bei meinem Ausbelichter (saal-digital) ausbelichten lassen.
Nach meiner Überlegung stellt das Bild dann ja die "Ränder" des jeweiligen Farbraums dar, und ich kann vergleichen wie viel davon bei der Ausbelichtung übrig bleibt und ob mir das wichtig wäre.

Ist dabei soweit irgendein Denkfehler dabei?

Grüße,
Seb
 
WERBUNG
Zurück
Oben Unten