• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2024.
    Thema: "Diagonale"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
WERBUNG

Kalibrierung notwendig?

Verlieren die günstigeren Sensoren nicht sowiso nach ein paar Jahren ihre Genauigkeit?

Keine Ahnung wie das genau ist. Händler haben es natürlich am liebsten, wenn es schnell altert und die Kunden, oft neue Spyder kaufen-

aber letztendlich ist die Alterung bei realativmessungen ziemlich egal, weil für gamma und so eh nur relativ gemessen wird. nur wenn man absolut auf etwa 100 cd/mm2 einstellen will, dann kann das Ergebniss etwas abweichen.

aber wichtig ist ja, dass die Tonwerte zu gamma 2.2 gut passen und keine Tonwertsprünge drin sind. Und da ist es egal ob der hellste Punkt nun gemessen 110 cd hat, oder nur 90 cd(weil die Linse trübe geworden ist). wenn eben der hellste wert nur 90 ist, dann ist der dunklere Wert laut der gamma eben tiefer. aber trübe linse wirkt sich ja auf alle Helligkeiten aus. somit passt es dann in sich wieder, wenn man den hellsten wert für weiss misst und davon dann % mässig die einzelnen stufen hat.

Wie die Umrechnung von Lux zu cd/mm2 quadrat ist, weis ich nicht, müsste ich erstmal nachlesen. wenn man z.b den Helligkeitsbereich, von 0-100% hat und davon dann sagen wir mal die rgb werte 0,50,100,200,256 misst bei gamma 2.2. man müsste jetzt nur wissen, welcher Helligkeitswert wäre denn korrekt, bei den anderen Werten

Mir ist gestern eingefallen, ich habe sogar eine Lux Messung in meinem Digital Multimeter drin. ist ein Voltcraft DT-21. ist alt, hat aber Lux messer und unter 100 gekostet(ob euro oder DM weis nicht mehr). Wenn ich das Gerät ganz an den Monitor halte, dann zeigt der bei weiss (rgb Wert) 67 Lux an. Bei schwarz RGB Wert 0 zeigt es 8.5 Lux an. Umgebungslicht ist 32 Lux. Ich habe am Monitor Helligkeit auf 20 stehen und find das Bild so gut und nicht übertrieben hell. Laut dem prad test mit der cd/mm2 Tabelle zu helligkeitsregler wären dann 20% etwa 130 für meinen Monitor. stell ich helligkeit auf 80% zeigt es 152 Lux an. Bei 80% gibt prad knapp 250 cd/mm2 für meinen Monitor an. kommt also ungefähr hin. die Erhöhung von 20% auf 80% am helligkeitsregler wäre dann Faktor 2.2 in der Leuchtstärke.
dabei ist es dann egal ob man in Lux oder cd misst. es geht nur um Verhältnisse

Wer kennt sich gut mit der Mathematik aus, was müsste das Gerät jetzt bei gamma 2.2 und RGB Werten 50, 100,200 anzeigen, wenn man bei RGB 256 den Wert 67 erhält ??. oder man misst erstmal bei Helligkeit 80%, da ist der Lichtwert höher und messfehler merkt man da nicht so. mehr als helligkeit 80% kann ich nicht einstellen, weil man dann die hellen stufen im Graukeil nicht mehr unterschieden kann. scheinbar kann der Monitor nicht heller.

Ich denke wenn man die 3 Korrekturwerte irgendwie im Monitortreiber so einstellen kann, dann wäre das schon sehr viel besser als unkalibriert und würde kaum noch besser werden, wenn man mehr Messpunkte nimmt . denn in den anderen werten, kann es dann nicht mehr so stark abweichen. 90% perfekt ist schon viel besser als nur 50% perfekt. Und wenn man dann mit den Farben rot, dann blau, dann grün misst, dann kann man auch die Farben einstellen.

und anstatt einen spyder cube, ist ein weisses t-shirt schon gut genug und besser als nix. . und nebenbei kann man dann auch noch messen welches Waschpulver weisser wäscht. :D .

Es gibt übrigens auch Lichtmesser als handy app. manche handies haben nen lichtmesser drin. lichtmesser ist simple technik und cent bauteil. fotowiederstand gibts schon sehr lange

http://de.wikipedia.org/wiki/Fotowiderstand

Und da die messbilder bei spyder und xrite länger gezeigt werden, sieht es so aus, dass die auch nur einen Photowiederstand nehmen. denn um genau zu messen, muss man prinzipbedingt 1 sec warten. siehe auch in wiki beschreibung
 
Zuletzt bearbeitet:
@knipser100: Deine Posts lesen sich für mich so, als ob Du noch nicht ganz verstanden hast, dass neben der reinen Kalibrierung (Helligkeit, Gamma etc.) auch noch die Ausmessung des Farbprofils, also die Profilierung dazukommt - bzw. wie diese Profilierung überhaupt funktioniert. Schonmal sorry vorab, falls ich das falsch verstanden habe...

Edit: Einiges von dem, was ich hier schreibe, hat ja auch schon 'Der Doktor' gepostet.

Für die Profilierung misst ein Colorimeter nicht nur die Helligkeit der einen Farbe, deren Anzeige man gerade sieht, sondern auch die jeweils anderen Farbanteile. Und das in drei getrennten, genau definierten Farbbereichen (Spektralbereichen).

Beispiel: Der Rotkanal des Monitors wird durchgemessen: Der Monitor zeigt nur "Monitor-Rot" an, "Monitor-Grün" und "Monitor-Blau" sind komplett aus. Trotzdem ist das "Monitor-Rot" kein ideales, schmalbandiges Rot, sondern enthält auch Anteile von etwas Grün und ganz wenig Blau. Aus diesen Anteilen, gemessen für alle Monitor-Farbkanäle und verschiedene Helligkeiten, kann man dann den Farbraum des Monitors, also sein ICC-Farbprofil, ableiten.

Voraussetzung dafür ist aber neben einer genauen Helligkeitsmessung (die Hardwaretechnisch wahrscheinlich wirklich kostengünstig sein könnte), dass die o.g. Farbfilter wie gesagt eine genau definierte Spektralcharakteristik haben, mit möglichst kleinen fertigungsbedingten Schwankungen und auch möglichst wenig Alterungseffekten. Weiterhin muss die Software eines Colorimeters in der Lage sein, aufgrund der Spektralcharakteristik der Filter in Kombination mit unterschiedlichen Spektralcharakteristiken der Monitor-Hintergrundbeleuchtungen ein korrektes Farbprofil auszumessen. Das ist alles nicht trivial und treibt die Kosten in die Höhe.

Ich kenne jetzt natürlich keine wirklichen Herstellungskosten (und Software-Entwicklungskosten) für Colorimeter, aber aus dem Bauch heraus würde ich sagen, dass die aktuellen Preise der Geräte, die ja auch eine Software-Lizenz beinhalten, nicht wirklich überzogen sind. Vielleicht ein bisschen höher als sie knapp kalkuliert sein könnten, aber nicht überzogen. Edit: Außerdem sind es keine Massenprodukte, was den Preis auch nochmal hochtreibt.

Edit 2: Ich habe den Text bzgl. der Spektralcharakteristik der Filter korrigiert. Zuerst hatte ich geschrieben, dass diese Filter schmalbandig sind, das hatte ich aber offenbar falsch in Erinnerung. Korrekt ist, dass die Filter den CIE-Normalbeobachter nachbilden, was aber nichts an der geforderten hohen Genauigkeit und Konstanz der Filter ändert. Hier gibt es z.B. eine Beschreibung: http://www.argyllcms.com/doc/WideGamutColmters.html. Und zum CIE-Normalbeobachter siehe z.B. http://de.wikipedia.org/wiki/CIE-Normvalenzsystem.
 
Zuletzt bearbeitet:
Nur dass der Farbfilter viel Licht schluckt. daher ist der Farbfilter eher hinderlich, wenn man die rgb Werte von 20 oder geringer testen will bei etwa 120 cd/mm wie für srgb.

wenn es Farbfilter gäbe, dann müssten die ja nicht die Grundfarben einzeln messen. Farbfilter filtern nur ein spektrum raus. Wenn man aber nur rot am Monitor ausgibt, dann kommt hinter dem Farbfilter genauso ein rotes Bild an, wie vor dem Farbfilter. kann man nachprüfen, wenn man so ne rot grün brille irgendwo rumfliegen hat.

Allerdings ist der gamma und die graustufen viel wichtiger, denn wenn man ein Foto ausdruckt, und die dunklen stellen sind abgesoffen oder sehr hell, dann sieht man es krass. wie schon erwähnt, das Auge passt sich an Farbänderungen an, aber schlechtes Kontrastverhalten weil die Tonwerte des Monitors nicht stimmen ist viel Schlimmer. ist das Bild in dunklen tonwerten zu hell, dann sieht man auch die Rauschunterdrückung und Unschärfe viel stärker, weil gerade in dunklen bereichen das rauschen stärker sichtbar wird. weil rauschen hauptsächlich ein Fester Wert ist. Eine Kamera hat rauschen z.b dass sich über +/- 5 rgb stufen erstreckt. so kann eine Farbe die den R wert hat von 10, also von dem Sensor als 5 - 15 ausgeben werden. Da ist es stark sichtbar. wird ein Wert von 200 genommen, dann kann das ergebniss 195- 205 sein. Bei der grösse der Zahl fällt es nicht auf, weil es % mässig gering ist

stimmt die Gammakurve des Monitor nicht, dann wird der 5-15 Pixel dann evtl mit dem Faktor 1.2 erhellt. da wäre dann der untere Wert 5*1.2 6. oder obere Wert 15*1.2 18

schon ist dann auch der rauschanteil von 10 werten auf 12 Werte angestiegen. 18-6 =12
 
Zuletzt bearbeitet:
wenn es Farbfilter gäbe, dann müssten die ja nicht die Grundfarben einzeln messen. Farbfilter filtern nur ein spektrum raus. Wenn man aber nur rot am Monitor ausgibt, dann kommt hinter dem Farbfilter genauso ein rotes Bild an, wie vor dem Farbfilter.
Aus Sicht eines Colorimeters kommt bei reinem Monitor-Rot auch ein Anteil hinter dem Grünfilter an - je nachdem, wie groß der Monitor-Farbraum ist (wenig bei großem, mehr bei kleinerem Monitor-Farbraum). Genau diese Unterschiede werden zum Ausmessen des Monitor-ICC-Profiles benutzt. Edit: Mehr dazu siehe unten im P.S.

Allerdings ist der gamma und die graustufen viel wichtiger
Nein, Kalibrierung und Profilierung sind gleich wichtig. Warum versteifst Du Dich so sehr auf die reine Kalibierung? Es ist ja prinzipiell richtig, wenn Du sagst, dass eine korrekte Wiedergabe der Tonwertkurve/Graustufen wichtig ist, aber das ist eben nicht alles: Du schreibst "das Auge passt sich an Farbänderungen an" - und meinst damit wahrscheinlich die Anpassung auf unterschiedliche Farbtemperaturen. Das ist schon korrekt, aber bei der Profilierung geht es um die Erfassung, welche RGB-Eingangs-Werte welche Farb-Sättigungen bewirken, und an falsche Sättigungen kann sich das Auge kaum anpassen. Ein Wide-Gamut-Monitor, der fälschlicherweise mit einem sRGB-Profil betrieben wird, wirkt viel zu gesättigt ("knallig", "bunt"), und daran ändert auch eine Stunde Eingewöhnungszeit fast nichts.

P.S. Nochmal dazu:
wenn es Farbfilter gäbe, dann müssten die ja nicht die Grundfarben einzeln messen
Dieser Satz ist mir jetzt nochmal aufgefallen. Verstehe ich das richtig, dass Du ernsthaft der Meinung bist, die Colorimeter hätten gar keine Farbfilter, weil sie die Grundfarben einzeln messen und deshalb eigentlich keine Farbfilter benötigen? Falls ja, dann bist Du komplett auf dem falschen Dampfer: Die Ausmessung der einzelnen RGB-Kanäle für sich wird nicht nur für die Ermittlung der Kalibrierungs-Korrekturdaten benutzt, sondern auch für die Messung, wo sich Monitor-Rot, -Grün und -Blau in der CIE-Normfarbtafel befinden - und damit die drei "Ecken" des Monitorfarbraums bilden.

Und da kommt eben ins Spiel, was ich oben und im Vorpost beschrieben habe: Dies geschieht durch Messung von drei Sensoren, vor denen Rot-, Grün- und Blau-Filter liegen, die den CIE-Normalbeobachter nachbilden - und auch bei den "Monitor-Grundfarben" mehr oder weniger alle ansprechen. Je nach Software werden dann auch noch Mischfarben gemessen, um das "Innere" des Monitorprofils genauer bestimmen zu können.

Nachtrag: Es gibt übrigens wirklich auch Kalibriergeräte ohne Farbfilter, nämlich Spektrometer. Die funktionieren aber nach einem ganz anderen Prinzip und sind nochmal viel teuerer (siehe der von mir verlinkte Artikel).
 
Zuletzt bearbeitet:
Aus Sicht eines Colorimeters kommt bei reinem Monitor-Rot auch ein Anteil hinter dem Grünfilter an - je nachdem, wie groß der Monitor-Farbraum ist (wenig bei großem, mehr bei kleinerem Monitor-Farbraum). Genau diese Unterschiede werden zum Ausmessen des Monitor-ICC-Profiles benutzt. Edit: Mehr dazu siehe unten im P.S.

ok, dass klingt einleuchtend, aber machen dass die kalibrierer für 170 Eur wirklich und sind überhaupt in der Lage bei niedrigen Werten trotz Farbfilter noch restanteile (wenn nur r Wert z.b 256 ist) von blau oder grün einigermassen genau zu messen bei 100 cd/mm2 ?

stell doch mal auf deinem Monitor z.b voll rot ein und fotografiere das Bild und schaue welche restanteile, an grün oder blau die Kamera noch aufnimmt, und schaue mal , ob die restanteile an blau oder grün, wesentlich über dem rauschen des blau oder grün kanals der kamera liegen. Ich habe es mal versucht. die blau grün anteile gehen im rauschen unter.

Kennst du tests, mit denen solche Kalibrierer mit High end equipment verglichen werden, damit man sieht, ob die wirklich genauer sind als mit dem Auge vergleichen und nicht nur so eine Art überteuertes Placebo. ?

Da die kalibrierer wie man in Videos sieht, die Messfarbe 1 sec anzeigen, deutet es darauf hin, dass die auch nur Photowiderstände nehmen. kalibrierer gab es ja schon zu dem Preis von 200 DM als es noch gar keine digital kamera technik und noch Röhrenmonitore gab. Bei röhrenmonitoren, ist natürlich so ein kalibrierer dennoch super. ansonsten welches verfahren um Licht zu messen(sensor unter 200 Eur), gibt es denn noch, ausser Photowiederstände ?

welche widerstände bei welchen Lux stärken und Lichtfrequenzen rauskommen, kann man z.b hier sehen. es gibt eigentlich nur 2 Typen.

http://mic.hit-karlsruhe.de/projekt.../data/Datenblatt für FotoWiderstand-m9960.pdf

das ganze muss dann per analog verstärker verstärkt werden, damit AD wandler genug Level haben. gibt natürlich rauschen.

placebo deshalb weil man glaubt, damit ein optimales Bild zu haben, und dadurch die Farbadaption viel besser geht. ;-)

Mein Monitor hat einstellungen für 7500 6500 Kelvin. Auf 7500 Kelvin ist das Bild bläulich im Vergleich zu weissem Papier. dass sehe ich. Wenn ich auf 6500 Kelvin stelle, dann sehe ich da keinen Unterschied zu papier.

Und wenn ich nichts sehe, dann ist es gut genug. Aber wenn ich den unterschied der beiden kalibrierier hier im gamma sehe(siehe meinen link im obrigen post über den spyder zu color monky vergleich, dann finde ich das Resultat schlecht und krass sichtbar. (welcher nun stimmt weis ich nicht).

daher finde ich gamma wichtiger. Und dass schafft zumindest einer der colorchecker noch nichtmal gut.

welcher weis man nicht. können auch beide sein, die schlecht sind und mit dem Luxmeter eingestellt, oder vom Monitorhersteller ist womöglich besser
 
Zuletzt bearbeitet:
ok, dass klingt einleuchtend, aber machen dass die kalibrierer für 170 Eur wirklich und sind überhaupt in der Lage bei niedrigen Werten trotz Farbfilter noch restanteile (wenn nur r Wert z.b 256 ist) von blau oder grün einigermassen genau zu messen bei 100 cd/mm2 ?
Völlig unproblematisch. Selbst die Prosumer-Spektralfotometer (die das Licht in Spektralabschnitte zerlegen) stoßen während der Emissionsmessung erst in den Tiefen auf ihre Grenzen. Im Dreibereichsverfahren (Colorimeter) sieht das nochmal deutlich besser aus. Abstimmungsziel für die Filter-Empfänger-Kombination sind die Spektralwertkurven des CIE-Normalbeobachters (auch indirekt) - es können durchaus mehr als drei Filter zum Einsatz kommen.

daher finde ich gamma wichtiger. Und dass schafft zumindest einer der colorchecker noch nichtmal gut.
Wie angedeutet, ist die Kombination aus Kalibration (Linearisierung) und Charakterisierung entscheidend. Selbst wenn wir den wichtigen zweiten Schritt weglassen, ist eine farbvalenzmetrische Auswertung im Rahmen der Linearisierung wichtig, weil eine möglichst neutrale (weißpunktbezogen) Grauachse erreicht werden soll.

Wer kennt sich gut mit der Mathematik aus, was müsste das Gerät jetzt bei gamma 2.2 und RGB Werten 50, 100,200 anzeigen, wenn man bei RGB 256 den Wert 67 erhält ??
Ohne Berücksichtigung des endlichen Schwarzpunktes realer Geräte:
Input [0...1]^Gamma * Leuchtdichte Weiß

Beispiel für 200:
(200/255)^2.2*67 = 39,2

sRGB sieht allerdings beispielsweise kein Gamma 2.2, sondern eine Tonwertkurve mit linearem Anteil in den absoluten Tiefen vor. Dazu kommen ggf. Kompensationsmechnismen, die den Schwarzwert des Monitors berücksichtigen.
 
Zuletzt bearbeitet:
Die Formel stimmt wahrscheinlich nicht, denn die gemessenen Werte und die errechneten Werte sind schon krass unterschiedlich, je geringer der Wert, desto mehr Unterschied

Ich habe nun die messtrippen weggemacht, daher kann ich das Messgerät auch komplett an den Bildschirm anlegen. hat aussenrum härteres gummi, damit es nicht kaput geht beim runterfallen, kann also auch nix verkratzen.

gemessen habe ich(quick gamma Korrektur abgestellt, also Monitor defaults). vorne sind rgb Werte

256 79 Lux
128 34 Lux
64 16,5 Lux
8 3.1 Lux
0 1 Lux

Da bei 0 1 Lux gemessen wird, trägt das Umgebungslicht noch mit 1 Lux bei. Kann man vernachlässigen, bringt also nix, den Raum abzudunkeln

die Formel (xxx/255)^2.2*79 habe ich dann in google eingetippt und der Taschenrechner, errechnete dann die Werte. Kam bei dem test auch dasselbe raus wie bei dir.

nur je kleiner die Werte desto geringer wurde Lux

128 errechnet 17
64 erechnet 3.77
8 errechnet 0,038

Ich habe auch immer an derseleben Stelle gemessen, bei dem Monitor schwankt die Helligkeit bei 256 je nach stelle von 72 Lux - 79 Lux.

richtiger Gamma Wert ist mir viel wichtiger, weil ich da schlecht sehen kann ob es stimmt. Farbabweichung in ner Grautreppe kann ich viel besser mit den Augen sehen. Und wie schon gesagt, bei dem Monitor ist es bei 6500 Kelvin Einstellung echt gut.

irgendwas stimmt da nicht.

SO sieht das Messgerät aus. Wenn man das Messgerät an den Monitor hält, dann kann man die Zahlen nicht ablesen, aber da es auf dem display nicht so schnell die werte ändert, kann man den letzten Wert noch auf dem display sehen. die gemessenen Werte stimmen, habe ich auch mehrfach nachgemessen, kommt bis auf 1-2 Lux immer dasselbe raus.

http://www.azza.tv/Ebay/voltcraft-1407402271-9962.jpg

So ein Messgerät ist auch kein Massenartikel dennoch kriegt man so ein Messgerät heute auch für 85 Eur.Ist natürlich besser und hat auch data hold und berührungslose Spannungsmessung

http://www.conrad.de/ce/de/product/...II-600-V-Anzeige-Counts-4000?ref=searchDetail
 
Zuletzt bearbeitet:
Die Formel stimmt wahrscheinlich nicht
Doch, ist korrekt. Gammakorrigiert => Linear. Bitte berücksichtige, dass eine Gamma 2.2-Tonwertkurve sehr viel Tonwertdichte in den Tiefen aufweist und damit der menschlichen Helligkeitswahrnehmung deutlich näher kommt als eine lineare Wiedergabe (tatsächlich sind die Tiefen etwas überbetont, annähernd perzeptiv wäre die Helligkeitsachse in CIELAB). Gleichzeitig wird auch das Fotometer-Setup limitieren.

Hier mal eine Beispielreihe für eine Leuchtdichte von 140 cd/m², gerundet (Input [0...1] => Output cd/m²):

1 => 140 | 0,9 => 111 | 0,8 => 85,7 | 0,7 => 63,9 | 0,6 => 45,5 | 0,5 => 30,5 | 0,4 => 18,6 | 0,3 => 9,9 | 0,2 => 4,1 | 0,1 => 0,9 | 0 => 0

Aber selbst wenn du mit einem präzisen Messinstrument lediglich die Helligkeit ermittelst und stets ideale Neutralität bei gewünschtem Weißpunkt unterstellst - wie willst du eine Korrektur einpflegen? Die Kalibrationslösungen erstellen eine Tabelle (vcgt), die bei Systemstart in die LUT der Grafikkarte geladen wird. Monitore mit Hardwarekalibration erledigen das in ihrer internen LUT, die dir aber ebenfalls verschlossen bleibt.

Das i1 Display Pro von X-Rite kostet unter 200 Euro und liefert eine Präzision (Optik, Interferenzfilter), die vor wenigen Jahren in dem Preisbereich noch völlig undenkbar war. Gerade in Kombination mit Argyll kann aber beispielsweise auch das ColorMunki Display bedenkenlos eingesetzt werden (~ 130 Euro - gleiche Hardwarebasis).
 
Zuletzt bearbeitet:
wieso komm ich dann auf so andere Werte bei der LUX Messung. vielleicht ist LUX da linear. aber was soll dann der Käse mit den unterschiedlichen Gamma Werten. am Mac gab es 1.8. srgb hat 2.2. die Bilder mit 1.8 sind krass dunkel.

Aber selbst wenn du mit einem präzisen Messinstrument lediglich die Helligkeit ermittelst und stets ideale Neutralität bei gewünschtem Weißpunkt unterstellst - wie willst du eine Korrektur einpflegen?

Mir geht es erstmal darum den gamma slider im nvidia display treiber richtig einzustellen. Bei den gamma testbildern, seh ich es nicht so genau. und gamma 2.1 und 2.3 ist schon ein Unterschied den ich stark sehe zu 2.2. da brauche ich nichtmal einen AB vergleich. genauso der Unterschied von spyder und kolormonki ist schon krass. Hast dir das Video mal angeschaut ?. bei 13:25.

https://www.youtube.com/watch?v=nk_KVjD_FFw

Und woher will man bei so einem Unterschied wissen, welches Gerät stimmt ?

Dass sieht so aus, als wäre der gamma bei spyder viel dunkler. wenn die Monitorkalibrierer was taugen würden, dann müssten auch die mittleren Tonbereiche zwischen spyder und kolormonki gleich sein.

ansonsten kennst du einen Testbericht , wie die Dinger mit profi geräten in vergleich kalibrieren. ob die den gamma wirklich gut einstellen können ?

Wenn ich mal ein Bild ausdrucke, die Farben stimmen immer im Foto zu Monitor. find ich ok. nur die dunklen stellen im Bild sind im Monitor anders als im Foto. da ist eben der gamma Wert das Problem. habe irgendwie den Eindruck, dass ich bei Fotos auf gamma 1.8 stellen muss, denn dass passt dann besser. dann sehen auch die OOC Bilder der Kamera für mich besser aus und nicht mehr blasser als in real bei etwa 120 cd/mm2. Aber srgb ist ja gamma 2.2 und die Kameras machen SRGB. Ich habe windows. also da ist gamma 2.2 standard

ansonsten wenn man die richtigen Formel hat geht es schon seit windows 7 einfach so ein Korrekturprofil zu erstellen. Es gibt das Programm lprof. dass ist opensource und damit kann man ein Monitorprofil erstellen

http://sourceforge.net/projects/lprof/

man braucht ein sheet im Format it8. Ein beispiel eines idealen SRGB Monitors sieht so aus. Wie du sehen kannst, verwenden die in der Praxis auch nur grauwert angaben für die einzelnen stufen.

LCMS_MEASUREMENT
ORIGINATOR "IEC 61966-2.1 Default RGB colour space - sRGB"
NUMBER_OF_SETS "27"
NUMBER_OF_FIELDS "7"
BEGIN_DATA_FORMAT
SAMPLE_ID RGB_R RGB_G RGB_B XYZ_X XYZ_Y XYZ_Z
END_DATA_FORMAT
BEGIN_DATA
CBL 0 0 255 18.0573 7.22046 95.0775
CGR 0 255 0 35.7513 71.521 11.9141
CRD 255 0 0 41.2415 21.2616 1.93481
DMIN 255 255 255 95.05 100.003 108.929
GS1 250 250 250 90.8661 95.6024 104.132
GS2 238 238 238 81.2683 85.5042 93.1305
GS3 221 221 221 68.7256 72.3083 78.7628
GS4 205 205 205 58.0292 61.0535 66.4978
GS5 190 190 190 48.9441 51.4954 56.0883
GS6 175 175 175 40.7471 42.868 46.6949
GS7 160 160 160 33.4106 35.1532 38.2904
GS8 146 146 146 27.3193 28.7445 31.308
GS9 133 133 133 22.2931 23.4589 25.5463
GS10 119 119 119 17.5354 18.4479 20.0928
GS11 107 107 107 13.974 14.7003 16.0156
GS12 95 95 95 10.8765 11.4441 12.4664
GS13 83 83 83 8.22144 8.64868 9.41772
GS14 72 72 72 6.15845 6.47888 7.05872
GS15 63 63 63 4.72412 4.97131 5.41382
GS16 53 53 53 3.3844 3.55835 3.87573
GS17 44 44 44 2.39258 2.5177 2.74353
GS18 36 36 36 1.67542 1.76392 1.91956
GS19 29 29 29 1.16577 1.22681 1.33667
GS20 21 21 21 0.708008 0.747681 0.811768
GS21 15 15 15 0.454712 0.476074 0.518799
GS22 4 4 4 0.112915 0.119019 0.128174
DMAX 0 0 0 0 0 0
END_DATA
 
Zuletzt bearbeitet:
am Mac gab es 1.8. srgb hat 2.2. die Bilder mit 1.8 sind krass dunkel.
Das "Mac-Gamma" gibt es so schon lange nicht mehr. Entsprechende CMMs berücksichtigen die beteiligten, charakterisierenden Profile und transformieren über einen geräteunabhängigen Farbraum (den PCS). Die sRGB-Tonwertkurve entspricht aber, wie gesagt, nicht einer Gamma 2.2-Tonwertkurve.

ansonsten kennst du einen Testbericht , wie die Dinger mit profi geräten in vergleich kalibrieren.
Ich arbeite in dem Bereich - du magst mir jetzt vertrauen oder nicht :).

man braucht ein sheet im Format it8. Ein beispiel eines idealen SRGB Monitors sieht so aus. Wie du sehen kannst, verwenden die in der Praxis auch nur grauwert angaben für die einzelnen stufen.
Nicht böse gemeint - aber ich sehe den Zusammenhang zur Diskussion nicht. Das Target charakterisiert sRGB@D65 über die farbvalenzmetrischen Daten (hier: XYZ) von Primärfarben (CBL, CGR, CRD) und Tonwertkurve (unbunt) - genau wie ein entsprechendes ICC-Profil (Matrix-Teil aus Primärfarben (adaptiert nach D50), Shaper-Teil beschreibt Tonwertkurve). Das hat aber nichts mit der Kalibration eines Monitors via vcgt oder interner LUT zu tun.
 
Zuletzt bearbeitet:
Nicht böse gemeint - aber ich sehe den Zusammenhang zur Diskussion nicht. Das Target charakterisiert sRGB@D65 über die farbvalenzmetrischen Daten (hier: XYZ) von Primärfarben (CBL, CGR, CRD) und Tonwertkurve (unbunt) - genau wie ein entsprechendes ICC-Profil (Matrix-Teil aus Primärfarben (adaptiert nach D50), Shaper-Teil beschreibt Tonwertkurve). Das hat aber nichts mit der Kalibration eines Monitors via vcgt oder interner LUT zu tun.

am besten du liest dir mal den text zu lprof durch. seit windows 7 braucht man keine Hacks mehr um Farbkorrektur anzuwenden. anhand Messwerten, erstellt lprof dann ein windows Profil für Kameras, Monitore scanner etc. und windows setzt dann die lut anhand der it8 datei

Man müsste lediglich wissen wie man die gemessenen LUX werte umrechnen muss um es in das it8 file einzutragen. quickgamma macht es auch so.

ich habe mal bei srgb nachgelesen, die Formel ist viel komplexer. Deine Formel kann also nicht stimmen.

http://en.wikipedia.org/wiki/SRGB
It is often casually stated that the decoding gamma for sRGB data is 2.2, yet the above transform shows an exponent of 2.4. This is because the net effect of the piecewise decomposition is necessarily a changing instantaneous gamma at each point in the range: it goes from gamma = 1 at zero to a gamma of 2.4 at maximum intensity with a median value being close to 2.2. The transformation was designed to approximate a gamma of about 2.2, but with a linear portion near zero to avoid having an infinite slope at K = 0, which can cause numerical problems. The continuity condition for the curve C_\mathrm{linear} which is defined above as a piecewise function of C_\mathrm{srgb}, is

rechts findest du in wiki 3 Bilder um Gamma einzustellen(darauf achten, dass der Browser nicht das Bild vergrössert oder verkleinert . wers nicht findet. Der text steht dabei

On an sRGB display, each solid bar should look as bright as the surrounding striped dither. (Note: must be viewed at original, 100% size)

dass ist bei meinen Monitor default einstellungen krass anders. Nur wenn ich quick gamma oder im nvidia Treiber gamma einsteller, den gamma einstelle passt es. schau dir mal auf deinem kalibrierten Monitor das an, stimmt das bei dir auch ?

Ich möchte einfach nur anstatt mit dem Auge zu sehen ob die beiden Felder gleich sind, mit dem Lux Meter messen, so dass ich sicher bin, dass es stimmt. Denn die Profile die spyder oder xrite ausspuckt, kann man nicht vertrauen, dass es besser stimmt als mit dem Auge. denn wenn die beiden schon so unterschiedliche Ergebnisse haben, und sonst keine Tests da sind, die zeigen, dass die genaue gamma Kurven machen......

Die Formeln stehen in wiki auch drin, aber die kann man nicht so einfach an einen Taschenrechner übergeben. Und die X Y Z Werte, die braucht man für die it8 Datei.

Ich arbeite in dem Bereich - du magst mir jetzt vertrauen oder nicht :).

ich vertraue da nicht, ist doch bekannt dass sich mehr Forenuser als Experten Ausgeben, als es wirkliche Experten gibt. ;-) Aber kannst ja mal so einen Testbericht zeigen, der beweist, dass die spyder xrite wirklich gut einmessen.

sicher kriegt man mit Luxmeter auch gute Tonwerte hin, die bei weitem besser sind als die monitor defaults und auch besser als mit dem auge und den Testbildern. Bei dem man im vergleich zu einem high end colorimeter vielleicht kaum unterschied sieht. der unterschied den spyder und xrite in dem video hatten, lässt mich eben an den Dingern zweifeln, und auch weil es keine Vergleiche gibt, wie gut sowas im vergleich zu 1000 Eur colormeter abschneidet. ansonsten finde ich calibrierung wie schon in meinem 1. Post geschrieben sehr wichtig. und die testbilder sind viel besser als nix
 
Zuletzt bearbeitet:
am besten du liest dir mal den text zu lprof durch. seit windows 7 braucht man keine Hacks mehr um Farbkorrektur anzuwenden. anhand Messwerten, erstellt lprof dann ein windows Profil für Kameras, Monitore scanner etc. und windows setzt dann die lut anhand der it8 datei
Wir reden fundamental aneinander vorbei. Bitte lese dich zunächst etwas in die Thematik Farbmanagement, -messtechnik und -metrik ein.

Ich habe nie von Hacks gesprochen, sondern einer Linearisierung via vcgt oder Monitor-LUT. Selbstverständlich bringt Windows inzwischen einen eigenen LUT-Loader mit, der vorhandene Informationen im vcgt auslesen und anwenden kann. Bitte vergegenwärtige dir noch einmal den Ablauf einer Monitorkalibration für den ICC-Workflow:

1) Eigentliche Kalibration (Linearisierung). Stellt über entsprechende Messungen den gewünschten Weißpunkt und die gewünschte Tonwertkurve sicher (Softwarekalibration: Belegung der 1D-LUT der Grafikkarte aus vcgt, Hardwarekalibration: Programmierung Monitor-LUT)

2) Charakterisierung: Erfassung der Gerätecharakteristik nach Kalibration, Erstellung des beschreibenden Profils (Matrix-Shaper oder LUT basiert); inkl. vcgt bei Softwarekalibration

Farbmanagementfähige Anwendungen können anhand der Informationen in 2) dann bestmöglich vom PCS in Monitor-RGB transformieren.

Man müsste lediglich wissen wie man die gemessenen LUX werte umrechnen muss um es in das it8 file einzutragen.
Nein, das bringt gar nichts. Das von dir verlinkte File ist eine farbvalenzmetrische Beschreibung (daher die XYZ-Normfarbwerte zu den RGB-Eingangsdaten) aus der man freilich ein ICC-Profil ohne vcgt (eben ein typisches RGB-Arbeitsfarbraumprofil) generieren kann. Diese Informationen gewinnst du mit deinem Luxmeter selbst bei korrekter Messung nicht. Das geschieht für ein Monitorprofil mit einem Farbmessgerät (siehe 2)).

Du könntest natürlich eine wie auch immer emittelte Gradation da hereinwurschteln, indem du perfekte Neutralität in Bezug auf D65 unterstellst und, ausgehend vom Weißpunkt (Zeile: DMIN 255 255 255 95.05 100.003 108.929), die X- (fetter Teil, erste Zahl) und Z-Komponenten (fetter Teil, dritte Zahl) der GS-Zeilen mit der ermittelten und normalisierten - hier: [0...100] - absoluten Helligkeit (fetter Teil, zweite Zahl) am jeweiligen Messpunkt skalierst.

ich habe mal bei srgb nachgelesen, die Formel ist viel komplexer. Deine Formel kann also nicht stimmen.
Langsam wird es verdammt ärgerlich. Nichts anderes schreibe ich die ganze Zeit.

=> "Die sRGB-Tonwertkurve entspricht aber, wie gesagt, nicht einer Gamma 2.2-Tonwertkurve."

=> "sRGB sieht allerdings beispielsweise kein Gamma 2.2, sondern eine Tonwertkurve mit linearem Anteil in den absoluten Tiefen vor. Dazu kommen ggf. Kompensationsmechnismen, die den Schwarzwert des Monitors berücksichtigen."

Hier für die Richtung gammakorrigiertes RGB in lineares RGB:
http://www.brucelindbloom.com/Eqn_RGB_to_XYZ.html
(Inverse sRGB Companding)

Ich habe dir eine von dir ausdrücklich gewünschte Gamma 2.2-Tonwertkurve "vorgerechnet" - und dich auf oben erklärten Umstand hingewiesen. Erwarte aber keine fundamentalen Unterschiede. Außerdem möchtest du ja keine normative Tonwertkurve, sondern die tatsächliche Charakteristik deines Monitors erfassen (siehe zweiter Absatz des vorigen Zitats).
 
Zuletzt bearbeitet:
Ich habe nie von Hacks gesprochen, sondern einer Linearisierung via vcgt oder Monitor-LUT. Selbstverständlich bringt Windows inzwischen einen eigenen LUT-Loader mit, der vorhandene Informationen im vcgt auslesen und anwenden kann. Bitte vergegenwärtige dir noch einmal den Ablauf einer Monitorkalibration für den ICC-Workflow:

Und die Daten für den LUT loader, erzeigt eben lprof. Du hattest mich ja gefragt, mit folgender Frage

Aber selbst wenn du mit einem präzisen Messinstrument lediglich die Helligkeit ermittelst und stets ideale Neutralität bei gewünschtem Weißpunkt unterstellst - wie willst du eine Korrektur einpflegen?

korrektur einpflegen ist jetzt nicht gerade eine präzise aussage von dir in dem Fall. Aber damit deine Frage sinn ergibt, habe ich es eben dann so interpretiert, dass du mich fragen wolltest, wie ich denn die Messwerte dann dem LUT loader übergeben will, damit der die Korrektur ausführt. Daher habe ich lprof erwähnt. lprof erwartet nunmal das it8 format um daraus, dann ein von windows verwendbares Monitor Profil zu erstellen. Dann hattest du mir die aussage gepostet

Nicht böse gemeint - aber ich sehe den Zusammenhang zur Diskussion nicht.

Die antwort auf deine Aussage, dass du mal die anleitung von lprof lesen sollst, mag zwar arrogant klingen, aber mir fiel dazu nichts netteres ein, damit du verstehst, dass lprof eben nur aus einer it8 Datei ein Monitorprofil für windows erstellen kann.

Ich habe dir eine von dir ausdrücklich gewünschte Gamma 2.2-Tonwertkurve "vorgerechnet" - und dich auf oben erklärten Umstand hingewiesen. Erwarte aber keine fundamentalen Unterschiede. Außerdem möchtest du ja keine normative Tonwertkurve, sondern die tatsächliche Charakteristik deines Monitors erfassen (siehe zweiter Absatz des vorigen Zitats).

der ganze Text lässt eigentlich darauf schliessen(besonders 2. Absatz), dass ich wie bei kalibrieren üblich srgb und gamma 2.2 meine. Dass srgb nicht immer gamma 2.2 wusste ich vorher nicht. wissen die wenigsten. du bist der erste der es mir gesagt hat. habe ich erst jetzt dazugelernt

Meine Frage

Wer kennt sich gut mit der Mathematik aus, was müsste das Gerät jetzt bei gamma 2.2 und RGB Werten 50, 100,200 anzeigen, wenn man bei RGB 256 den Wert 67 erhält ??. oder man misst erstmal bei Helligkeit 80%, da ist der Lichtwert höher und messfehler merkt man da nicht so. mehr als helligkeit 80% kann ich nicht einstellen, weil man dann die hellen stufen im Graukeil nicht mehr unterschieden kann. scheinbar kann der Monitor nicht heller.

Ich denke wenn man die 3 Korrekturwerte irgendwie im Monitortreiber so einstellen kann, dann wäre das schon sehr viel besser als unkalibriert und würde kaum noch besser werden, wenn man mehr Messpunkte nimmt . denn in den anderen werten, kann es dann nicht mehr so stark abweichen. 90% perfekt ist schon viel besser als nur 50% perfekt. Und wenn man dann mit den Farben rot, dann blau, dann grün misst, dann kann man auch die Farben einstellen.

Ich habe dir eine von dir ausdrücklich gewünschte Gamma 2.2-Tonwertkurve "vorgerechnet" - und dich auf oben erklärten Umstand hingewiesen. Erwarte aber keine fundamentalen Unterschiede. Außerdem möchtest du ja keine normative Tonwertkurve, sondern die tatsächliche Charakteristik deines Monitors erfassen (siehe zweiter Absatz des vorigen Zitats).

und warum schreibst so nen langen Text(der wie eine politiker Ausrede klingt :D ) und postest nicht einfach die Formel für srgb, so dass man sie einfach in den Taschenrechner eingeben kann, wenn du sie weist ?. besser und zeitsparender ist es einfach dann garnichts zu schreiben, wenn man es eh nicht weis. Wenn ich hier keine Antwort bekomme, ist das auch nicht schlimm, frag ich eben mal in einem Physik Forum nach. vielleicht können die erklären, wie man mit dem Lux Meter nachprüfen kann, ob die Helligkeits Werte für das übliche srgb dass als gamma 2.2 bezeichnet wird stimmen. links auf die Formel kann ich ja posten.

Es geht ums kalibrieren, und da sagt eben jeder in Alltagssprache, dass man auf gamma 2.2 und srgb kalibrieren solle. wie das nun technisch genau abläuft, weis nicht jeder.

Lux scheint jedenfalls eine lineare Grösse zu sein, wie Cd/mm2 auch. Ich halte das Messgerät ja direkt an den Monitor, und die Fläche ist sozusagen endlos gross, weil der Sensor eh nicht den ganzen Monitor sieht. natürlich kann ich nicht direkt an den Monitor ran, der Sensor steht immer etwa 1 cm vom Monitor weg. daher sind die Lux werte wohl immer 30-40% geringer, als die cd/mm2 Werte die es nach dem prad test geben müsste. stell ich Helligkeit auf 100% bekomm ich bei voll weiss 176 Lux angezeigt. aber absolut Werte sind ja nicht wichtig, um eine gute Tonwertkurve einzustellen

Du schreibst
Erwarte aber keine fundamentalen Unterschiede
Wie schon erwähnt, es sind fundamentale Unterschiede mit deiner Formel. Bei einem Wert von 64 kommt gemessen mit LUX Meter 16,5 raus. mit deiner Formel errechnet 3.77. Ich kann da auch nix falsch eingeben, denn ich habe die Formel einfach nur in die google suche kopiert und return gedrückt. Es kam der google taschenrechner und es stimmte dann auch das Ergebniss deiner Beispielrechnung. ich habe dann nur die 200 mit 64 geändert und hinten 79(max Wert) eingetippt und return gedrückt, da kam dann 3.77 raus. probier es aus.brauchst nur auf den link klicken.

https://www.google.de/search?q=%2864/255%29^2.2*79&ei=Z2JQVb_aNIGrswGG3YDgBA
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten