WERBUNG

Visualisieren 14Bit vs 12Bit Farbtiefe

ilias_13

Themenersteller
Hallo zusammen,

seit ich 14 Bit Farbtiefe habe,
sind meine Bilder einfach toll... BUAHHH ...
ich kann wirklich keinen unterschied sehen wenn ich
ein 12Bit zu einem 14 Bit Bild vergleiche.

Hat jemand erfahrung oder einen Test welcher den Unterschied
zwischen 12 und 14 Bit visualisiert.

Alle meine Bilder nehme ich in RAW auf und Konvertiere sie anschliessend in JPEG. Verglichen hatte ich immer nur die resultierten JPEG's, kann ich desshalb keinen Unterschied sehen? Ist 12 zu 14 Bit Ausgedruckt sichtbart?

OK ich habe eine sehr leichte Farbblindheit... kann es daran liegen, dass ich keinen unterschied in der Farbtiefe sehen kann.
Die Vorteile von RAW anstelle direkt JPEG zu fotografieren, nutze ich ziemlich, diesen Unterschied konnte ich mir vor 3 Jahren nicht vorstellen. Nun kann ich mir (noch?) keinen unterschied zwischen 12 und 14 Bit vorstellen. Für jeden weiterbildenden Beitrag freue ich mich bereits jetzt :-)

Besten Dank Ilias
 
Jpeg hat 8bit Farbtiefe wieso sollte man einen Unterschied sehen ob die Quelle 12 oder 14 bit hat?
Bemerken wirst du es wenn du die Quelldaten stark bearbeitest dann hast du bei 12 bit schonmal harte Übergänge die bei 14bit noch weich sind.
 
Hi,
bei unbearbeiteten Fotos wirst du keinen unterschied feststellen. Schon gar nicht bei jpeg wegen dessen 8Bit ;) Außerdem kann dein Monitor nur (ich glaube) maximal um ???11 Bit??? pro Kanal darstellen.
Bei bearbeiteten Fotos wirst du aber den unterschied feststellen, weil bei Tonwertkorrekturen usw. mehr Informationen im RAW vorhanden sind. Deshalb kannst du das Bild stärker bearbeiten, ohne Farbabrisse oder übergelaufene Kanäle zu bekommen. Für die weitere verarbeitung solltest du dann aber das Raw in ein 16 Bit Tiff konvertieren.
 
Nö, der Monitor (bzw. die Grafikkarte) hat im PC-Bereich auch nur 8 Bit pro Farbe (RGB) ...

Klaus
 
Hallo zusammen,
seit ich 14 Bit Farbtiefe habe,
sind meine Bilder einfach toll... BUAHHH ...
ich kann wirklich keinen unterschied sehen wenn ich
ein 12Bit zu einem 14 Bit Bild vergleiche.
Besten Dank Ilias


wurde schongesagt, sehen kannst du auf dem Moni nur 8-bit und ich glaub immer noch das der Canon RAW Konverter nur 10-bit ausspuckt, im ACR kann ich mehr rausholen
 
Besten Dank für die Beiträge, somit bin ich bereits schlauer geworden :-)

Dann habe ich dennoch 2 Folgefragen:
Wenn ein Raw Bild in 12 Bit und das gleiche Raw in 14 Bit, mit einigen Tonwertanpassungen konvertiert werden, ist dann bei einer Konvertierung in JPEG wirklich kein Unterschied ersichtlich da nur 8 Bit, und ist dies wirklich nur der Fall wenn das File in Tiff Konvertiert wird? Wenn dies der Fall ist, so muss ich einige meiner Bilder neu auf Tiff Berechnen!

Ist der einzige Unterschied wirklich nur die Härte beim Farbübergang, oder kann da ein Quäntchen an Rauschen usw. auch herausgeschummelt werden?

Die Zweite Frage ist: Arbeitet Ihr somit eher mit Tiff Daten und kann nach einer TIFF-Gesamtbearbeitung, ein Unterschied ersichtlich werden wenn danach das Bild in Jpeg konvertiert wird, oder gehen auch hier wieder sämmtliche Vorteile verlohren und sollte alles in Tiff bleiben?

Klar für Fotos welche ins Internet gestellt werden, werde ich sowieso Jpeg verwenden (macht dies ein Profi anderst?).
Mir geht es eher um wenige Bilder welche ich ev. in ein Poster verwandeln will und ich die Maximale Qualität rausholen will.
Ich Hatte auch einmal das vergnügen eine Hochzeit eines Kollegen zu fotografieren, ist in solch einem Fall angemessen, alles in Tiff zu bearbeiten? Ok, der Kollege war auch mit den JPEG's sehr zufrieden :-). Für Tipps wann in TIFF gearbeitet werden sollte wäre ich auch sehr dankbar, ich hoffe mein Rechner wird nicht an Anschlag kommen :o

Ich weiss somit was ich am we machen werde! ==> Testen
 
Einmal als Jpeg gespeichert, hat das Bild nur noch 8 Bit. Zurücktransformieren bringt dann nur wenig.
12/14 Bit spielen ihre Vorteile nur aus wenn vom "digitalen Negativ" RAW ausgehend durchgängig in einer 16-bit fähigen Umgebung bearbeitet wird.

Wenn man das berücksichtigt besteht der Vorteil von 14 Bit "nur" in einer viermal besseren Farbtrennung als 12 Bit. Die braucht man aber nur bei Nachbearbeitung - für eine vernünftige Qualität alleine sind 8 Bit schon genug :) Aber bei starker nachträglicher Aufhellung z.B. werden die Farbverläufe also nicht so schnell aufreißen. Es gibt mehr Zwischenstufen.
Beim Rauschen bringt das keinen Vorteil.
 
Nö, der Monitor (bzw. die Grafikkarte) hat im PC-Bereich auch nur 8 Bit pro Farbe (RGB) ...

Klaus

Wozu sind Deiner Meinung nach eigentlich diese lustigen Einstellungen in den Anzeigeeigenschaften:

Anhang anzeigen 411428

Hier mal ein Auszug aus den technischen Daten aktueller ATI-Grafikkarten:

Two independent display controllers
Drive two displays simultaneously with independent resolutions, refresh rates, color controls and video overlays for each display
Full 30-bit display processing
Programmable piecewise linear gamma correction, color correction, and color space conversion
Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
High quality pre- and post-scaling engines, with underscan support for all display outputs
Content-adaptive de-flicker filtering for interlaced displays
Fast, glitch-free mode switching
Hardware cursor
Two integrated DVI display outputs
Primary supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)1
Secondary supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI only)1
Each includes HDCP encoder with on-chip key storage for maximum resolution playback of protected content2
Two integrated DisplayPort™ outputs
Supports 24- and 30-bit displays at all resolutions up to 2560x16002
1, 2, or 4 lanes per output, with data rate up to 2.7 Gbps per lane


Übrigens: Röhrenmonitore haben quasi eine unendliche Bittiefe, da sie analog funktionieren. Weiterhin hat der verwendete Farbraum (sRGB) zunächst mal gar nichts mit der Bittiefe, bzw. der Anzahl möglicher (Zwischen-)Werte zu tun.

Theroetisch kann ich sRGB auch mit 4bit abbilden, dann sehen Farbverläufe halt entsprechend bescheiden aus.
 
Zuletzt bearbeitet:
32bit entspricht tatsächlich 12bit pro Farbe am Monitorausgang! Nur können das normale Monitore nicht darstellen. Die einfachen arbeiten meist mit 10bit.

Profi-Monitore wie z.B. von Eizo haben aber auch einen auf 12bit Genauigkeit erweiterten Farbraum und rechnen intern sogar mit bis zu 16 bit pro Farbe. Das ist in der Druckvorstufe schon recht wichtig.
 
Wozu sind Deiner Meinung nach eigentlich diese lustigen Einstellungen in den Anzeigeeigenschaften:

Anhang anzeigen 411428

Definitiv nicht für die Anzahl der Farben.

Der 32-Bit Modus ist für die Darstellung des RGBA Farbmodells. Dieser hat gegenüber dem RGB (24 Bit) Farbmodell einen weiteren Alpha-Kanal, mit dem die Transparenz eines Pixels dargestellt werden kann.


Hier mal ein Auszug aus den technischen Daten aktueller ATI-Grafikkarten:
....
Two integrated DVI display outputs
Primary supports 18-, 24-, and 30-bit digital displays

Es gibt Monitore die echte 30 Bit oder sogar bis 42 Bit darstellen können. So wie diese:
Link High-End-Monitore
Die Preise möchtest Du aber gar nicht wissen ;)


Übrigens: Röhrenmonitore haben quasi eine unendliche Bittiefe, da sie analog funktionieren. Weiterhin hat der verwendete Farbraum (sRGB) zunächst mal gar nichts mit der Bittiefe, bzw. der Anzahl möglicher (Zwischen-)Werte zu tun.

Nützt aber nicht viel, da das menschliche Auge nur ca. 4 Millionen Farben unterscheiden kann, welche theoretisch durch 30 Bit erreicht werden.

Gruß

Dirk
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten