Neben YCbCr-Jpgs gibt es auch noch CMYK-Jpgs, sind aber sehr unüblich.
JFIF is compatible with Adobe Photoshop's JPEG "Information Resource Block" extensions, and IPTC Information Interchange Model metadata, since JFIF does not preclude other application segments, and the Photoshop extensions are not required to be the first in the file. However, Photoshop generally saves CMYK buffers as four-component "Adobe JPEGs" that are not conformant with JFIF. Since these files are not in a YCbCr color space, they are typically not decodable by Web browsers and other Internet software.
Die Darstellung des Jpg-Algorithmus gefällt mir, aber was hat die Quantisierungstabelle mit der Dynamik zu tun? Die Dynamik bezieht sich doch auf Helligkeit, nicht Frequenzen?
Man könnte sagen, daß die Artefakte Rauschen hinzufügen und damit der Dynamikumfang sinkt.
Das ist schon richtig, vielmehr hat aber anzahl der möglichen Helligkeitsabstufungen mit der Dynamik zu tun. Ein Element der Quantisierungsmatrix kann auch mehr als 8 Bit Auflösung haben, nur eben bei JPEG nicht.
Daß dei Quantisierungstabelle irgendwie an die Frequenz-Wahrnehmung des Auges angepasst wäre würde ich so auch nicht sagen, die Anpassung ans Auge steckt in der YCbCr-Umrechnung un dem Subsampling der beiden Farbkanäle. Die Qunatisierungstabelle wird eher doof hergeleitet, die sehen eigentlich immer so simpel wie das Snoop-Beispiel aus.
Natürlich ist die Umwandlung in YCbCr der erste Schritt zur Anpassung an das menschliche Sehvermögen, es ist prinzipiell aber erstmal nur eine andere Darstellungsweise, rein theoretisch (also bei ohne Rundungsfehler) hat man dadurch erstmal keine Verluste. Aber du hast durch den YCbCr Farbraum die relevanten Komponenten so getrennt, dass du sie entsprechend der Emfpindlichkeit es Auges getrennt verarbeiten und optimieren kannst. Bei Jpeg eben in der Form, dass das Auge erstmal die meisten Informationen aus den Helligkeitsabstufungen gewinnt. Demnach wird der Helligkeitsanteil Y nicht unterabgetastet. Die Farben hingegen sind weniger relevant, also kann man sie, ohne dass man es wirklich merkt, mit geringerer Auflösung speichern. Weiterhin kann das Auge bestimmte Farbabstufungen nicht mehr Wahrnehmen, also werden Farbverläufe z.B. anstatt mit 20 Abstufungen z.B. nur durch 10 Farbabstufungen ersetzt, ohne dass man es sieht. Wenn die Komprimierung jedoch höher wird, werden die Abstufungen noch weniger, das wiederum hat Farbabrisse zu Folge, die man z.B. bei einem Foto eines Himmels sieht.
Du kannst ja mal ein RAW nehmen und die Anzahl der tatsächlich genutzten Farben zählen lassen. Dann wandelst du das Bild mal in JPEG um, einmal mit 100%, dann mit 80% usw. Du wirst jedes mal Feststellen, dass die Farben immer weniger werden. Und zwar in der Form, dass zunächst "feine Farben" gröber dargestellt, denn die höher frequenten Anteile werden als erstes mit geringerer Farbauflösung gespeichert.
Genau der gleiche Grundgedanke ist es auch gewesen, als vor Dekaden die PAL-Übertragung erfunden wurde. Auch hier wird ein ähnlicher Farbraum verwendet: YUV. Auch hier werden Hellgikeits- und Farbinformation getrennt übertragen und der Farbanteil nur in halber Auflösung.
Bei RGB-Bildern ist der Helligkeitsanteil nicht getrennt gespeichert sondern er befindet sich in jedem einzelnen RGB-Tupel, darum würde es sich nicht so optimal komprimieren lassen. Hier greift man dann eher zu Entropiekodierung wie z.B. bei PNG (aber auch hier werden zuvor erst die Differenzen ermittelt, da diese Werte sich besser komprimieren lassen). Zudem ist es dann auch verlustlos.