So, ich versuche auch noch mal meinen Senf dazuzugeben.
Bevor ich hier aber irgendeinen Quark schreib´ hab´ ich mich erst einmal belesen.
Der Grundlegende Unterschied zwischen den Kameraintern abgelegten Formaten Jpg und Raw ist der in der unterschiedlichen Bit-Tiefe.
Raw wird in 12 Bit aufgenommen und in 8 Bittiges Jpg umgewandelt (komprimiert). Das hört sich im ersten Moment nicht viel an, ist es aber.
8 Bit bedeutet 256 Abstufungen pro Pixel, 12 Bit 4096 (!).
Das heißt das Raw Format kann schon mal 16mal mehr Helligkeitsunterschiede pro Pixel speichern als das JPG.
Das heißt dann aber auch, dass es (systembedingt) schärfer ist.
Denn bei der Komprimierung zum jpg wird viel nivelliert. z.B. die Helligkeitsunterschiede von 2000, 2001, 2002, 2003, 2004, 2005, bis...2015 (eben 16 Stufen) haben nach der Komprimierung alle den Wert 128 im 8 Bit jpg.
Soweit die Kamera.
Ich habe mir nun überlegt, wie wir tatsächlich die Unterschiede beurteilen können, was hier weiter oben (ob als Scherz oder nicht) ja überhaupt nicht geklappt hat.
Dabei dürfen die Raw Dateien aus den genannten Gründen nicht komprimiert werden.
Also werde ich morgen 2 identische Aufnahmen einmal als Kamera jpg auf einen Fileserver ablegen und ein Raw das ins 16 Bit TIFF Format konvertiert wurde (und das im Gegensatz zum Jpg nicht verlustbehaftet ist).
Ich wollte schon ein ganzes Bild posten, aber das sind im 16 Bit Tiff Format doch unglaubliche 60MB, so das ich mich mit einem Ausschnitt begnügen werde.
Gruß
Mike