WERBUNG

DSLR mit 16 Bit RAW?

TheBlueboy

Themenersteller
Hallo Forum,

gibt es eigentlich mittlerweile DSLR die 14 oder 16 Bit RAW unterstützen? Wenn ja, welche ? Ich lese immer nur was von 12 Bit RAW.

Danke
 
ein 12 Bit Bild hat 4096 Tonwertstufen pro Farbe

ein 16 Bit Bild hat 65536 Tonwertstufen pro Farbe


bist Du bereit Dateien zu akzeptieren und bearbeiten, die um das 16fache grösser sind als die Dateien, die Deine aktuelle Kamera schreibt?
 
Nur weil es 16 mal mehr Farben sind, hat man doch nicht 16fach grössere Dateien... 16 bit sind genau 4 bit mehr als 12bit. Also etwa ein Drittel grössere Dateien. ;)

nun das kommt wohl darauf an wie das gespeichert und weiterverarbeitet wird...wobei Du eigentlich recht hast, denn aus der 12 Bit RAW Datei wird im Rechner ja auch eine 16 Bit Tiff Datei gemacht ....hmmmm
 
Daß die Datei nicht 16 mal größer ist, könnte ja daran liegen, daß die Dateigröße nicht nur von den Farben sondern auch noch anderen Daten her kommt ??
 
ein 12 Bit Bild hat 4096 Tonwertstufen pro Farbe

ein 16 Bit Bild hat 65536 Tonwertstufen pro Farbe


bist Du bereit Dateien zu akzeptieren und bearbeiten, die um das 16fache grösser sind als die Dateien, die Deine aktuelle Kamera schreibt?

noch schlimmer:
ein weiss hat dann 3x den wert 65536 ... statt 3x 4096

ein scharz aber immer noch 0 0 0.. je heller und bunter das bild, desto größer die datei...

warschinlich ist es nicht ganz so extrem, da die datei ja belichtungsspielraum für 2 Blendstufen hat??
 
OMG :eek: ist doch ganz einfach. 16bit sind 4bit mehr als 12bit und brauchen also auch genau 1/3 mehr Speicher. Mit 4bit kann ich allerdings (2^4=) 16 verschiedenen Werte darstellen. Also hat ein 16bit Wert einen 16fach grösseren Wertebereich als ein 12bit Wert.

Ich hoffe ganz ernsthaft, dass in diesem Fall einfach mein Ironiedetektor versagt hat und die obigen Beträge nicht ernst gemeint waren.

Zur ausgangsfrage: ich kenne keine die 16bit Raws ausspuckt, sorry :)
 
Mit 1 Byte (8 Bit) kann man 256 diskrete Werte darstellen.

Mit 2 Byte (16 Bit), also dem doppelten Datenaufkommen, schon 65536 Werte.
 
OMG :eek: ist doch ganz einfach. 16bit sind 4bit mehr als 12bit und brauchen also auch genau 1/3 mehr Speicher. Mit 4bit kann ich allerdings (2^4=) 16 verschiedenen Werte darstellen. Also hat ein 16bit Wert einen 16fach grösseren Wertebereich als ein 12bit Wert.

Ich hoffe ganz ernsthaft, dass in diesem Fall einfach mein Ironiedetektor versagt hat und die obigen Beträge nicht ernst gemeint waren.

Zur ausgangsfrage: ich kenne keine die 16bit Raws ausspuckt, sorry :)



Ja, ich denke so ist es richtig....war ein Denkfehler, ich habe daran gedacht, dass das in ein 16 Bit Bild umgerechnet wird.....und für Bildschirmdarstellung wird ja tatsächlich jeder Punkt im Speicher gehalten. Auf die Idee, dass das bei einer 12 Bit RAW Datei auch ein 16 Bit Bild ist bin ich nicht gekommen.
 
Ich bin mir zwar nicht sicher, aber wenn ich das richtig interpretiere hat die Hasselblad H2D-39 die Möglichkeit ein 16 bit-RAW aufzunehmen.

78MB bei 39 MPix ergibt für mich umgerechnet eine Farbtiefe von 16bit, wird komprimiert auf ~50 MB
 
Was hier immer vergessen wird ist die Tatsache, daß die 12 Bit Sensordaten noch linear vorliegen. Erst mit der RAW-Konvertierung wird eine Gammakorrektur (meist Gamma 2,2 für sRGB oder AdobeRGB) angewendet. Nach der Gammakorrektur sind die Tonwerte in den Schatten etwas auseinandergezogen, während es im Bereich der Lichter enger wird.
Um lineare 12-Bit-Daten ohne zu große Verluste in einen gängigen Arbeitsfarbraum zu übertragen, braucht man also schon 16 Bit.
 
Hi,

also um genau zu sein handelt es sich natürlich um x Bit jeweils pro Kanal. 8 Bit = 256 Abstufungen pro Kanal und entspricht bei RGB 24 Bit (wie bei den Grafikkarten angegeben).
16 Bit RAW bedeutet nun, dass pro Kanal 16 Bit tiefe da ist, also z.B. je nach RAW-Format 3x (RGB, LAB) 16 Bit = 48 Bit, bzw. 12 Bit pro Kanal = 36 Bit.

Ciao
 
Zuletzt bearbeitet:
Hi,

also um genau zu sein handelt es sich natürlich um x Bit jeweils pro Kanal. 8 Bit = 256 Abstufungen pro Kanal und entspricht bei RGB 24 Bit (wie bei den Grafikkarten angegeben).
16 Bit RAW bedeutet nun, dass pro Kanal 16 Bit tiefe da ist, also z.B. je nach RAW-Format 3x (RGB, LAB) 16 Bit = 48 Bit, bzw. 12 Bit pro Kanal = 36 Bit.

Ciao

Hmm, im RAW gibt es aber doch nur einen Kanal.

Grüße
Andreas
 
Daß die Datei nicht 16 mal größer ist, könnte ja daran liegen, daß die Dateigröße nicht nur von den Farben sondern auch noch anderen Daten her kommt ??
Das einzige was sich verändert wäre aber nun mal die Farbtiefe. Wo ein Pixel in unkomprimiertem TIFF-Format mit 8-bit Farbtiefe in drei Grundfarben 3 Byte zur Speicherung benötigt, also 8 MP einen Speicherplatz von 24 MB belegen werden, werden bei 16 Bit Farbtiefe pro Pixel in den drei Grundfarben 3x2 = 6 Byte benötigt. Es ergeben sich dann für 8 MP insgesamt 8x6 = 48 MB Speicherplatz, also das Doppelte dessen, was mit 8 Bit Farbtiefe benötigt wird.

@OP: warum willst Du überhaupt 14 oder gar 16 Bit Farbtiefe in den Files haben? Bei einem idealen Signal-zu-Rausch-Verhältnis (niedrige ISO-Werte) heutiger Spitzenkameras von ca. 40.000-zu-30 (Elektronen) ergibt sich eine sinnvolle Feinheit der Abstufung von etwas mehr als 1.000 Stufen, also kodierbar in 10 Bit pro Farbkanal. Mit 12 Bits/Farbkanal stuft man also schon so fein ab, dass in den untersten zwei Bytes fast nur noch Zufallszahlen stehen. Mit 14 oder gar 16 Bits/Farbkanal leistet man sich einfach noch mehr Bits im Speicherplatz, die ebenfalls keine Nutzinformation mehr tragen. Es bringt also nichts. Erst wenn Kameras Einzelpixel-Kapazitäten von z.B. 60.000 Elektronen bei einem Ausleserauschen von unter 15 Elektronen hätten, würde sich eine Farbtiefe von mehr als 12 Bit wirklich lohnen können. So weit sind wir derzeit ausserhalb wissenschaftlicher Kamerasysteme noch nicht.
 
Was hier immer vergessen wird ist die Tatsache, daß die 12 Bit Sensordaten noch linear vorliegen. Erst mit der RAW-Konvertierung wird eine Gammakorrektur (meist Gamma 2,2 für sRGB oder AdobeRGB) angewendet. Nach der Gammakorrektur sind die Tonwerte in den Schatten etwas auseinandergezogen, während es im Bereich der Lichter enger wird.
Um lineare 12-Bit-Daten ohne zu große Verluste in einen gängigen Arbeitsfarbraum zu übertragen, braucht man also schon 16 Bit.
Dies ist für JPEG sicherlich korrekt. Bei TIFF ist es nicht vom Format her festgelegt, da TIFF mehr oder weniger ein "Datencontainer mit variablem Header und variabler Bitlänge" ist. Ein TIFF kann daher auch variabel 8, 10, 12, 14 oder 16 Bit Farbtiefe in 1-4 Farbkanälen haben. Man kann bei TIFF auch im Prinzip frei auswählen, ob eine lineare Kodierung oder eine Arbeitsfarbraum-Kodierung angewendet werden soll. Welche Variante die Typische und welche der Ausnahmefall ist, kann vielleicht noch ein Experte anfügen - ich bin mir in diesem Punkt nicht ganz sicher.
 
Man kann bei TIFF auch im Prinzip frei auswählen, ob eine lineare Kodierung oder eine Arbeitsfarbraum-Kodierung angewendet werden soll.
Das ist eine Frage des Arbeitsfarbraum-Definition. Wenn ich ein entprechendes Profil anhänge, kann ich auch lineare JPEGs (also Gamma 1,0) oder abweichende Gammawerte (z. B. 1,8 für ECI-RGB und andere Mac-Farbräume) definieren. Daß ein lineares JPEG in der Praxis Blödsinn wäre, ist ein anderes Thema.

Mir ging es eigentlich nur um die Feststellung, daß die 12 Bit an Daten, die der Sensor liefert, in den meisten Fällen nicht 1:1 genutzt werden, und daß der 16-Bit-Modus in EBV-Programmen trotz "nur" 12 Bit RAW einen Sinn hat.
 
@OP: warum willst Du überhaupt 14 oder gar 16 Bit Farbtiefe in den Files haben? Bei einem idealen Signal-zu-Rausch-Verhältnis (niedrige ISO-Werte) heutiger Spitzenkameras von ca. 40.000-zu-30 (Elektronen) ergibt sich eine sinnvolle Feinheit der Abstufung von etwas mehr als 1.000 Stufen, also kodierbar in 10 Bit pro Farbkanal. Mit 12 Bits/Farbkanal stuft man also schon so fein ab, dass in den untersten zwei Bytes fast nur noch Zufallszahlen stehen. Mit 14 oder gar 16 Bits/Farbkanal leistet man sich einfach noch mehr Bits im Speicherplatz, die ebenfalls keine Nutzinformation mehr tragen. Es bringt also nichts. Erst wenn Kameras Einzelpixel-Kapazitäten von z.B. 60.000 Elektronen bei einem Ausleserauschen von unter 15 Elektronen hätten, würde sich eine Farbtiefe von mehr als 12 Bit wirklich lohnen können. So weit sind wir derzeit ausserhalb wissenschaftlicher Kamerasysteme noch nicht.

Multi-flash Aufnahmen im Stile von Edgerton sind euch wohl ein Begriff. Ich will die Bilder zu wissenschaftlichen Zwecken verwenden und da ist es für mich wichtig dass kein Pixel gesättigt ist und die Umwandlung der Sensordaten möglichst linear und fein abgestuft ist.
 
Multi-flash Aufnahmen im Stile von Edgerton sind euch wohl ein Begriff. Ich will die Bilder zu wissenschaftlichen Zwecken verwenden und da ist es für mich wichtig dass kein Pixel gesättigt ist und die Umwandlung der Sensordaten möglichst linear und fein abgestuft ist.

Wenn aber bereits jetzt der Sensor nur eine Abstufung hinbekommt, die mit 10 Bit abgedeckt werden können, dann bringen weitere Bits zwar theoretisch feinere Abstufungen, aber in der Praxis schafft dies der Sensor eben nicht.

Grüße
Andreas
 
OMG :eek: ist doch ganz einfach. 16bit sind 4bit mehr als 12bit und brauchen also auch genau 1/3 mehr Speicher. Mit 4bit kann ich allerdings (2^4=) 16 verschiedenen Werte darstellen. Also hat ein 16bit Wert einen 16fach grösseren Wertebereich als ein 12bit Wert.

Ich hoffe ganz ernsthaft, dass in diesem Fall einfach mein Ironiedetektor versagt hat und die obigen Beträge nicht ernst gemeint waren.

Zur ausgangsfrage: ich kenne keine die 16bit Raws ausspuckt, sorry :)

Naja man kann sich auch mal vertun, irren ist menschlich :)

Aber genau so wie in diesem Beitrag dargestellt, stimmt es. Also nur 1/3 mehr Datenvolumen.

Übrigens macht der Sprung von 12 auf 16 bit (in den RAW Daten, also vor Gammakorrektur) deutlich weniger für die Dateigröße aus, als so manche quasi-verlustfreie RAW-Kompression (welche die Dateien um Faktor 2 verkleinert!). Allerdings sampeln die glaub ich zumindest bei Nikon teilweise auch ein bißchen runter in der RAW-Kompression, merken tut es trotzdem kein Mensch.

Will heißen, auf dem Qualitätsniveau von KB- und 4/3-basierten DSLR-Kameras ist 16 Bit RAW vermutlich Perlen vor die Säue, merkt eh kein Mensch....

Multi-flash Aufnahmen im Stile von Edgerton sind euch wohl ein Begriff. Ich will die Bilder zu wissenschaftlichen Zwecken verwenden und da ist es für mich wichtig dass kein Pixel gesättigt ist und die Umwandlung der Sensordaten möglichst linear und fein abgestuft ist.

Wenn das eigentlich Kritische bei der Anwendung gesättigte Pixel sind, also vermutlich der Tonwertumfang, den der Sensor darstellen kann, würde ich mir evtl. mal die DSLR von Fuji anschauen: S3 oder S5 (beide identischer Aufnahmesensor nach aktuellem Kenntnisstand) Die sind aufgrund ihrer speziellen Sensorarchitektur für ihren rech hohen Tonwertumfang bekannt....
 
WERBUNG
Zurück
Oben Unten