Ok. Ach so, also ist er auch da besser (aber 550D 14bit)?......
Ob 14 bit mehr Output liefern wie 12 bit lässt sich mit Blick auf die "Funktionsweise" unserer BAYER-basierten Technik beantworten und lautet klar:
NEIN
Warum?
Ein (vereinfachter Blick) auf die Abläufe VOR der Datenverarbeitung macht diese für viele unerwartete Antwort nachvollziehbar:
- Die Sensorseitige "Abtastung" mit 12 oder 14 bit bezieht sich NUR ! auf die
Abtastrate des A/D-Wandlers
- mit dieser Samplingbandbreite (bit) werden innerhalb der Abtastzeit auf der lichtsensorischen Sensorfläche Elektronen gesammelt wobei die gesammelte Menge am Abtastende den Signalwert darstellt
- jedes sensorische Pixelelement kann jedoch nur eine bestimmte Elektronenanzahl aufnehmen, die sogen.
Full-Well-Kapazität. So wie bei einer 1-Literflasche wo bei "Lieferung" von 1,2 Liter der Rest überläuft, findet es auch bei den sensorischen Pixelelementen statt, das ein zuviel an Licht nicht rein passt und damit die Messung verfälscht
Da gegebenes Licht in der Intensität zwischen Null und unendlich vielen Elektronen liegen kann finden also im normalen Alltag ob draussen beim Landschaftsfoto oder drinnen bei Lampenlicht ständig ein ! Full-Well-Überlauf statt!
Was wird also gemacht um dennoch mit BAYER-technik was anzufangen?
- Es erfolgt eine "Einteilung in viiile Mittelwerte" um die vorhandene Bandbreite an Lichtintensität Stückchenweise in digitaler Form abbilden zu können.. vgl. einen 2,10m großen Menschen der sich eben "etwas bücken muss" um durch einen 2m hohen Türdurchgang zu kommen.
Dieser bleibt zwar 2,10m gross.. "bildet sich" aber auf nur 2,0m ab!
Das kann man so weiter machen auf 1,80 auf 1,0 usw.. und digital wird es ebenfalls so gemacht.. solange bis die Mittelwerte alle in den "gemeinsamen" Erfassbereich komplett reinpassen.
Das dabei natürlich Information verloren geht und Fehlinformation hinzukommt (gebückt und stehend sieht der 2,10m-Mensch eben ETWAS anders aus) dürfte klar werden.
Um diese Bandbreitenproblematik von potentiell "zu wenig" ODER "zu viel" an Licht zu lösen wird also das zu verarbeitende Signal gezielt manipuliert und versucht diesen Eingriff nachträglich wieder herauszurechnen:
-
bei zuVIEL erfolgen Signal-Offsets zum "De-Clipping".. solange bis die vorhandene Bandbreite an Lichtintensität über Mittelwerte in die Abtastung der Gesamtfläche "einrechenbar ist
-
bei zuWENIG erfolgt heute bei JEDEM sensorischen Pixelelement eine Signal-"Vorverstärkung" bereits OnChip, also einbringen von Signalrauschen um überhaupt etwas an Nutzsignal zu bekommen.
Beide Verfahren helfen auch mehr Bandbreite ( Dynamik) zu erhalten, haben aber den Nachteil das beide ! das Signal selbst verfremden weshalb man vom verbleiben Nutzanteil im gelieferten Signal spricht, zu dem sich noch Störelemente wie thermisches Rauschen durch erwärmung des Sensors sowie "dunkelrauschen" und diverse weitere Störanteile die technisch bedingt sind. Das nachfolgend zur verarbeitung anstehende Signal ist als "verschmutzt".. und hat nur einen Nutzanteil (
SNR Signal-Noise-Ratio) im Bereich von etwa 65-80 %.
Bei 12 bit blieben theoretisch im Optimafgall 9,6 übrig und bei 14bit 11,2 was im ersten Moment durchaus wie ein kleiner Vorteil aussehen mag, jedoch ist es bei weiten nicht so da das Verfahren nach BAYER
noch weitere Stolpersteine bereit hält
Welche?
- Die Farbfilter (FGA (Filter-Grid-Array)) sind zwingend da bei BAYER keine spektrale Farbtrennung erfolgt und nur Helligkeitsinformationen ausgewertet werden. Nur über ein nachgeschaltetes Farbfilter das die Basis-Grundfarbkanäle festlegt (ROT/GRÜN/GRÜN/BLAU (RGGB)) und durch mathematische Verfahren über die Luminanzwerte der Nachbarpixel wid dieser Pixel
dann im Farbraum zugeordnet (siehe meine früheren Fachaufsätze (SuFu)).
Das funktioniert heute erstaunlich gut, hat aber zuvor
den Nachteil das die Farbfilter bis zu 2/3 des einfallenden Lichts schlucken !
Die Empfindlichkeit des
Hell-Dunkel Tonwertumfangs kommt somit zu keiner Zeit ! über 50% und auch nur jedes vierte (4te) Signal trägt eine NICHT-Interpolierte Farbinformation, sprich der größte Teil des fertigen Bildes ist errechnet
Das alles sorgt in der Summe dafür das vom denkbaren theoretischen Vorteil der 14-bit-abtastung
NIXX auf direktem Weg überbleibt da auf Grundlage von BAYER immer eine sogenannte "
Unterabtastung" vorliegt! die bei kritischen Bildmustern z.B.durch Bildung von Moiré auch sichtbar wird, also einer Farbtonmodulation die im Objekt selbst jedoch NICHT vorhanden ist. Um das wiederum in den Griff zu bekommen werden optische Anti-Aliasing (AA)Filter verwendet
um die Ortsauflösung unter die Nyquist-Auflösung zu reduzieren.. und reduzieren natürlich nochmals die verbleibende Lichtmenge.. weshalb alle seit langen daran arbeiteten auf die AA-Filter zu verzichten und nur Nikon hat es bislang wirklich sauber hinbekommen!
Was bleibt also von den 14bit? : NIXX
Einzig die in der RAW-Datei gespeicherten "Intensitäten", also wie sich das überschreiten der Full-Well-Kapazität analog zur Helligkeit über das gesamte Bild verteilt.. können noch herangezogen werden um etwas mehr an Details in den Tiefen "zurückrechnen"! wobei dann die Ursprungsbandbreite 12 zu 14 bit wirksam sein KANN, aber nicht muss, z.B. bei LowKey Aufnahmen um Schattenbereiche nachträglich aufzuhellen.
Doch selbst bei großformatig Ausbelichtungen ist der Unterschied zwischen 12bit und 14bit-Aufnahme dann nur selten auszumachen.. am ehesten wenn wirklich Seehr kritisch oder gar falsch belichtet wurde.
Soweit die "vereinfachte Kurzerläuterung" zum Dauerthema 14bit und warum das Real nixx bringt
Wer "etwas mehr Detailwissen zum warum & wieso" erfahren möchte, dem würde ich als
Lern-Lektüre die Abhandlungen zu den Grundlagen der Bildverarbeitung optischer System von Klaus Tönnies (Uni-Magdeburg) ans Herz legen und natürlich für das Gesamtthema das Verständnis optischer Systeme : also das
Shannon´sches Abtast Theorem / Nyquist-Theorem
LG
Gerd