• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

D300 - 14 Bit besser?

Richtig ist, dass je größer die Bitzahl, desto mehr Kontrastumfang kann pro Pixel im Prinzip gespeichert werden. Das ist die Frage nach der theoretischen maximalen Informationsdichte des Format in dem gespreichert wird.

Das ist so im Prinzip nicht richtig. Das ist dann richtig, wenn linear gespeichert wird. Ansonsten kommt es schlicht darauf an, wie die Werte gespeichert werden. Wie sie bei Nikon-Kameras gespeichert werden, weiss ich schlicht und einfach nicht. Allerdings: Wenn sie linear gespeichert werden, kann man mit n Bits etwas weniger als als n Blendenstufen plus einen "Nullwert", also reines schwarz darstellen.

2 Bit: 00, 01, 10, 11 ---> 0, 1, 2, 3 ---> log2(3/1) = 1.58 Blendenstufen
3 Bit: 000, 001, 010, 011, 100, 101, 110, 111 ---> 0, 1, 2, 3, 4, 5, 6, 7 ---> log2(7/1) = 2.81 Blendenstufen
4 Bit: 0000, 0001, 0010, ..., 1110, 1111 ---> 0, 1, 2, ..., 14, 15 ---> log2(15/1) = 3.91 Blendenstufen
12 Bit: 000000000000, 000000000001, ..., 111111111111 ---> 0, 1, 2, ..., 4095 ---> log2(4095/1) = 11.9996 Blendenstufen

Speichert man nichtlinear, so sieht das anders aus. Matlab (das meines Wissens den IEEE Standard nutzt) speichert als kleinste Zahl groesser Null 2.22*10^(-16), die groesste darstellbare Zahl ist 1.80*10^308. Damit ist der Kontrastumfang in Blendenstufen log2(1.80*10^308/2.22*10^(-16)) = 1076 Blendenstufen (in 64 Bit).


Zu beachten ist vielleicht noch, dass bei linearer Speicherung die Werte ziemlich unguenstig verteilt sind. So ist der Unterschied zwischen dem kleinsten Wert groesser Null (=1) und dem zweitkleinsten Wert groesser Null (=2) eine ganze Blendenstufe.
 
Die Diskussion hat esoterisches Niveau erreicht. Erinnert mich in etwa an Diskussionen zu einer höheren Abtastrate im Audiobereich (96 kHz müssen natürlich sein) oder der dortige Wandlerumfang. Unter 24 bit geht natürlich nichts. Solange hier nicht jemand ein Bild reinstellt, was zeigt, dass die betreffenden Kameras im 12 bit Modus im letzten Bit stabil sind, ist eine weitergehende Diskussion müßig. Selbst bei Iso 100 rauscht das letzte der 12 bit noch sichtbar im Schatten und von daher ist eine Aufteilung in 14 bit absurd. Genauso absurd wie vergoldete Audionetzkabel oder Atomstromfilter.
 
@wintersaint

Absurd ist eine 14 Bit-Abspeicherung sicherlich nicht, solange die professionelle Bearbeitungskette incl. Farbmanagement von Anfang bis Ende eingehalten wird! Und da dies hier nunmal ein Amateurforum ist, braucht sich der normale Amateur, der die Diskussion hier mitverfolgt hat, keine Gedanken um 14 Bit machen.
Interessanter wird es spätestens bei der Bildbearbeitung, denn das sollte auch den anspruchsvollen Amateur interessieren, ob man man im 8- oder 16 Bit-Modus arbeitet und viel Bildbearbeitung am Bild vornimmt. Denn dann sollten 16 Bit im Photoshop obligatorisch sein. Zum Ausdrucken oder Ausbelichten sollte man aber wieder auf 8 Bit/Kanal zurück fahren, denn mehr können die Drucker bzw. Fotobelichter auch nicht ausgeben.
 
Zuletzt bearbeitet:
Danke für die erhellenden Antworten @ Frithjof.B & Char! Ich hab nicht alles bis ins Detail verstanden, weiss aber die Mühen zu schätzen!
 
Meine Versuche zeigen keinerlei Informationszuwachs bei der Verwendung des 14-Bit Modus. Ich kann mich auch erinnern, relative kurz nacg Erscheinen der D300 einen Test gelesen zu haben, der die Unterschiede 12- und 14-Bit Modus an der D300 untersuchte, es wurden keine gefunden. Meine persönliche Meinung ist, dass der Chip selbst eine 12 Bit Auflösung liefert und erst durch nachträgliche Rechnung - die dann eben Zeit dauert - die zusätzlichen Bits "füllt".

Gruß
Georg
 
Meine Versuche zeigen keinerlei Informationszuwachs bei der Verwendung des 14-Bit Modus. Ich kann mich auch erinnern, relative kurz nacg Erscheinen der D300 einen Test gelesen zu haben, der die Unterschiede 12- und 14-Bit Modus an der D300 untersuchte, es wurden keine gefunden. Meine persönliche Meinung ist, dass der Chip selbst eine 12 Bit Auflösung liefert und erst durch nachträgliche Rechnung - die dann eben Zeit dauert - die zusätzlichen Bits "füllt".

Gruß
Georg

Ich denke das kann man ausschliessen, denn das waere voellig unsinnig.
 
@wintersaint

Absurd ist eine 14 Bit-Abspeicherung sicherlich nicht, solange die professionelle Bearbeitungskette incl. Farbmanagement von Anfang bis Ende eingehalten wird!

Da stimme ich Dir nicht zu. Recht hast Du mit der Bearbeitungstiefe in Photoshop. Das steht außer Frage und ist richtig. Aber ob man die Daten in 12 bit oder 14 bit aufnimmt, ist vollkommen egal. Dabei spielt Farbmanagement, auch wenns gut klingt, oder ein kalibrierter Monitor nicht die geringste Rolle. Auch irgendwelche Fineart-Drucker können keine Information aus 14 bit holen, die in 12 bit nicht drinnen wäre.
Der Punkt ist ganz einfach der: selbst ein guter Sensor kommt kaum über 70 dB Signal-zu-Rauschverhältnis hinaus. Das entspricht einem Faktor von ca. 1:3000. In der Praxis, ganz besonders wenn man noch das Musterrauschen des Sensors dazu nimmt, ist üblicherweise bei 1:1000 Schluss. Aber bereits 12 bit lösen 1:4096 Stufen pro Farbkanal auf! Wenn man das als 14 bit Zahl speichert, sind die letzten beiden Bits schlicht und einfach aus der Luft gezogene Pseudoinformation, die Platz wegnimmt aber sonst nichts. Oder um ein praktisches Beispiel zu geben: wenn ich meine Kamera verpacken will, dann reicht eine Tasche die ein wenig Größer ist als das Gerät. Eine Riesentasche sieht vielleicht geiler aus, und erweckt bei naiven Geistern den Eindruck, ich sei ein besserer Fotograf als der Knipser der ich bin, aber meine Kamera wird in dieser Tasche weder besser transportiert noch wird sie plötzlich selbst besser oder größer! Der Platz ist verschenkt.

In meinen Augen gibt es nur 1 Grund warum überhaupt der 14 bit Modus angeboten wird: grünes Feld bei dpreview. Dor steht dann gleich auf der ersten Seite: 14 bit! Woa! Toll. Das muss ja gut sein. Die Leute die das kaufen kennen aber den Hintergrund nicht, und lassen sich deshalb an der Nase herumführen. Das ist ein Marketingtrick aber sicher nichts, was irgendeine Relevanz für irgendein Foto hätte, was irgendwer in diesem Forum jemals machen wird.
 

danke für die Links, diese bestätigen meine Aussagen das 12 und 14 Bit nicht die mögliche Eingangsdynamik meint (wie hier viele krampfhaft das falsche beweisen wollten) sondern lediglich die Farbübergänge feiner darstellen und das Signal-Rauschabstand vergrößern/effektiver umwandeln, nicht mehr und nicht weniger.
 
...sind die letzten beiden Bits schlicht und einfach aus der Luft gezogene Pseudoinformation...

...die sich als Opfer für das Signalrauschen hingeben um das Rauschen von den 12 Bit weiter zu entfernen, dadurch werden 12 Bit sauberer und deswegen erscheinen die Farben weniger verrauscht als bloße 12Bit
 
danke für die Links, diese bestätigen meine Aussagen das 12 und 14 Bit nicht die mögliche Eingangsdynamik meint (wie hier viele krampfhaft das falsche beweisen wollten) sondern lediglich die Farbübergänge feiner darstellen und das Signal-Rauschabstand vergrößern/effektiver umwandeln, nicht mehr und nicht weniger.

Ist so... und anscheinend sind diese "Übergänge" nicht mal "gleichermassen" in den einzelnen Blendenstufen vertretten.

So sollen die Tiefen, die bei Nikons ja eigentlich die Reserven für die Dynamik haben, weniger Abstufungen haben, als die Lichter.
Wie wir wissen ist die Wahrscheindlichkeit eines Farbabrisses höher bei geringer Abstufung. Und da genau eigentlich die Tiefen bei Nikons hoch gezogen werden sollten ist ja dieses Verhalten eher "subotimal". Denn genau diese Bereich weisen weniger Abstufungen auf.

Ich versuche diese Quelle zu finden, wo das gezeigt wird, wie die Aufteilung dieser Stufen aufzeigen.
Wobei ich noch keine wirklich Handfeste Bestätigung gefunden habe, wie die verschiedenen Blendenstufen mit den Farbinformationen abgestuft sind.
 
...die sich als Opfer für das Signalrauschen hingeben um das Rauschen von den 12 Bit weiter zu entfernen, dadurch werden 12 Bit sauberer und deswegen erscheinen die Farben weniger verrauscht als bloße 12Bit

Bitte entschuldige, aber das stimmt so nicht. Keine Ahnung wo Du das her hast, aber wieso eine tiefere Digitalisierung den Signal-Rauschabstand vergrößern sollte, das verstehe ich nicht.
Kannst Du mir bitte folgende Frage beantworten?

Würde ein 24 bit Modus Sinn machen?
 
...und anscheinend sind diese "Übergänge" nicht mal "gleichermassen" in den einzelnen Blendenstufen vertretten...

das stimmt, ein gutes Beispiel ist dafür die Fuji S5pro, wo die 8Bit JPEG’s mehr Graustufen dazwischen haben als die der Nikon D300 (z.B.), deswegen sind JPEG’s der S5 viel ”weicher” und größer bei der Bea als herkömmliche JPEG’s...

...Würde ein 24 bit Modus Sinn machen?

nicht wirklich!, warum?

24 Bit pro Farbe würde eine Dateigröße ins unermessliche hochschiessen, wobei mit höherer Bitzahl eine sichtbare Effektivität zum Quadrat (drastisch) abnehmen würde... ich meine 16Bit können - wie sie heute in MF als Standard vorkommen - als vollkommen ausreichend eingestuft werden... mehr würde nur den Bearbeitungsaufwand per kleineren Fortschritt erhöhen... ähnlich ist es mit Computerprozessoren: es gibt Leute die das letzte Quentchen aus den Prozis rauskitzeln wollen, dabei drehen sie die Taktrate des Prozessors in die höhe um das Maximum zu erreichen, nun die ”Overclocker” wissen das je höher sie die TR schrauben multipliziert sich der Aufwand um die höhere TR zu betreiben, dabei müssen sie auf eine besondere Kühlung achten, die Spannung manchmal verdreifachen um die 10% mehr an Leistung zu bekommen... je höher desto mehr erhöht sich der Aufwand zum Quadrat... d.h. die letzten 3% mehr Leistung fressen an Unmengen von Leistungs-Effektivität, das da nur ein hochgezüchteter Stromfresser dasteht den kein gesund-denkender Mensch gebrauchen kann...

noch besser lässt es sich mit Brennweiten der Objektive erklären: kann man Unterschiede zwischen 10mm und 15mm feststellen? das ist extrem viel!; nicht? die 5mm machen da satte 50% des Bildausschnitts aus!
nun welche Unterschiede gibt es den zwischen 100mm und 105mm? ich denke dieselbe 5mm werden sich da kaum bemerkbar machen und je größer die Brennweite desto weniger sieht man den Unterschied...

so ähnlich ist es mit den Bits in der Kamera, ich denke wir Menschen haben irgendwo Grenzen für uns die brauchbare Effektivität zu finden/haben, man sieht dies auch deutlich an den Megapixelwahn, früher war es so: mehr, mehr, mehr... heute sagen sie: die 12MP reichen vollkommen für den Konsumer aus! obwohl sie es locker noch 50 und 60MP auf ein cm² hineinpressen können, aber diese bringen keine sichtbare/effektive Verbesserung mehr, sondern nur unnötige Dateigröße!

deswegen würde ich die 16Bit - die heutzutage als maximales Standard in der Fotografiebranche existiert - als vollkommen ausreichend bezeichnen, was drüber ist, verliert drastisch an Leistungseffektivität zum²

...aber wieso eine tiefere Digitalisierung den Signal-Rauschabstand vergrößern sollte...

hier hat mal jemand ein ganz gutes und praktisches Beispiel gezeigt, man sieht deutlich die Farbübergänge der 14Bit sind feiner und haben deutlich weniger Kontrastrauschen... und nochmals: höhere Bitzahl bewahrt nicht vor Tonwertabrissen, sondern zeigt die Farben effektiver dar in dem der Rauschabstand von den brauchbaren Farbinformationen vergrößert/weiter nach hinten verschoben wird, anders gesagt: an den Grenzen werden noch brauchbare Farbwerte ”herausgekitzelt”.... Mathematisch gesagt: mehr Bit baut ein genaueres Signalhaus, ähnlich als wenn zwei Leute ihre Häuser bauen, der einer benützt eine cm Messlatte und der andere dm Messlatte, dadurch wird das geplante Haus nicht größer oder kleiner, sondern genauer/schiefer oder weniger genau/schief.
 
Zuletzt bearbeitet:
Da waren bei Nikon mal wieder die Marketing-Strategen (=Lügner) am Werk, nicht die Ingenieure. "Verlustfreies NEF" ist nicht verlustfrei.
http://www.fotocommunity.de/info/NEF

Bei dem Artikel handelt es sich NICHT um das verlustfreie Komprimieren. Es gibt verlustfreie Algorithmen speziell für Bilder (zum Beispiel der Lagarith). Warum sollte Nikon nicht einen davon verwenden? Und statt dessen einen verlustbehafteten nehmen behaupten, der Algorithmus sei verlustfrei? Das macht doch keinen Sinn.

Grüße
Mirko
 
Allerdings: Wenn sie linear gespeichert werden, kann man mit n Bits etwas weniger als als n Blendenstufen plus einen "Nullwert", also reines schwarz darstellen.

2 Bit: 00, 01, 10, 11 ---> 0, 1, 2, 3 ---> log2(3/1) = 1.58 Blendenstufen

Wie man an dem Artikel unter

http://www.earthboundlight.com/phototips/nikon-d300-d3-14-bit-versus-12-bit.html

sehen kann, beschränkt sich der Zusammenhang zwischen Bittiefe und Dynamik der Kamera darauf, dass es nichts bringt, die Anzahl der Bits maßlos zu erhöhen, weil sonst die untersten Bits einfach nur Rauschen aufnehmen. Die Dynamik entsteht auf der Analog-Seite und hat mit Bits erstmal nichts zu tun. Aber der Versuch zeigt ganz gut, dass man die 14 Bit wohl genau dann gut verwenden kann, wenn man leicht unterbelichtet, um die Dynamik des Sensors optimal auszureizen. Da scheint bei den Nikons noch gut Reserve in den Schatten zu sein.

Meine D700 soll ja nächste Woche kommen und mich interessiert es sehr stark, inwieweit sie gegen meine S5 in Sachen Dynamik mithalten kann. Ich denke, ich werde mal ein paar Bilder von kontrastreichen Motiven machen und dabei versuchen, wie weit ich mit negativer Belichtungskorrektur komme. Und dabei wird dann interessant sein, ob die 14 Bit in den dunkleren Bildteilen einen Vorteil bringen.

Grüße
Mirko
 
Es gibt verlustfreie Algorithmen speziell für Bilder (zum Beispiel der Lagarith). Warum sollte Nikon nicht einen davon verwenden? Und statt dessen einen verlustbehafteten nehmen behaupten, der Algorithmus sei verlustfrei? Das macht doch keinen Sinn.
Ja, wobei RAW keine Bilder sind und deshalb vermutlich nicht diese Algorithmen verwendet werden...
Ich vermute mal, dass ein LZW-ähnlicher Algo benutzt wird, da die NEF Datenstruktur auf TIFF aufbaut bzw. diese als Container nutzt. Im SDK wird immer nur vom "Nikon-original compression algorithm" gesprochen, z.B. "For the “RAW data file (compressed format)” based on TIFF, 8799h (the whole Nikon-original compression algorithm) is recorded for the main image...."
 
Wie man an dem Artikel unter

http://www.earthboundlight.com/phototips/nikon-d300-d3-14-bit-versus-12-bit.html

sehen kann, beschränkt sich der Zusammenhang zwischen Bittiefe und Dynamik der Kamera darauf, dass es nichts bringt, die Anzahl der Bits maßlos zu erhöhen, weil sonst die untersten Bits einfach nur Rauschen aufnehmen. Die Dynamik entsteht auf der Analog-Seite und hat mit Bits erstmal nichts zu tun. Aber der Versuch zeigt ganz gut, dass man die 14 Bit wohl genau dann gut verwenden kann, wenn man leicht unterbelichtet, um die Dynamik des Sensors optimal auszureizen. Da scheint bei den Nikons noch gut Reserve in den Schatten zu sein...

wenn man diesen Vergleich sieht, kann man feststellen, dass die Fuji auf dem Niveau zwischen D300 und D700 rauscht, hätte Fuji ebenfalls gute 14Bit Signalvearbeitung, würde sie die D700 in Längen und Breiten schlagen, man sieht schon das sie mit 12Bit Interface bei ISO 95 gemessene 8,49Bit erreicht, wohingegen die D700 mit 14Bit Interface bei ISO 165 lediglich 8,65Bit’s aufweist, das geht nur bis ISO 1000 ganz gut und zeigt die Vorteile der R-Sensoren die mit 12Bit Interface der Fuji locker ähnlich saubere (rauschfreie) Farbinformartionen darstellen können wie das 14Bit Interface von D700.
 
Ja, wobei RAW keine Bilder sind und deshalb vermutlich nicht diese Algorithmen verwendet werden...

Die Werteverteilung in Raws ist so ähnlich zu der in Bildern, dass die gleichen Konzepte angewandt werden können. Aus Sicht der Datenstruktur ist Raw quasi ein Schwarz-Weiß-Bild.

Aber ob ein Datenstrom ein Bild ist oder nicht, interessiert ja viel mehr im Bereich der verlustbehafteten Algorithmen, als im Bereich der verlustfreien. Denn bei den ersteren geht es darum, welche Veränderungen der Daten tatsächlich wahrgenommen werden können.

Ich denke auch, dass sowas ähnliches wie LZW verwendet wird. Es geht irgendwie in diese Richtung. Einfach, billig, frei, relativ schnell.

Grüße
Mirko
 
hätte Fuji ebenfalls gute 14Bit Signalvearbeitung, würde sie die D700 in Längen und Breiten schlagen

Das bezweifle ich. Im Bereich des analogen Rauschens ist der Fuji-Sensor sicher nicht besser als jeder andere Sensor. Man hat halt mit der Kombination aus den beiden Sensorgrößen praktisch 2 Blenden oben "drangeklebt". Lässt man das beiseite (DR 100%), ist die Fuji eine ganz normale 12-Bit-Kamera.

Grüße
Mirko
 
Das bezweifle ich. Im Bereich des analogen Rauschens ist der Fuji-Sensor sicher nicht besser als jeder andere Sensor. Man hat halt mit der Kombination aus den beiden Sensorgrößen praktisch 2 Blenden oben "drangeklebt". Lässt man das beiseite (DR 100%), ist die Fuji eine ganz normale 12-Bit-Kamera.

Grüße
Mirko

deswegen auch meine Aussage: hätte Fuji 14Bit Interface, würde die Sache nochmals anders aussehen, das braucht man nicht zu bezweifeln, schliesslich haben wir anhand von Laborwerten gesehen was Fuji schon mit 12Bit anrichtet... nun 14Bit wird sie nie sein, sie ist eine gewöhnliche 12Bit Kamera nicht mehr und nicht weniger.
 
WERBUNG
Zurück
Oben Unten