• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

36 bit und 42bit Farbtiefe

gabbibo

Themenersteller
Ich habe bisher nix Aufschlussreiches über den Unterschied zwischen 36 und 42bit Farbtiefe gefunden. Kann mir da jemand helfen wo die Unterschiede in der Realität liegen.

Ich bin am herausfiltern ob die d7000 oder d600 außer Sensor (Bildrauschen) auch tatsächlich grosse Unterschiede in der Bildbearbeitung haben.

Komme da aber nicht vorwärts und wo sieht man dann im Threadtitel genannte Unterschiede
 
Die Helligkeit eines Pixels wird im Raw mit einer ganzen Zahl beschrieben. Zwischen schwarz (=0) und weiß (=2^Farbtiefe - 1) liegt der Zahlenbereich. Für Nikon kenne ich 12Bit und 14Bit. Es scheint rätselhaft, woher Deine 36bit oder mehr herkommen.???

Den Unterschied zwischen 12bit und 14bit sieht man nur beim 'rauskitzeln letzter Bildinfo in den dunkelsten Ecken.

Gruß, Wolfgang
 
Die Helligkeit eines Pixels wird im Raw mit einer ganzen Zahl beschrieben. Zwischen schwarz (=0) und weiß (=2^Farbtiefe - 1) liegt der Zahlenbereich. Für Nikon kenne ich 12Bit und 14Bit. Es scheint rätselhaft, woher Deine 36bit oder mehr herkommen.???

Den Unterschied zwischen 12bit und 14bit sieht man nur beim 'rauskitzeln letzter Bildinfo in den dunkelsten Ecken.

Gruß, Wolfgang

http://www.digitalkamera.de/Kamera/Nikon/D7000/Nikon/D600.aspx

5. Zeile unter Farbtiefe........

deswegen meine ungewöhnliche Frage wo sich dieser Unterschied in der Realität auswirkt. Bisher hab ich RAW Landschaften immer mit 14 bit fotografiert. Das mit 12 und 14 wusste ich, dass andere war mir bisher nicht aufgefallen.
 
Du hast 3 Farben mit 12 oder 14Bit pro Pixel.

Falsch - Du hast für einen Pixel 12 oder 14 Bit Helligkeitsinformation.
Farben werden daraus erst nach dem Demosaicing, wobei die Informationen von 4 benachbarten Pixeln anhand der davorliegenden Farbfilter verrechnet werden.

Und diese Farbwerte schließlich werden in einem der bekannten Bildformate gespeichert - mit 8 oder 16 Bit (mal 3).
 
Also halte ich fest:

Wenn ich eine D7000 habe kann diese RAWs in 12bit Speichern

D300(s), D700,600,800 und die 3er Serie in 14bit

Die 3 Farben zusammengezählt ergibt 36bzw.42bit

richtig erkannt (Licht ging mir nach den vorigen Beitrag auf).

????:)
 
Ein einfaches Beispiel.
Eine ganz einfache Kamera mit 4 Pixel (2 in der Höhe, 2 in der Breite)
  1. Das erste Pixel links oben hat ein rotes Filter und kann das rote Licht mit 14bit Genauigkeit aufnehmen.
  2. Das zweite Pixel, rechts oben, hat ein grünes Filter und ebenfalls 14bit
  3. Das dritte Pixel, links unten ist ebenfalls mit einem grünen Filter versehen und auch 14bit
  4. Das vierte und letzte Pixel rechts unten hat ein blaues Filter mit 14bit.
Egal was nach der Erzeugung des JPEG's oder eines TIFF für ein Datenformat zum abspeichern verwendet wird (3x8bit, 3x16bit oder gar 3x256bit), die in den 4 Pixeln jeweils abgelegte tatsächliche Farbinformation ist in keinem Fall 3x14bit (oder 3x12bit).

LG,
Andy
 
Ein einfaches Beispiel.
Eine ganz einfache Kamera mit 4 Pixel (2 in der Höhe, 2 in der Breite)
  1. Das erste Pixel links oben hat ein rotes Filter und kann das rote Licht mit 14bit Genauigkeit aufnehmen.
  2. Das zweite Pixel, rechts oben, hat ein grünes Filter und ebenfalls 14bit
  3. Das dritte Pixel, links unten ist ebenfalls mit einem grünen Filter versehen und auch 14bit
  4. Das vierte und letzte Pixel rechts unten hat ein blaues Filter mit 14bit.
Egal was nach der Erzeugung des JPEG's oder eines TIFF für ein Datenformat zum abspeichern verwendet wird (3x8bit, 3x16bit oder gar 3x256bit), die in den 4 Pixeln jeweils abgelegte tatsächliche Farbinformation ist in keinem Fall 3x14bit (oder 3x12bit).

LG,
Andy

Hallo,

ist das wirklich so ? Dann könnte ja jedes Pixel nur eine Farbinformation aufnehmen (also nur einen Helligkeitswert von Rot, Grün oder Blau) ?

Ich bin bisher davon ausgegangen, dass jedes einzelne Pixel auf dem Sensor so aufgebaut ist, dass die Helligkeitswerte von Rot, Grün und Blau (also das Lichtwellenspektrum, das für uns Rot, Grün und Blau darstellt) aufnimmt. Bei 8 Bit wären das 256 verschiedene Helligkeitsstufen (bzw. 0 für kein Anteil im entsprechenden Spektrum, 255 für die max. durch den Sensor messbare Intensität) und bei 14 Bit 16384. Damit kann dann im Foto jedes Pixel in der entsprechenden Mischfarbe aus den Anteilen R, G und B dargestellt werden.

Die Auflösung kann nun als Wert für die Anzahl der Pixel eines Fotos (z.B 4000x3000 = 12MPixel) angegeben werden und mit der Info der Farbtiefe pro Pixel (also zB 8 Bit, 12Bit oder 14 Bit).

Oder man könnte jede Farbe eines Pixels mitzählen (also R, G und B), damit verdreifacht man zwar den Wert, aber ich wüsste nicht wofür, das sinnvoll wäre (ausser bei Kameras, die zusätzlich Bildinfos in den Subpixeln liefern -echte Monochromkameras ?)

So hab ich jedenfalls bisher verstanden ;)

Edit: stimmt aber nicht - hab mir gerade den Aufbau des Bayer-Sensors angeschaut, das ist es ja ausführlich beschrieben (es gibt allerdings auch noch Direktbild- oder Three-Shot-Sensoren, die für jedes Pixel wie oben beschrieben die Helligkeitswerte der einzelnen Grundfarben aufnehmen, da ist dann kein Demosaicing notwendig)

Viele Grüsse
 
Zuletzt bearbeitet:
Wollte eigentlich eh nur wissen warum bei den Datenblättern 36bzw.42bit Farbtiefe steht und wo der Unterschied in der Praxis festzustellen ist.
 
Viel interessanter als die unsinnige Diskussion über die Zählweise wäre es zu erfahren, ob der Unterscheid zw. 12 und 14 Bit lediglich eine feinere Abstufung (das wäre hier der Faktor 4) desselben Dynamikereiches ist - wie z.B. Ken Rockwell behauptet - oder ob mit 14 Bit auch ein erweiterter Dynamikbereich erfasst wird.

Falls ersteres gilt, sind 14 Bit völlig nutzlos, da schon die 12 Bit RAW sechzehn mal feiner abstufen als auf den Ausgabebildern dargestellt werden kann.
 
Falls ersteres gilt, sind 14 Bit völlig nutzlos, da schon die 12 Bit RAW sechzehn mal feiner abstufen als auf den Ausgabebildern dargestellt werden kann.
Das stimmt nicht ganz. Die Tonwerte werden ja nicht 1:1 in den Ausgabefarbraum übernommen, sondern einer Tonwertkorrektur unterzogen. Je nach Motiv kann es zudem sinnvoll sein, die Dynamik der Kamera einzuschränken (also die Tonwerte zu spreizen) und/oder ein spezielle Tonwertkurve anzuwenden (z. B. die klassische S-Kurve, die das Verhalten von Diafilmen nachahmt). In solchen Fällen profitiert man, zumindest theoretisch, von feineren Abstufungen.

Ganz trennen kann man die Phänomene sowieso nicht. Denn eine feinere Abstufung in den dunklen Tonwerten kann auch (sofern der Sensor rauscharm genug ist) mehr Details bewahren und somit die nutzbare Eingangsdynamik erhöhen.
 
Zuletzt bearbeitet:
Wollte eigentlich eh nur wissen warum bei den Datenblättern 36bzw.42bit Farbtiefe steht und wo der Unterschied in der Praxis festzustellen ist.
Weil die Marketingleute diese Zahlen als cool empfinden.

Viel interessanter als die unsinnige Diskussion über die Zählweise wäre es zu erfahren, ob der Unterscheid zw. 12 und 14 Bit lediglich eine feinere Abstufung (das wäre hier der Faktor 4) desselben Dynamikereiches ist - wie z.B. Ken Rockwell behauptet - oder ob mit 14 Bit auch ein erweiterter Dynamikbereich erfasst wird.
Die Umstellung von 12 auf 14bit im Dateiformat verbessert die Durchzeichnungsmöglichkeit im Schatten, bzw. verbessert die Qualität wenn die dunklen Bereiche aufgehellt werden müssen.

Falls ersteres gilt, sind 14 Bit völlig nutzlos, da schon die 12 Bit RAW sechzehn mal feiner abstufen als auf den Ausgabebildern dargestellt werden kann.
Ob sie nutzlos sind oder nicht hängt von vielen Faktoren ab. Für mich sind sie es nicht. Ein Beispiel


Hallo,

ist das wirklich so ? Dann könnte ja jedes Pixel nur eine Farbinformation aufnehmen (also nur einen Helligkeitswert von Rot, Grün oder Blau) ?
Ja, dem ist so

Ich bin bisher davon ausgegangen, dass jedes einzelne Pixel auf dem Sensor so aufgebaut ist, dass die Helligkeitswerte von Rot, Grün und Blau (also das Lichtwellenspektrum, das für uns Rot, Grün und Blau darstellt) aufnimmt.
Das ist beim Foveon Sensor der Fall. Das hat aber eine ganze Reihe von Nachteilen.

Bei 8 Bit wären das 256 verschiedene Helligkeitsstufen (bzw. 0 für kein Anteil im entsprechenden Spektrum, 255 für die max. durch den Sensor messbare Intensität) und bei 14 Bit 16384. Damit kann dann im Foto jedes Pixel in der entsprechenden Mischfarbe aus den Anteilen R, G und B dargestellt werden.
Dein Ansatz ist in seinen Grundzügen falsch. Du vermischt die Aufnahme des Lichts durch den Pixel am Sensor mit dem Konzept "Pixel" das nach dem Demosaic Prozess im JPEG oder TIFF abgespeichert wird.

Die Auflösung kann nun als Wert für die Anzahl der Pixel eines Fotos (z.B 4000x3000 = 12MPixel) angegeben werden und mit der Info der Farbtiefe pro Pixel (also zB 8 Bit, 12Bit oder 14 Bit).
Ja.
Wichtig: Die 12 oder 14 bit gelten nur für eine Farbe

Edit: stimmt aber nicht - hab mir gerade den Aufbau des Bayer-Sensors angeschaut, das ist es ja ausführlich beschrieben (es gibt allerdings auch noch Direktbild- oder Three-Shot-Sensoren, die für jedes Pixel wie oben beschrieben die Helligkeitswerte der einzelnen Grundfarben aufnehmen, da ist dann kein Demosaicing notwendig)
3-shoot Kameras sind eingeschränkt sinnvoll, wenn Bewegung aufgenommen werden muß

Das stimmt nicht ganz. Die Tonwerte werden ja nicht 1:1 in den Ausgabefarbraum übernommen, sondern einer Tonwertkorrektur unterzogen. Je nach Motiv kann es zudem sinnvoll sein, die Dynamik der Kamera einzuschränken (also die Tonwerte zu spreizen) und/oder ein spezielle Tonwertkurve anzuwenden (z. B. die klassische S-Kurve, die das Verhalten von Diafilmen nachahmt). In solchen Fällen profitiert man, zumindest theoretisch, von feineren Abstufungen.

Ganz trennen kann man die Phänomene sowieso nicht. Denn eine feinere Abstufung in den dunklen Tonwerten kann auch (sofern der Sensor rauscharm genug ist) mehr Details bewahren und somit die nutzbare Eingangsdynamik erhöhen.
Korrekt.

Liebe Grüße,
Andy
 
Viel interessanter als die unsinnige Diskussion über die Zählweise wäre es zu erfahren, ob der Unterscheid zw. 12 und 14 Bit lediglich eine feinere Abstufung (das wäre hier der Faktor 4) desselben Dynamikereiches ist - wie z.B. Ken Rockwell behauptet - oder ob mit 14 Bit auch ein erweiterter Dynamikbereich erfasst wird.

Falls ersteres gilt, sind 14 Bit völlig nutzlos, da schon die 12 Bit RAW sechzehn mal feiner abstufen als auf den Ausgabebildern dargestellt werden kann.
  1. Die Bitanzahl hat nichts mit dem abbildbaren Dynamikbereich in Form der maximal aufnehmbaren Lichtmenge zu tun.
  2. Die Bitanzahl hat nichts mit dem abbildbaren Dynamikbereich in Form des minimal aufnehmbaren Lichts zu tun.
  3. Die Bitanzahl hat Auswirkungen auf den Dynamikbereich im Umwandlungsprozess, der nach der Aufnahme stattfindet, da einige (nicht alle) Rauschursachen aus diesem Prozess stammen.
Liebe Grüße,
Andy
 
WERBUNG
Zurück
Oben Unten