WERBUNG

DSLR mit 16 Bit RAW?

@OP: warum willst Du überhaupt 14 oder gar 16 Bit Farbtiefe in den Files haben? Bei einem idealen Signal-zu-Rausch-Verhältnis (niedrige ISO-Werte) heutiger Spitzenkameras von ca. 40.000-zu-30 (Elektronen) ergibt sich eine sinnvolle Feinheit der Abstufung von etwas mehr als 1.000 Stufen, also kodierbar in 10 Bit pro Farbkanal. Mit 12 Bits/Farbkanal stuft man also schon so fein ab, dass in den untersten zwei Bytes fast nur noch Zufallszahlen stehen. Mit 14 oder gar 16 Bits/Farbkanal leistet man sich einfach noch mehr Bits im Speicherplatz, die ebenfalls keine Nutzinformation mehr tragen. Es bringt also nichts. Erst wenn Kameras Einzelpixel-Kapazitäten von z.B. 60.000 Elektronen bei einem Ausleserauschen von unter 15 Elektronen hätten, würde sich eine Farbtiefe von mehr als 12 Bit wirklich lohnen können. So weit sind wir derzeit ausserhalb wissenschaftlicher Kamerasysteme noch nicht.

Der Kodak Sensor in der E-1 war bei 40.000 e- Sättigung und 17 e- Rauschen, der 39MP Sensor in der Hasselblad mit selben 6,8µm pixel pitch liegt glaube ich sogar schon bei 60.000 e- Sättigung bei 16 e- Rauschen.

Also die 12bit machen schon mal einigermaßen Sinn.

PS: http://www.kodak.com/ezpres/busines.../FullFrame/KAF-39000ProductSummaryRev.2.0.pdf
 
Zuletzt bearbeitet:
Der Kodak Sensor in der E-1 war bei 40.000 e- Sättigung und 17 e- Rauschen, der 39MP Sensor in der Hasselblad mit selben 6,8µm pixel pitch liegt glaube ich sogar schon bei 60.000 e- Sättigung.
Also die 12bit machen schon mal einigermaßen Sinn.
Klar, 12 Bit A/D-Wandlung machen hier Sinn. 22 Bit A/D-Wandlung (sollte Pentax dies wirklich so gemeint haben??) hingegen nicht. Die 16-Bit-Farbtiefe, die bei MF-Rückteilen fast immer im Speicherformat zu finden sind, sind sicherlich etwas überschiessend, aber man geht halt einfach davon aus, dass man damit nicht gerade "Filme dreht". Auch ist es im Studio-Sektor eine Art "antiquiertes Qualitätsmass", dass das Rückteil umso besser sei, je grössere Dateien es zu produzieren in der Lage sei.
 
Der Kodak Sensor in der E-1 war bei 40.000 e- Sättigung und 17 e- Rauschen, der 39MP Sensor in der Hasselblad mit selben 6,8µm pixel pitch liegt glaube ich sogar schon bei 60.000 e- Sättigung bei 16 e- Rauschen.

Also die 12bit machen schon mal einigermaßen Sinn.
60 Ke- auf 6,8 µm x 6,8 µm sind immer Full Frame CCDs.
Prinzipiell kann man damit Kameras (mit klassischen Schlitzverschluß und verschlußlimitierter Blitzbelichtungszeit) bauen, aber üblich sind derzeit Interline-CCDs, die etwa die Hälfe Full Well Capacity haben.

Diese Kapazität (bei CCDs) zu erhöhen, ist aber leider kaum möglich.
 
Sorry, wenn ich so ruppig auf Deinen Vorschlag reagiere.
Allerdings sind zwischen
* einem konzeptionellen Entwurf
* dem Entwurf eines Prototypen im CAD-Programm
* dem Bau eines ersten Prototypen
* dem Bau einer Serie
* dem Bau einer Serie inklusive weltweitem Support
* dem Bau einer Serie inklusive notwendigem Zubehör (Objektive, Blitz, Zwischenringe, Software), weltweitem Support und Werbung
jeweils ein riesiger Sprung in der Komplexität, im Geld- und Zeitbedarf.

Och ich wäre mit dem Bau des Prototypen und anschließender Kleinserie ohne weltweiten Support und Werbung und mit einem offenen Anschluß z.B. Nikon oder 4/3 oder irgendein MF/Großformatanschluß ja schon zufrieden.

Leider hab ich nicht die 37 Mio. gewonnen, sonst würd mich das ja wirklich reizen :D bis zu nem Prototypen und interessanten Kleinserien würde das sicher noch langen.

Als erstes stünden KB-Format Klassiker mit Chip für Nikon = Nikon F Digital und Pentax = Pentax LX Digital auf dem Programm :)
 
60 Ke- auf 6,8 µm x 6,8 µm sind immer Full Frame CCDs.
Prinzipiell kann man damit Kameras (mit klassischen Schlitzverschluß und verschlußlimitierter Blitzbelichtungszeit) bauen, aber üblich sind derzeit Interline-CCDs, die etwa die Hälfe Full Well Capacity haben.

Diese Kapazität (bei CCDs) zu erhöhen, ist aber leider kaum möglich.

Kodak hat z.Z. so einen (monochromen) FFT CCD im Programm (KAF-6303) mit 9µm pixel pitch, der hat bis zu 65% Quanteneffizienz, 100% Füllfaktor (wusste noch garnicht, dass das selbst mit Mikrolinsen geht), einem Ausleserauschen von 15 e- und einer fwc von 100.000 e-

Da wären wir dann schon bei 1: 6700, das entwickelt sich scheinbar alles weiter, wenn auch stückchenweise.
 
60 Ke- auf 6,8 µm x 6,8 µm sind immer Full Frame CCDs.
Prinzipiell kann man damit Kameras (mit klassischen Schlitzverschluß und verschlußlimitierter Blitzbelichtungszeit) bauen, aber üblich sind derzeit Interline-CCDs, die etwa die Hälfe Full Well Capacity haben.

Diese Kapazität (bei CCDs) zu erhöhen, ist aber leider kaum möglich.

Kannst Du auch in der Hinsicht was zum Foveon sagen? Die Einzelpixel dieses CMOS wären dort ja recht groß, allerdings weiß ich nicht, ob man das so einfach umrechnen kann, dass 3 Schichten = 3x fwc ?
 
Kodak hat z.Z. so einen (monochromen) FFT CCD im Programm (KAF-6303) mit 9 µm pixel pitch, der hat bis zu 65% Quanteneffizienz, 100% Füllfaktor (wusste noch garnicht, dass das selbst mit Mikrolinsen geht), einem Ausleserauschen von 15 e- und einer fwc von 100.000 e-

Da wären wir dann schon bei 1: 6700, das entwickelt sich scheinbar alles weiter, wenn auch stückchenweise.

Bei 9 µm Pixelpitch sind bei FFT-CCDs etwa 110.000 e- erreichbar.
100% Füllfaktor sind nicht erreichbar.
Außerdem muß man zwischen Basis-Füllfaktor (ohne Mikrolinsen) und optischem Füllfaktor (mit Mikrolinsen) unterscheiden.
Der Gewinn durch Mikrolinsen erhöht zwar die optische Empfindlichkeit, aber nicht den elektrischen Füllfaktor, der die FWC festlegt.

Vollständige Charakterierung von Empfindlichkeiten:
* Füllfaktor elektrisch: 40%
* Füllfaktor optisch <+-20°: 80%
* Füllfaktor optisch +-30°: 75%
* Füllfaktor optisch +-35°: 60%
* Quanteneffizient 400 µm: 42%
* Quanteneffizient 500 µm: 63%
* Quanteneffizient 600 µm: 80%
* Quanteneffizient 700 µm: 88%
* Quanteneffizient 800 µm: 78%
* Quanteneffizient 900 µm: 48%
* Quanteneffizient 1000 µm: 16%
* Quanteneffizient 1100 µm: 1%
 
Kodak hat z.Z. so einen (monochromen) FFT CCD im Programm (KAF-6303) mit 9µm pixel pitch, der hat bis zu 65% Quanteneffizienz, 100% Füllfaktor (wusste noch garnicht, dass das selbst mit Mikrolinsen geht), einem Ausleserauschen von 15 e- und einer fwc von 100.000 e-

Da wären wir dann schon bei 1: 6700, das entwickelt sich scheinbar alles weiter, wenn auch stückchenweise.
Freilich gibt es solche Sensoren - und dies ist noch nicht einmal die Spitze. Unsere "einfacheren" Kameras liegen bei 40.000 e- FWC und ca. 5 e- Ausleserauschen. Die Digitalisierung erfolgt dann immer noch mit 12 Bit, allerdings mit allerfeinsten Bauteilen. Die besseren Kameras können z.B. 200.000 e- FWC auf 16 µm Pixeln haben oder ausgefuchste Gain-Register, die das Ausleserauschen unter 1 e- drücken können, und das noch bei bis zu 95% Quanteneffizienz der Photonenwandlung. Eine solche Kamera wollte aber hier sicherlich niemand haben! Sie brächte an Vollformat 3,3 MP, an APS-C noch 1,3 Megapixel. Dabei läge der niedrigste ISO so um die ISO-400, der höchste dann um ISO-400.000. Wofür sollte das noch in der normalen bildgebenden Fotografie gut sein?

Die Quanteneffizienz in Deinem Beispiel spricht ausserdem für eine sog. back-illuminated-Konfiguration, die exorbitant teuer ist. Sie hat mit FWC und readout noise nichts zu tun - damit auch nichts mit der förderlichen Bittiefe des Auslesevorganges.

Zum Schluss: warum uns solche höheren Bittiefen ohnehin nie erreichen werden: ganz einfach: ist die Dynamik groß, so wird lieber das Pixel verkleinert, um bei gleichem Rauschen eine höhere Megapixel-Auflösung der Kamera zu erzielen. Wir werden also noch lange beei den 12 Bit bleiben - oder paradoxerweise vielleicht sogar auf geringere Bittiefen zurückfallen können. Und dabei kann ich noch nicht einmal etwas allzu Schlimmes finden, da dann die Feinabstufung mehr über die Mittelwertbildung von mehr Pixeln in gleicher Fläche geschehen kann.
 
100% Füllfaktor sind nicht erreichbar.
In der klassischen Definition des fill factor (Wahrscheinlichkeit, dass ein Photon in die "active photosite" geleitet wird) aber nahezu.

Außerdem muß man zwischen Basis-Füllfaktor (ohne Mikrolinsen) und optischem Füllfaktor (mit Mikrolinsen) unterscheiden.
Um Verwirrungen zu vermeiden, wird der Anteil der Lichtempfindlichen Fläche *eines* Pixels häufiger als "active site area" bezeichnet.

Der Gewinn durch Mikrolinsen erhöht zwar die optische Empfindlichkeit, aber nicht den elektrischen Füllfaktor, der die FWC festlegt.
Jepp!

* Quanteneffizient 400 µm: 42%
* Quanteneffizient 500 µm: 63%
* Quanteneffizient 600 µm: 80%
* Quanteneffizient 700 µm: 88%
* Quanteneffizient 800 µm: 78%
* Quanteneffizient 900 µm: 48%
* Quanteneffizient 1000 µm: 16%
* Quanteneffizient 1100 µm: 1%
Das ist aber kein typisches Profil eines für fotografische Zwecke eingesetzten "front-illuminated" CCD-Sensors. Normalerweise werden höchste Empfindlichkeiten um ca. 40-60% Quanteneffizienz zwischen 450 und 550 nm (nicht µm!) erreicht, die dann gen Gelb und Rot in Richtung 10-20% abfallen.
 
Kannst Du auch in der Hinsicht was zum Foveon sagen? Die Einzelpixel dieses CMOS wären dort ja recht groß, allerdings weiß ich nicht, ob man das so einfach umrechnen kann, dass 3 Schichten = 3x fwc ?
Ich habe nie echte Datenblätter zu Foveon sehen können. Die Farbkapriolen, die bei Saturation eines Farbkanals einsetzen, lassen vermuten, dass die FWC (noch) nicht in dem erhofften Mass von dem Flächenzuwachs prifitierten.
 
Kannst Du auch in der Hinsicht was zum Foveon sagen? Die Einzelpixel dieses CMOS wären dort ja recht groß, allerdings weiß ich nicht, ob man das so einfach umrechnen kann, dass 3 Schichten = 3x fwc ?

Keine Ahnung. Sigma gibt keinerlei verwertbare Informationen nach außen außer dem Angebot eines Demonstrator-Kits.

Das einzige, was ich herausgefunden habe, ist, daß die X3 sehr sehr große Probleme mit dem Dunkelstrom haben.

Derzeitig interpretiere ich das so, daß das Dotieren der 3 Schichten starke Störungen im Kristallbau verursacht.
Vielelicht werden die 3 Schichten auch durch Aufdampfen von weiterem Silicium auf vorhandene, schon dotierte Substarte erzeugt und diese haben eine sehr hohe Fehlstellendichte.
 
Zum Schluss: warum uns solche höheren Bittiefen ohnehin nie erreichen werden: ganz einfach: ist die Dynamik groß, so wird lieber das Pixel verkleinert, um bei gleichem Rauschen eine höhere Megapixel-Auflösung der Kamera zu erzielen. Wir werden also noch lange beei den 12 Bit bleiben - oder paradoxerweise vielleicht sogar auf geringere Bittiefen zurückfallen können. Und dabei kann ich noch nicht einmal etwas allzu Schlimmes finden, da dann die Feinabstufung mehr über die Mittelwertbildung von mehr Pixeln in gleicher Fläche geschehen kann.

Die Verkleinerung der Photo Sites macht genau dann Probleme, wenn es Ausleserauschen gibt.
Einem Zero ReadOut Noise-Sensor wäre es egal, wie klein die Photo Sites sind.

Denkbar wären auch Sensoren, die melden, wann das erste Photon eingeschlagen ist.

Klassisch:
array [0..4095] [0..6143] of integer12
Anzahl der Photonen pro Site

Sensor mit extrem niedrigen ReadOut-Noise:
array [0..16383] [0..24575] of integer8
Anzahl der Photonen pro Site

Zeitbasierter Sensor:
array [0..16383] [0..24575] of integer16
Zeitdauer bis zum Eintreffen einer bestimmten Anzahl (1, 2, 4, 8, 16, 32, 64, 128, 256) Photonen.

Gemischter Sensor: Dunkle Stellen intensitätsbasiert, helle zeitbasiert
array [0..16383] [0..24575] of struct
intensity: integer12
time: integer16
end struct
 
Zuletzt bearbeitet:
Eine solche Kamera wollte aber hier sicherlich niemand haben! Sie brächte an Vollformat 3,3 MP, an APS-C noch 1,3 Megapixel.
3,3 MP sind ausreichend, wenn man damit AL ordentlich ausloten kann (mein Monitor zu Hause hat 2,33 MP).
Zur Not geht man auf Mittelformat Crops (50 mm x 33 mm) und hat dort wieder 6 MP oder auf Mittelformat 56 mm x 42 mm und hat 9,2 MP.

Dabei läge der niedrigste ISO so um die ISO-400, der höchste dann um ISO-400.000. Wofür sollte das noch in der normalen bildgebenden Fotografie gut sein?
Ich bin mir absolut sicher: Würde eine Kamera mit ISO 400.000 rauskommen, einen Monat später (spätestens 3 Monate später!) würde man jammern,
* daß diese Kamera erst bei ISO 50.000 wirklich rauschfrei ist und
* daß es kein ISO 800.000 gibt.
Es verschieben sich einfach die Nutzungsgrenzen. Am Schluß sind es Freihandschnappschüsse ohne Blitz mit 500 mm Brennweite im Innern einer unbeleuchteten Höhle, weil man die Taschenlampe vergessen hat!
Wenn das klappen sollte, dann kommt als nächste Forderung, daß das auch nach 10 Tassen Mokka noch gehen sollte ...
 
Ich bin mir absolut sicher: Würde eine Kamera mit ISO 400.000 rauskommen, einen Monat später (spätestens 3 Monate später!) würde man jammern,
* daß diese Kamera erst bei ISO 50.000 wirklich rauschfrei ist und
* daß es kein ISO 800.000 gibt.
Es verschieben sich einfach die Nutzungsgrenzen. Am Schluß sind es Freihandschnappschüsse ohne Blitz mit 500 mm Brennweite im Innern einer unbeleuchteten Höhle, weil man die Taschenlampe vergessen hat!
Wenn das klappen sollte, dann kommt als nächste Forderung, daß das auch nach 10 Tassen Mokka noch gehen sollte ...
:D :D :D


Ich hatte mal spasseshalber mit der 5D und dem stabilisierten 24-105/4 bei Nacht aus der Hand Fotos mit Blende f/16 gemacht und dann gefragt, wofür man diese Reserven denn noch benötige. Ausgekontert wurde ich dann (wohl zu recht) mit Hallensport. ;)
 
Die Verkleinerung der Photo Sites macht genau dann Probleme, wenn es Ausleserauschen gibt.
Einem Zero ReadOut Noise-Sensor wäre es egal, wie klein die Photo Sites sind.

Denkbar wären auch Sensoren, die melden, wann das erste Photon eingeschlagen ist.

Zeitbasierter Sensor:
array [0..16383] [0..24575] of integer16
Zeitdauer bis zum Eintreffen einer bestimmten Anzahl (1, 2, 4, 8, 16, 32, 64, 128, 256) Photonen.
Ein TCSPC ("time-correlated single photon counting") im Array-Format für die DSLR - ja, das wäre was für die Nacht-Aktiven ... ;)
 
:D :D :D
Ich hatte mal spasseshalber mit der 5D und dem stabilisierten 24-105/4 bei Nacht aus der Hand Fotos mit Blende f/16 gemacht und dann gefragt, wofür man diese Reserven denn noch benötige. Ausgekontert wurde ich dann (wohl zu recht) mit Hallensport. ;)

Etwas virtuelle Empfindlichkeit könnte man mit einer vollautomatischen Belichtungszeit+Blende+ISO-Einstellung aus einer Kamera herauskitzeln.

Die Kamera bestimmt selbstständig, was das aktuelle Foto gerade benötigt.
Manuell müßte man 1/500 s, Blende 8 und ISO 3200 einstellen, die Kamera merkt aber, daß in genau bei diesem Bild 1/250 s, Blende 6,3 und ISO 1000 ausreichen, weil gerade nicht der Worst Case betreffs notwendiger Belichtungszeit und Blende eingetreten sind. In Bildserien mit 5 fps haben trotz (nahezu) identischer Lichtverhältnisse alle Bilder unterschiedlich Belichtungswerte.

Beispiel:
1/200 s, Blende 6,3, ISO 800
1/500 s, Blende 5,6, ISO 1600
1/630 s, Blende 8, ISO 3200
1/400 s, Blende 7,2, ISO 1600
1/200 s, Blende 6,3, ISO 630
1/200 s, Blende 4, ISO 400
1/250 s, Blende 8, ISO 1000
1/200 s, Blende 11, ISO 1600
1/320 s, Blende 4, ISO 315

Manuell hätte man irgendwie
1/500 s, Blende 8, ISO 2500 einstellen müssen.
 
Ein TCSPC ("time-correlated single photon counting") im Array-Format für die DSLR - ja, das wäre was für die Nacht-Aktiven ... ;)

TCSPC wäre was anderes. Zum einen benötigt man Blitzlichtsalven, zum anderen geht es nicht darum, wieviel Licht zurückkommt (was hier für den Sensor interessant wäre), sondern wann es zurückkommt. Es geht um Lebensdauer metastabiler Zustände. Das wäre zwar vielleicht auch interessant, ergibt aber kein gewohntes Bild von Gegenständen.

Weiterhin gefällt mir zur Zeit die Hybridlösung am besten. CMOS-Sensor, jede Photo Site hat einen Zähler, der mitzählt, wann die Photo Site in die Sättigung gerät. Ausgelesen wird sowohl die Ladung wie die Zeit, die in diesem Zähler steht.
 
Etwas virtuelle Empfindlichkeit könnte man mit einer vollautomatischen Belichtungszeit+Blende+ISO-Einstellung aus einer Kamera herauskitzeln.

Die Kamera bestimmt selbstständig, was das aktuelle Foto gerade benötigt.
... weil gerade nicht der Worst Case betreffs notwendiger Belichtungszeit und Blende eingetreten sind.
Ja, ein flexibles "Herunterdriften" per intellenterem auto-ISO könnte das sonst ggf. notwendige sorgfältige manuelle Ausbalancieren übernehmen. Wie Du sagst: eine echte Empfindlichkeitssteigerung ist es freilich nicht.
 
TCSPC wäre was anderes. Zum einen benötigt man Blitzlichtsalven, zum anderen geht es nicht darum, wieviel Licht zurückkommt (was hier für den Sensor interessant wäre), sondern wann es zurückkommt. Es geht um Lebensdauer metastabiler Zustände. Das wäre zwar vielleicht auch interessant, ergibt aber kein gewohntes Bild von Gegenständen.

Weiterhin gefällt mir zur Zeit die Hybridlösung am besten. CMOS-Sensor, jede Photo Site hat einen Zähler, der mitzählt, wann die Photo Site in die Sättigung gerät. Ausgelesen wird sowohl die Ladung wie die Zeit, die in diesem Zähler steht.
Ich meinte so etwas wie einen Sensor mit 10^8 bis 10^9 Auslesekanälen, die nach Öffnen des Sensor-gates erkennen können, ob und wann die erste Ladungstrennung erfolgt. Dies wäre möglicherweise für Zustände gut, in denen nur alle Paar ms ein Photon auf einer Fläche von ca. 1 µm² einschlägt. Da man hierbei kein wirklich sauberes Photonenzählen betreiben muss, darf auch länger und intensiver belichtet werden, als beim klassischen TCSPC. Durch räumliche Überabtastung (z.B. 100-1.000 MP) kann dann per Statistik die Tatsache, dass man nur bis zum ersten Photon die Zeit kennt, dennoch in ein ordentliches Bild gewandelt werden. Eine solche Kamera müsste theoretisch bei schlechtem Licht "immer besser werden", da dann ein immer größerer Anteil der gesamten Photonenzahl in die Bildgebung einfliesst.

Wäre mal interessant zu berechnen, ob und unter welchen Bedingungen eine Zeitinformation des ersten Photons zu ungunsten der Messung der Photonensumme einen Vorteil erbringen könnte. ;)
 
Eine solche Kamera müsste theoretisch bei schlechtem Licht "immer besser werden", da dann ein immer größerer Anteil der gesamten Photonenzahl in die Bildgebung einfliesst.
Eine Kamera, die die Zeit zählt, bis n (mit n>=1) Photonen eingeschlagen sind,
hat einen durch n vorgegebenen "feinstrukturellen" SNR. Dieser ist konstant,
solange das Photon einschlägt. Bei n = 1 ist das ein "feinstruktureller" SNR
von 0 dB. Für tiefpaßgefilterte oder bewertete Bilder steigt der SNR.

Wäre mal interessant zu berechnen, ob und unter welchen Bedingungen eine Zeitinformation des ersten Photons zu ungunsten der Messung der Photonensumme einen Vorteil erbringen könnte. ;)

Wäre in der Tat interessant. Muß mal überlegen, wie man ohne zu viel Nachzudenken so was simulieren könnte. Was für Typen an Sensoren wären möglich?

* Photonsammler mit Ausleserauschen
* Photonsammler ohne Ausleserauschen
* Detektoren auf Einschlag eines Photons
* Detektoren auf Zeitmessung bis zum Einschlag eines Photons
* Hybridsensoren, die für kleine Intensitäten die Photonenanzahl und für große die Zeit bis zur Sättigung messen. Sättigung = 1 Photon wäre ein Spezialfall.
 
WERBUNG
Zurück
Oben Unten