• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Zeitbedarf für das Auslesen von CMOS Sensoren

Von Interesse wäre hier aber nur die Zeit, während der der Vorhang offen ist.
Das ist - bei 1/100s Belichtungszeit - exakt 1/100s.
Wenn der komplette Auslesevorgang des Sensors (6000x4000 Pixel) 1 ms dauert, dann dauert eine Zeile 0,00000025s.
Ah. So war das gemeint und gerechnet. Ok.
Mir kommt das etwas (sehr) kurz vor.
Ein Beispiel:

Man nimmt mit einer "normalen" Kamera ein Bild auf mit Blende 5.6, ISO 100 und 1/200tel. Um das gleiche Bild mit der "neuen" Kamera zu erhalten, kann man entweder mit Blende 4.0, ISO 100 und 1/200 aufnehmen, oder mit 5.6, ISO 100 und 1/100tel.
"Jein."
(Foto-)Theoretisch: ja/vielleicht
(Foto-)Realistisch: nein
In beiden Fällen fällt auf den Sensor, während der Verschluss offen ist, die doppelte Lichtmenge wie bei der herkömmlichen Kamera. Da nun zur Halbzeit der Sensor Zeile für Zeile ausgelesen wird...
Der Schlitzverschluss bewegt sich permanent und nur in eine Richtung.
Was immer man "zur Halbzeit" ausgelesen haben wird:
Im späteren Verlauf wird da ein Teil nicht mehr "neu belichtet"...dieser Teil bliebe "bei Auslesung 2" schwarz.
Schau Dir noch mal den ersten Link an.
...erhält man pro Sensel zwei Werte, die man dann addieren kann.
Ich wage zu bezweifeln, dass das in der Realität zu einem besseren Bildergebnis führen würde.

Nochmal:
Wenn ich 1/100s belichte, dann gilt das für jeden Teil des Sensors.
Das Glas wird einmalig binnen 1/100s mit Lichtmenge x befüllt.
Das Glas in der Hälfte der Zeit doppelt so schnell zur gleichen (Gesamt-)Menge zu befüllen und diese beiden halben Gläser dann am Ende "zu addieren"...da mögen die Theoriewerte verlockend erscheinen. Ich bezweifle, dass das eine gute/bessere Option zur "gängigen" Befüllung des Glases ist.

Das tatsächlich "gleiche" Bild erhält man sowieso nur, wenn beide Male mit Blende f/5.6 aufgenommen wird.
Ein Bild mit Blende f/4.0 wäre eh ein anderes...
 
Zuletzt bearbeitet:
Chris, vielen Dank für die rege Unterhaltung.

Wer weiß, was uns die Zukunft in der Fotografie noch bringen wird. ;)

LG,
Karl-Heinz
 
Chris, vielen Dank für die rege Unterhaltung.
Dito. :)
Wer weiß, was uns die Zukunft in der Fotografie noch bringen wird. ;)
Hoffen wir auf das Beste. :D

Solange die Rahmenbedingungen Schlitzverschlüsse beinhalten, wird das mit dem "Vorteil durch zwei Mal auslesen während eines Belichtungsvorgangs" (plus dem irgendwie synchronisiert bzw. passend Verrechnen) vermutlich schwierig. Ich wüsste zumindest nicht, wie der "zuerst" Licht empfangende und ebenso "zuerst" abgedeckte Sensorteil nach dem ersten Auslesen erneut Licht empfangen sollte. In vielen Fällen ist er bereits verdeckt, noch bevor die "letzte" Zeile des Sensors überhaupt belichtet geschweige denn ausgelesen ist: LINK

Stichwort auch:
Blitzsynchronzeit

Bei längeren Zeiten ist Dein Ansatz zumindest theoretisch denkbar.

Oder ich habe das, was Du meinst, bis hierher nicht ganz durchblickt.
 
Zuletzt bearbeitet:
Theorie zu kleinen Sensoren...
Da alle Bildinformationen über einen zentralen A/D-Baustein digitalisiert werden
Üblich sind derzeitig 1 bis 2 Bausteine mit je 4 Wandlerkanälen, macht zusammen 8 Readouts.
Die laufen dann jeweils mit 30 oder 40 MHz.

Die Canon EOS 7D hat z.B. 8 Readouts.

Die Wandler sind BTW nicht gerade billig:

 
Solange die Rahmenbedingungen Schlitzverschlüsse beinhalten, wird das mit dem "Vorteil durch zwei Mal auslesen während eines Belichtungsvorgangs" (plus dem irgendwie synchronisiert bzw. passend Verrechnen) vermutlich schwierig.
Ist ziemlich einfach.
Es sollte nur nicht zu hell sein, wenn der Sensor ausgelesen wird. Sonst bekommt man leichte Störungen bei Readout.
Wird schon seit Jahren genutzt. Video, High-ISO-Multishot, etc.
 
Das ist - bei 1/100s Belichtungszeit - exakt 1/100s.
Die Zeit ist eine Nuance länger.
Rechne mal bei Schlitzverschlüssen mit 10,05 ms statt mit 10 ms.
Bei Zentralverschlüssen sind die Abweichungen größer, die Belichtungszeit liegt dort bei etwa 12 ms.

Gerechnet ist die Zeit vom ersten Licht bis zum letzten Licht für jeden Pixel.
 
Aber wahrscheinlich sind die Auslesezeiten, die ich annahm, zu kurz bemessen?

Bei der 7D sind es für ein vollständiges Auslesen aller Photodioden mindestens 58 ms. Allerdings ist das mittlerweile auch eine etwas ältere Kamera.
Bei Red Camera findet man Werte zwischen 8 und 16 ms.
Käufliche Hochgeschwindigkeitskameras haben vor 5 Jahren 0,5 ms (bei 1 MP) bzw. 1 ms (bei 2 MP) geschafft.

Heutzutage scheinen viele Kameras den Sensor in 16 ms auslesen zu können.
 
Danke, sehr interessante Infos. Womit meine Frage im Eingangspost beantwortet wäre.

LG,
Karl-Heinz
 
Zwei Anmerkungen:

das Auslesen mit externen ADCs und wenigen Kanälen macht eigentlich nur noch Canon. Die meisten anderen Sensoren (u. a. die von Sony, auch in Pentax, Nikon, Olympus, ...) haben interne Spalten-ADCs, also einen pro Spalte, auf dem Bildsensor. Die sind aber langsamer, so daß deren größere Anzahl auch nichts nützt.

16 ms schaffen nur wenige Sensoren, genannt seien die Nikon-1 (Aptina), die haben allerdings auch eine geringere als die genannte Auflösung. Mit vollelektronischem Verschluß (das ist ja das Ziel Deiner Frage) schaffen die meisten Photokameras, die das können, bei voller Auflösung Auslesezeiten im Bereich 30-100 ms.
 
aka "column-parallel ADCs", dazu findet sich dann tonnenweise Material zum Lesen. Vor allem im Video-Bereich wird gerne mal durchgemessen, wie stark der Rolling-Shutter-Effekt ist (also effektiv die Zeit, die zum Auslesen des Sensors benötigt wird). Und es gibt eben auch schon 133MPix-Sensoren mit 60FPS für 8k-Video-Aufnahmen, um mal so eine aktuelle obere Grenze zu nennen.

Aber: Video-Modus und Foto-Modus können durchaus anders sein, wenn es um das Sensor-Auslesen geht. Die Samsung NX1 reduziert z.B. die ADC-Auflösung, wenn sie mit 15FPS durch die Gegend rattert, einfach weil das Auslesen dadurch schneller läuft (ansonsten wären die 15FPS nicht möglich). Gleiches wird u.U. auch in den Video-Modi gemacht, zumal es, je nach Kamera, noch spezielle Verschaltungen für das Zusammenfassen von Pixeln gibt ("binning"), um einerseits bessere Qualität als beim "line skipping" zu bekommen und andererseits die Auslesezeiten gering zu halten (man braucht dann eben nur einen Pixel statt mehrere auslesen). Line skipping, also Auslassen von Zeilen beim Auslesen, wird auch gerne angewendet; praktisch findet das z.B. bei Sony zur Anzeige für den EVF Verwendung, und diverse DSLRs nutzen das auch im Video-Modus, um ihre Sensoren schnell genug ausgelesen zu bekommen.

Global-Shutter-CMOS gibt es auch schon; damit werden die üblichen, auf Rolling-Shutter-Effekt basierenden Verfahren für das Ausmessen der Auslesezeit quasi unmöglich gemacht.

HDR-Sensoren sind ebenfalls schon im Einsatz, wobei die primär in der Industrie ihren Platz finden, aber zunehmend auch in "Consumer-Applications" unterkommen, beispielsweise Rückfahrkameras und generell für automotive Sensorik (automatisches Einparken braucht gute Sensorik auch unter widrigen Lichtumständen). Da wird entweder mit dem durch Magic Lantern bekannten Verfahren (quasi unterschiedliche ISOs oder Belichtungszeiten auf abwechselnden Zeilen) oder Mehrfachbelichtung gearbeitet, wie das z.B. Toshiba marketingtechnisch ausführt. Zeit lassen dürfen die sich alle nicht, da im automotiven als auch industriellen Umfeld häufig schnelle Bildraten gefordert sind, um möglichst wenig Verzögerung in den Steuerschleifen zu haben.
 
Da zu vielem schon vieles gesagt wurde, nur noch eine ergänzende Nachlese:

1. Mit interline-transfer CCD-Sensoren kann man tatsächlich im "dual shutter-Modus" zwei sequentielle Expositionen mit Zeitlatenzen im ns-µs-Bereich starten. Problem dabei ist, dass die zweite Belichtung zumindest dann über einen mechanischen Verschluss beendet werden muss, wenn das Auslesen der ersten Exposition noch nicht abgeschlossen ist. Ist die Abdichtung zwischen exponierten und abgedunkelten Sensorlinien nicht perfekt, so kommt es zum "sensor smear".

2. Mit frame-transfer-Sensoren kann man das ebenfalls tun, nur bekommt man bei sehr intensiven Lichtquellen dann einen noch gewaltigeren "sensor smear", weil die Ladungen allesamt über ein belichtetes Areal verschoben werden und sich dabei Spitzlichter als Streifen über das Bild legen.

3. Zurück zum cMOS-Sensor: die 16 ms, die mittlerweile als "Standard" gelten, ergeben sich natürlich aus den 60p-Videoformaten.

4. Ein weiterer Denkfehler in der sub-µs-Zeilenauslesephantasie liegt in der Annahme, dass heutzutage die Zeilen noch komplett sequentiell ausgelesen würden. Wenn aber jede Zeile ihren ADC hat, dann werden die Zeilen gleichzeitig - und jede für sich dann entsprechend langsamer ausgelesen. ADC-Clocks von über 40 MHz werden aufgrund relativ hoher Rauschanteile eher vermieden. Wenn man aber nur eine Zeile auszulesen hat, dann kann man den ADC eines 6000x4000-Sensors für 16 ms Auslesedauer mit gemächlichen 0,4 MHz takten und hat derweil dennoch eine beeindruckende Gesamt-Pixel-Clock von 1,6 GHz, die dann eher dem Bildprozessor (und natürlich den Speichermedien) eine Flaschenhals-Funktion beschert. Bei 4k in 60p bleiben gut 0,5 GHz an Datenrate, was auch noch sehr hoch, aber insgesamt eher machbar ist.

5. Ein reales doppel-Auslesen einer einzigen Belichtung könnte auch funktionieren, erfordert aber eine "non-destructive" AD-Wandlung. Bei den Sony-CMOS wird immer mal wieder von doppel-Auslesen bei unterschiedlichem Gain gemunkelt, weiß jemand mehr?
 
3. Zurück zum cMOS-Sensor: die 16 ms, die mittlerweile als "Standard" gelten, ergeben sich natürlich aus den 60p-Videoformaten.
Was irrelevat ist, denn der TO hatte gefragt:
Es würde mich interessieren, wie lange das Auslesen eines CMOS KB-Sensors mit etwa 20 bis 24 MPixel in aktuellen Kameras dauert. Kann jemand diese Frage beantworten?
KB-Sensoren mit 20-24 MP (ich unterstelle: in DSLRs) haben bestenfalls 4k-Video-Mode, normalerweise nur Full-HD. Nehmen wir ruhig schon mal 4k-Video, dann sind das 8 MP in 16 ms. Und insofern 20 MP in 40 ms. Voilà.

4. Ein weiterer Denkfehler in der sub-µs-Zeilenauslesephantasie liegt in der Annahme, dass heutzutage die Zeilen noch komplett sequentiell ausgelesen würden. Wenn aber jede Zeile ihren ADC hat, dann werden die Zeilen gleichzeitig - und jede für sich dann entsprechend langsamer ausgelesen. ADC-Clocks von über 40 MHz werden aufgrund relativ hoher Rauschanteile eher vermieden. Wenn man aber nur eine Zeile auszulesen hat, dann kann man den ADC eines 6000x4000-Sensors für 16 ms Auslesedauer mit gemächlichen 0,4 MHz takten und hat derweil dennoch eine beeindruckende Gesamt-Pixel-Clock von 1,6 GHz, die dann eher dem Bildprozessor (und natürlich den Speichermedien) eine Flaschenhals-Funktion beschert.
Dein Denkfehler besteht darin, daß Du glaubst, ADC sei ADC. Spalten-ADCs (nicht: Zeilen-) müssen sehr einfach aufgebaut sein, damit sie nicht breiter sind als eine Pixelzeile (etwa 5-8 µm) und man ein paar Tausend davon auf den Bildsensor nebeneinanderpacken kann - deshalb keine pipelined-flash-Struktur, sondern ein single-slope-ADC. Und sie dürfen nur eine geringe Verlustleistung haben. Beides beschränkt die Wandlungsrate massiv. Und deshalb sind sie am Ende auch nicht schneller als ein oder zwei externe ADCs mit 8 Kanälen.

Die schnellsten Nikon-Kameras (gemessen an MP/s) sind die Nikon-1, und die sind nicht deshalb schneller als die großen KB-Boliden der einstelligen DSLR-Serie, weil der Bildprozessor schneller wäre, sondern weil der Bildsensor von Aptina schnellere Spalten-ADCs hat. Möglicherweise mit negativem Effekt aufs Bildrauschen. Und nur mit 12 statt 14 bit (was bei single-slope einen Faktor 4 in der Geschwindigkeit ausmacht).
 
Zuletzt bearbeitet:
Was irrelevat ist, denn der TO hatte gefragt:

KB-Sensoren mit 20-24 MP (ich unterstelle: in DSLRs) haben bestenfalls 4k-Video-Mode, normalerweise nur Full-HD. Nehmen wir ruhig schon mal 4k-Video, dann sind das 8 MP in 16 ms. Und insofern 20 MP in 40 ms. Voilà.
Jein, denn einige Kameras (aktuelle Sony/Nikon) lesen für die Viedeoformate bereits alle Pixel ihres Sensors aus und nicht nur einzelne Zeilen aus, was in Sachen SNR und zur Vermeidung von Aliasing-Artefakten durchaus Vorteile hat.


Dein Denkfehler besteht darin, daß Du glaubst, ADC sei ADC. Spalten-ADCs (nicht: Zeilen-) müssen sehr einfach aufgebaut sein, damit sie nicht breiter sind als eine Pixelzeile (etwa 5-8 µm) und man ein paar Tausend davon auf den Bildsensor nebeneinanderpacken kann - deshalb keine pipelined-flash-Struktur, sondern ein single-slope-ADC. Und sie dürfen nur eine geringe Verlustleistung haben. Beides beschränkt die Wandlungsrate massiv. Und deshalb sind sie am Ende auch nicht schneller als ein oder zwei externe ADCs mit 8 Kanälen.
Wieso glaubst Du, ich würde etwas irgendetwas irriges glauben? Dass die zeilenweise AD-Wandlung gemächlicher ablaufen kann, hatte ich doch selber geschrieben. :ugly:

Übrigens: da ich auch (in beruflichen Anwendungen) mit sCMOS-Kameras arbeite, bin ich tatsächlich schon mit gleichzeitigem doppel-Auslesen über high-gain (low noise) und low-gain (high capacity) Verstärkern unterwegs. Das Ding arbeitet mit 5120 ADC gleichzeitig und schiebt darüber eine Pixelclock von 560 MHz im 16-bit-Datenformat in den Rechner. Jeder einzelne ADC ist dabei vergleichsweise langsam unterwegs und dennoch kann man mit bis zu 100 Vollbildern/s arbeiten; ergo ist zumindest dieser Sensor in 10 ms ausgelesen.
 
Jein, denn einige Kameras (aktuelle Sony/Nikon) lesen für die Viedeoformate bereits alle Pixel ihres Sensors aus und nicht nur einzelne Zeilen aus
Hast Du dafür eine Quelle?

Das erscheint mir unwahrscheinlich, denn eben diese Nikon-Kameras schaffen im Photo-Betrieb bei reduzierter Bildgröße (APS-C statt KB bzw. Crop2 statt APS-C) höhere Bildraten. Und zwar nicht im Verhältnis der Pixelzahl (dann wäre der Bildprozessor der Flaschenhals), sondern im Verhältnis der Zeilenzahl (da die Spalten-ADCs nicht schneller können).

Du meinst kein Pixel-Binning?

Übrigens: da ich auch (in beruflichen Anwendungen) mit sCMOS-Kameras arbeite, bin ich tatsächlich schon mit gleichzeitigem doppel-Auslesen über high-gain (low noise) und low-gain (high capacity) Verstärkern unterwegs. Das Ding arbeitet mit 5120 ADC gleichzeitig und schiebt darüber eine Pixelclock von 560 MHz im 16-bit-Datenformat in den Rechner. Jeder einzelne ADC ist dabei vergleichsweise langsam unterwegs und dennoch kann man mit bis zu 100 Vollbildern/s arbeiten; ergo ist zumindest dieser Sensor in 10 ms ausgelesen.
560 MPixel/s / 100 Bilder/s = 5,6 MP (maximal). Macht bei 20 MP fast 40 ms.

Der Aptina-Sensor der Nikon-1 schafft 1,1 GPixel/s.
 
Hast Du dafür eine Quelle?
Zumindest bei der Sony A7s wird an verschiedenen Stellen von "full sensor readout" gesprochen. Sensor-Specsheets sind - wie so oft - leider nicht zur Hand.

Du meinst kein Pixel-Binning?
Nein, das meine ich nicht, da Binning bei Bayer-Farbmaske natürlich etwas komplex zu verschalten ist.

560 MPixel/s / 100 Bilder/s = 5,6 MP (maximal). Macht bei 20 MP fast 40 ms. ... Der Aptina-Sensor der Nikon-1 schafft 1,1 GPixel/s.
Bei 20 MP würde der Sensor mehr Kolumnen und damit auch mehr ADC´s haben. Die Steigerung der Auslesedauer des Gesamtsensors bei gleicher ADC-Taktrate wäre also pro Verdopplung der Pixelzahl nur Wurzel(2), somit also nicht 40 ms, sondern "nur" 14 ms für 11 MP, 20 ms für 22 MP oder 40 ms für 88 MP.

Limitationen sind - wie ich bereits sagte - dann eher bei Bildprozessoren, Speichermedien und im Fall getrennter Kamera-Computer-Systeme auch bei den Interfaces liegend. So schafft die selbe sCMOS-Kamera, die an CameraLink noch 100 B/s liefert, an USB3.0 nur noch 40 B/s.
 
Die Casio Exilim Pro EX-F1 hat bereits vor 7 Jahren 60fps bei 6MP (volle Sensorauflösung) gemacht.

Sie konnte bei der Bildrate nur für 1 Sekunde aufnehmen, d.h. sie hatte wohl 512MB RAM und die Bildprozessoren waren nicht schnell genug, um die Daten mit der Geschwindigkeit zu verarbeiten. Bei dieser Bildrate hat sie die ADC-Auflösung von 12 auf 10Bit reduziert.


 
Die Casio Exilim Pro EX-F1 hat bereits vor 7 Jahren 60fps bei 6MP (volle Sensorauflösung) gemacht.

Und die Nikon-1-Kameras 60 Bilder/s bei anfangs (vor 4 Jahren) 14 MP, später 18 MP, und 12 bit.

Zumindest bei der Sony A7s wird an verschiedenen Stellen von "full sensor readout" gesprochen. Sensor-Specsheets sind - wie so oft - leider nicht zur Hand.
Aber die hat 12 MP als Photo- und um die 8 MP als Videokamera. Siehe oben.
(was sollen sie bei 8 MP auf dem Sensor auch anderes machen, als alle auszulesen, für 4k Video? - natürlich tut das der Videoqualität gut)

Bei 20 MP würde der Sensor mehr Kolumnen und damit auch mehr ADC´s haben. Die Steigerung der Auslesedauer des Gesamtsensors bei gleicher ADC-Taktrate wäre also pro Verdopplung der Pixelzahl nur Wurzel(2), somit also nicht 40 ms, sondern (...) 20 ms für 22 MP
Jein - Deine Rechnung stimmt natürlich, im Gegensatz zu meiner.

Aber offenbar hat dieser Sensor 2 ADCs pro Spalte - schade, daß Du die Auflösung nicht nennst - vermutlich einen oben und einen unten, je für die halbe Bildhöhe. Das haben die mir bekannten Sensoren in Photokameras nicht. Ich nehme an, um zu vermeiden, dass dadurch neue Artefakte in Bildmitte entstehen.

Und wenn ich bei 5k ADCs bleibe (das wären bei einem 3:2-Sensor um die 18 MP), dann sind es bei dieser Auflösung doch eher 40 als 20 ms.

Limitationen sind - wie ich bereits sagte - dann eher bei Bildprozessoren, Speichermedien und im Fall getrennter Kamera-Computer-Systeme auch bei den Interfaces liegend.
So heftig sind die nicht, und für die vom TO gestellte Frage nur teilweise relevant. Wenn er mehrfach auslesen will, muss er das Ergebnis trotzdem nur einmal JPEG-komprimieren und nur einmal wegschreiben. Insofern bleibt ein relativ kleiner Pufferspeicher, der schnell sein muß. Aber für eine angemessene Blitzsynchronzeit - sagen wir 1/200s - muß der gesamte Sensor in ca. 4 ms gelesen werden. Wenn man das zweimal machen will, also in 2 ms.

Dein Bildsensor liefert 1,12 GByte/s (560 MP/s bei 16 bit). Die Nikon-1-Kamera liefert 1,65 GByte/s (1100 MP/s bei 12 bit) - in einer kleinen Schachtel mit kleinem Akku. Ein DDR3-2133-Modul kann 17 GByte/s, zum Vergleich. Kein Problem, die Kameras 2x, 3x oder 5x so schnell zu machen wie momentan. 20x so schnell wäre allerdings auch für den Speicher schon kritisch.

Aber die aktuelle Grenze ist der ADC.
 
Zuletzt bearbeitet:
Aber offenbar hat dieser Sensor 2 ADCs pro Spalte - schade, daß Du die Auflösung nicht nennst - vermutlich einen oben und einen unten, je für die halbe Bildhöhe. Das haben die mir bekannten Sensoren in Photokameras nicht. Ich nehme an, um zu vermeiden, dass dadurch neue Artefakte in Bildmitte entstehen.
Die Kamera hat eine Auflösung von 2560x2160 Pixeln: http://www.andor.com/scientific-cameras/neo-and-zyla-scmos-cameras/zyla-55-scmos

Aber für eine angemessene Blitzsynchronzeit - sagen wir 1/200s - muß der gesamte Sensor in ca. 4 ms gelesen werden. Wenn man das zweimal machen will, also in 2 ms.
Beim Blitzen könnte eine Exposition den Blitz, die zweite das Umgebungslicht erfassen (oder umgekehrt). Das wäre bei RAW-Abspeicherung gar nicht unkommod, wenn man
a) auch nachträglich noch Umgebungslicht und Aufhellung variieren könnte.
b) das Umgebungslicht mit anderer Farbtemperatur entwickeln und somit ohne Farbkippen mit der Aufhellung mischen könnte

Aber die aktuelle Grenze ist der ADC.
Wo die aktuellen Grenzen der ADC´s in CMOS liegen, sagen Dir die Hochgeschwindigkeitskameras. Eine Auflösung von 1280x800 bei 25000 Vollbildern/s bekommt man z.B. hier hin: http://www.slomotec.de/productview.php?article=153
Der 1-MP-Sensor ist also nach 40 µs ausgelesen. Der Rest ist Dreisatz ...

Die dahinter liegende Technologie kann tatsächlich mal mit 1(2) ADC/Sensorkolumne oder mit weniger, dafür schneller arbeitenden ADC realisiert sein.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten