• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtstarke Optiken vor dem Aus?

Frank Klemm schrieb:
4 GHz-CPUs benötigen so um die 150 mm² Fläche, wie klein könnte man einen 100 MHz-ARM machen?
Ähm, umgekehrt wird ein Schuh draus ...

Prinzipiell gilt, je kleiner das Die, je höher läßt es sich takten. Ein P4 oder PowerPC belegt deswegen eine relativ große Fläche, da hier teils mehrere 100 Mio Transistoren untergebracht werden müssen, wobei den minimalen Strukturbreiten Grenzen gesetzt sind. Laß die Chaches, x-stufigen Pipelines und anderes Zeugs weg, was den P4 vom ARM unterscheidet, und es bleibt ein dem ARM recht ähnlicher RISC Core übrig, der sicher auch nicht mehr Fläche belegt.

Sobald Intel oder wer auch immer wieder mal den nächt kleineren Shrink großtechnisch produzieren kann, steigt i.d.R. auch die Ausbeute höher taktbarer Chips.
 
Trendliner schrieb:
Ähm, umgekehrt wird ein Schuh draus ...

Prinzipiell gilt, je kleiner das Die, je höher läßt es sich takten. Ein P4 oder PowerPC belegt deswegen eine relativ große Fläche, da hier teils mehrere 100 Mio Transistoren untergebracht werden müssen, wobei den minimalen Strukturbreiten Grenzen gesetzt sind. Laß die Chaches, x-stufigen Pipelines und anderes Zeugs weg, was den P4 vom ARM unterscheidet, und es bleibt ein dem ARM recht ähnlicher RISC Core übrig, der sicher auch nicht mehr Fläche belegt.

Sobald Intel oder wer auch immer wieder mal den nächt kleineren Shrink großtechnisch produzieren kann, steigt i.d.R. auch die Ausbeute höher taktbarer Chips.

Natürlich läßt sich ein Prozessor mit kleineren Strukturen höher takten. Bei den mitlerweile ja schon üblichen 3 GHz und mehr spielen eben die Signallaufzeiten die Hauptrolle und die werden eben mit Verkleinerung der Strukturen kürzer. Das Problem ist aber, daß die Strukturen mitlerweile derartig klein geworden sind (mein Athlon64 mit ClawHammer-Core z.B. hat auf einer Fläche von 193mm² in 9 Layern 105,9 Millionen Transistoren), daß die Leckströme durch unvollkommene Isolatoren überhand nehmen. Es läßt sich ja kaum ein Hersteller darüber aus, aber der Großteil der CPU-Verlustleistung kommt durch eben diese Leckströme zustande. Dazu kommt natürlich noch das Problem, diese Abwärme schnell aus einem Werkstoff abzuführen, der nicht grade als guter Wärmeleiter bekannt ist. Hier ist wohl fürs erste die Grenze nahezu ausgereizt . . . . . bis vielleicht neue Werkstoffe auch neue Möglichkeiten bieten. Deutlich schnellere Verarbeitung von noch größeren Datenmengen wird wohl zunächst nur mit massiv paralleler Verarbeitung zu erreichen sein - was ja auch durch die Vorstellung von Dualcore-CPU´s und parallel betreibbaren GPU´s geführt hat. Ob es nun Sinn macht, 1000,-? oder sogar noch mehr für 2 Grafikkarten auszugeben, um die immer hirnloseren Egoshooter zu spielen lasse ich mal dahingestellt.:eek: :evil:

Hier war weiter oben auch kurz die Rede von astronomischen Instrumenten. Was da heute möglich ist, kann einen schon erstaunen. Vor einigen Monaten war mal wieder Tag der offenen Tür in der Universitätssternwarte Hamburg. Die haben an einem Reflektor der 2,5m-Klasse ein gekühltes (-40°C) CCD von 1024 x 1024 Pixel (Größe leider unbekannt) und die Empfindlichkeit war absolut verblüffend. Natürlich kann so eine große Optik ein wenig mehr Licht sammeln als ein gewöhnliches Kameraobjektiv :rolleyes: :cool: . . . . . . . . . und darum glaube ich auch nicht, daß lichtstarke Optiken vor dem Aus stehen. Der Sensor kann schließlich nur das abbilden, was ihn an Licht auch erreicht - von den erweiterten gestalterischen Möglichkeiten mal ganz abgesehen. Außerdem sind die lichtstarken Gläser i.d.R. auch wesentlich besser verarbeitet und bestehen nicht nur aus Recycling-Plastik á la Joghurt-Becher:p

Gruß Olaf
 
Frank Klemm schrieb:
Sensoren dieser Art gibt es schon, leider aber nur als Einzelsensoren und nicht als Zeile oder Matrix.
Sag das nicht, die neueren EMCCD-Kameras kommen da durchaus schon hin, da sie das Einleserauschen auf unter 1 Elektron senken konnten und damit EInzelphotonen-Nachweise leisten: z.B. Andor iXon EM-CCD mit back-illumination.

So ein Ding hat zwar nur 512x512 Auflösung, aber man könnte für 5 MP in 3CCD-Anordnung ja einfach 60 Chips einsetzen. Da jede dieser Kameras nur knapp über 34 Kiloeuro kostet und auf -70°C gekühlt sein will, halten sich Kosten (2 Mio ?), Gewicht (geschätzte 40 kg) und Batteriebedarf (ca. ein Dutzend Bilder pro 200 Ah-Batterie?) ja auch in angenehmen Grenzen.
;)


P.S.: Wie kommt man auf die interessante Photonenzahl-Abschätzung bei ISO 50.000?
 
Frank Klemm schrieb:
Die DIN definiert ... Lux*s ... THz Frequenz ... Js ... E = h f ... aWs ... nW/m² ... aWs/Pixel
Respekt! Elegant.
 
Mi67 schrieb:
Sag das nicht, die neueren EMCCD-Kameras kommen da durchaus schon hin, da sie das Einleserauschen auf unter 1 Elektron senken konnten und damit EInzelphotonen-Nachweise leisten: z.B. Andor iXon EM-CCD mit back-illumination.

So ein Ding hat zwar nur 512x512 Auflösung, aber man könnte für 5 MP in 3CCD-Anordnung ja einfach 60 Chips einsetzen. Da jede dieser Kameras nur knapp über 34 Kiloeuro kostet und auf -70°C gekühlt sein will, halten sich Kosten (2 Mio ?), Gewicht (geschätzte 40 kg) und Batteriebedarf (ca. ein Dutzend Bilder pro 200 Ah-Batterie?) ja auch in angenehmen Grenzen.
;)
"Computers in the future may weigh no more than 1.5 tons."
Popular Mechanics, forecasting the relentless march of science, 1949

Ich weiß nicht, was EM-CCD genau sind.

Wenn es einfach ein neuer Name für Avalanche-Photo-Dioden (Lawinendurchbruch-Dioden) ist, dann sieht es so aus, als wenn es
schon kleinere Arrays davon gibt.

Es könnte aber sein, daß EM-CCDs nur CCDs sind, die mit einer kritischen Vorspannung arbeiten und pro absorbiertem Photon mehrere freie Ladungsträger verursachen. So was meinte ich nicht.

P.S.: Wie kommt man auf die interessante Photonenzahl-Abschätzung bei ISO 50.000?
Hatte ich schon beantwortet, siehe oben.
 
Frank Klemm schrieb:
"Computers in the future may weigh no more than 1.5 tons."
:D

Ich weiß nicht, was EM-CCD genau sind.
Electron Multiplication-CCD

Wenn es einfach ein neuer Name für Avalanche-Photo-Dioden (Lawinendurch-Dioden) ist, dann sieht es so aus, als wenn es
schon kleinere Arrays davon gibt.
Nee, es sind keine Avalanche-Photodioden, aber etwas "Lawinen-artiges" wird auch gemacht (s.u.).

Es könnte aber sein, daß EM-CCDs nur CCDs sind, die mit einer kritischen Vorspannung arbeiten und pro absorbiertem Photon mehrere freie Ladungsträger verursachen. So was meinte ich nicht.
Jein. Mit einer einfachen Erhöhung der Vorspannung ist keine Noise-freie Verstärkung zu erzielen und es käme zu spontanten Durchbrüchen. EM-CCDs haben hingegen ein Verstärke-Ausleseregister (Gain-Register) mit z.B. 512 extragroßen Sites, durch die die Ladung der auszulesenden Signale schrittweise hindurchgeschoben wird. Bei jedem Schiebevorgang kann nun mit regelbarer geringer Wahrscheinlichkeit (ca. 0,1-10%) ein verschobenes Elektron ein oder mehrere weitere Elektronen generieren, die sich zum Signal hinzuaddieren und beim nächsten Schiebevorgang wiederum verstärkt werden können. Dieser Gain kann von 1 (überhaupt keine Verstärkung) bis 1000 eingestellt werden. Bis zu Verstärkungsfaktoren von ca. 200 funktioniert dies, ohne dass es häufiger zu Durchbrüchen, also spontan generierten Elektronen im Ausleseregister kommt. An der Wandlerelektronik kommen dann in der Tat nahezu diskrete Ladungsbündel mit z.B. Vielfachen von 200 an. Wenn nun die A/D-Wandlung mit einem Ausleserauschen von z.B. 22 Elektronen (Daten der Andor iXon BV887) arbeitet, so ist das Einleserauschen gegenüber der primären Ladungstrennung in der Photosite auf deutlich unter ein Elektron gesunken und man hat einen bildgebenden Einzelphotonenzähler.

Damit das Ganze gut funktioniert, ist es von zentraler Bedeutung, thermische Elektronen bestmöglich zu vermeiden. Daher sind EM-CCDs weit heruntergekühlt und arbeiten am besten mit relativ kurzen Integrations (Belichtungs)-Zeiten. Mit der Rückbeleuchtung ("back-illuminated") kommen wir auf Quantenausbeuten um 90%, was im Verbund mit der Einzelelektronenempfindlichkeit dann einen bildgebenden Einzelphotonennachweis erlaubt. Das nette dabei: man verliert nur relativ wenig an Dynamik, da das Einzelpixel 220.000 Elektronen, das Ausleseregister aber sogar 800.000 Elektronen speichern kann, also erst Faktor 36.000 über dem Auslesenoise saturiert. Dies sind low-light-Dynamikwerte, von denen DSLRs nur träumen können, wobei wie Du richtig erwähnt hast, dass irgendwann der Photonennoise einfach führend ist, und man durch keine Maßnahme der Welt mehr glatte Belichtungen bei extrem dunklem Motiv erhalten kann.

Ich habe nochmal nachgesehen: Listenpreis 33.500 ? zzgl. MwST. :eek:
... aber eine schnelle avalanche Photodiode schlägt ja als Komplettsystem auch mit kaum weniger zu Buche.

BTW: hatte mal aus "Schätzen" der full well capacity und Quanteneffizienz einer 1DII heraus die Photonenzahl abgeschätzt, die bei verschiedenen ISO-Werten auflaufen:
http://www.digitale-slr.net/showthread.php?postid=546377#post546377
Zitat aus dem Thread: "Ein Einzelpixel der 1D-II dürfte bei ISO-100 so etwa bei 100.000 Photonen in die Sättigung laufen. Bei ISO-200 also um 50.000, etc.. Wir landen also bei ISO-3200 bei ca. 3.000 Photonen." Wenn wir dies weiterführen, dann landen wir lustigerweise bei ISO 102.400 bei 97 Photonen als maximal zu verarbeitendes Signal. Eine Zahl, die von Deiner physikalisch wesentlich eleganteren Herleitung zumindest nicht um größere Faktoren abweicht. :)
 
Ganz andere Frage:

Wie bekomme ich die Quanteneffizienz des
Editierfensters etwas höher. Sie beträgt zur
Zeit 5,6%, d.h. 94,4% der Bildschirmfläche
sind bei Editieren ungenutzt. Ich komme mir
vor wie "Diese Webseite wurde für PDA-
Besitzer optimiert."

Monitor: 517 mm x 323 mm (100%)
Editierfenster: 140 mm x 67 mm (5,6%)

Selbst wenn ich das Webbrowser-Fenster auf
1024x768 zusammenschiebe, ist immer noch
viel Platz im Webbrowserfenster, was einfach
nur hellblau ist.

Monitor: 517 mm x 323 mm (293%)
Webbrowser: 276 mm x 207 mm (100%)
Editierfenster: 140 mm x 67 mm (16%)

Irgendwie wäre es nett, wenn man 3 bis 5
Editierfenstergrößen (512x256, 720x480,
1000x600, 1200x800, 1024x1024) einstellen
könnte.

Wo kann man das in diesem Board anbringen?
 
Mi67 schrieb:
:D

Electron Multiplication-CCD

Nee, es sind keine Avalanche-Photodioden, aber etwas "Lawinen-artiges" wird auch gemacht (s.u.).

Jein. Mit einer einfachen Erhöhung der Vorspannung ist keine Noise-freie Verstärkung zu erzielen und es käme zu spontanten Durchbrüchen. EM-CCDs haben hingegen ein Verstärke-Ausleseregister (Gain-Register) mit z.B. 512 extragroßen Sites, durch die die Ladung der auszulesenden Signale schrittweise hindurchgeschoben wird. Bei jedem Schiebevorgang kann nun mit regelbarer geringer Wahrscheinlichkeit (ca. 0,1-10%) ein verschobenes Elektron ein oder mehrere weitere Elektronen generieren, die sich zum Signal hinzuaddieren und beim nächsten Schiebevorgang wiederum verstärkt werden können. Dieser Gain kann von 1 (überhaupt keine Verstärkung) bis 1000 eingestellt werden. Bis zu Verstärkungsfaktoren von ca. 200 funktioniert dies, ohne dass es häufiger zu Durchbrüchen, also spontan generierten Elektronen im Ausleseregister kommt. An der Wandlerelektronik kommen dann in der Tat nahezu diskrete Ladungsbündel mit z.B. Vielfachen von 200 an. Wenn nun die A/D-Wandlung mit einem Ausleserauschen von z.B. 22 Elektronen (Daten der Andor iXon BV887) arbeitet, so ist das Einleserauschen gegenüber der primären Ladungstrennung in der Photosite auf deutlich unter ein Elektron gesunken und man hat einen bildgebenden Einzelphotonenzähler.

Aja.
Das geht in die richtige Richtung.
Von so einem Wandler habe ich schon mal was gehört.
Du meinst aber "unter ein Photon" und nicht "unter ein Elektron".

Mi67 schrieb:
Damit das Ganze gut funktioniert, ist es von zentraler Bedeutung, thermische Elektronen bestmöglich zu vermeiden. Daher sind EM-CCDs weit heruntergekühlt und arbeiten am besten mit relativ kurzen Integrations (Belichtungs)-Zeiten.

Kühlung ist für längere Belichtungszeiten notwendig. Bei einer
Belichtungszeit von 1/30 sec bringt eine Reduktion der Dunkelrate
von 5/sec auf 0,5/sec überhaupt nichts. Komischerweise wollen
aber Kunden im eine Kühlung haben. Lustig wird das bei
Ultrakurzzeit-Detektoren (teilweise < 1 us Belichtungszeit) und
schon bei Zimmertemperatur ordentlichen Detektoren (mit < 1/sec).

Mi67 schrieb:
Mit der Rückbeleuchtung ("back-illuminated") kommen wir auf Quantenausbeuten um 90%, was im Verbund mit der Einzelelektronenempfindlichkeit dann einen bildgebenden Einzelphotonennachweis erlaubt.

Das teuerste ist das "back-illuminated". Einen Die auf 10 um
homogen runterzuschleifen ist extrem aufwendig und erzeugt
viel Ausschuß.

Das nette dabei: man verliert nur relativ wenig an Dynamik, da das Einzelpixel 220.000 Elektronen, das Ausleseregister aber sogar 800.000 Elektronen speichern kann, also erst Faktor 36.000 über dem Auslesenoise saturiert. Dies sind low-light-Dynamikwerte, von denen DSLRs nur träumen können, wobei wie Du richtig erwähnt hast, dass irgendwann der Photonennoise einfach führend ist, und man durch keine Maßnahme der Welt mehr glatte Belichtungen bei extrem dunklem Motiv erhalten kann.

Ich habe nochmal nachgesehen: Listenpreis 33.500
 
Zuletzt bearbeitet:
Mi67 schrieb:
:D

...

BTW: hatte mal aus "Schätzen" der full well capacity und Quanteneffizienz einer 1DII heraus die Photonenzahl abgeschätzt, die bei verschiedenen ISO-Werten auflaufen:
http://www.digitale-slr.net/showthread.php?postid=546377#post546377
Zitat aus dem Thread: "Ein Einzelpixel der 1D-II dürfte bei ISO-100 so etwa bei 100.000 Photonen in die Sättigung laufen. Bei ISO-200 also um 50.000, etc.. Wir landen also bei ISO-3200 bei ca. 3.000 Photonen." Wenn wir dies weiterführen, dann landen wir lustigerweise bei ISO 102.400 bei 97 Photonen als maximal zu verarbeitendes Signal. Eine Zahl, die von Deiner physikalisch wesentlich eleganteren Herleitung zumindest nicht um größere Faktoren abweicht. :)

... na, wenn ich das sehe, dann haben wir ja noch "Luft" ( Protonen ) für empfindlichere CCDs, oder ? ! ? ! :D
lg Jürgen

PS: Es bleibt spannend !
_
 
Irgendwie verträgt dieses Board keine EURO-Zeichen und Editieren von Texten.

Die 33.500 EUR des EM-CCD dürften im wesentlichen durch das
"back-illuminated" kommen. Aber selbst wenn ein
nicht-"back-illuminated" "nur" 3.500 EUR kostet, ist das für eine
5.000 EUR-Kamera viel zu viel, dort dürfte der Sensor maximal
250 EUR oder so kosten, bei 750 EUR-Kameras düefte der Werte
unter 50 EUR liegen.
 
Mi67 schrieb:
Dies sind low-light-Dynamikwerte, von denen DSLRs nur träumen können, wobei wie Du richtig erwähnt hast, dass irgendwann der Photonennoise einfach führend ist, und man durch keine Maßnahme der Welt mehr glatte Belichtungen bei extrem dunklem Motiv erhalten kann.
APDs (oder andere direkt zählende Verfahren wie auch PMTs)
haben aber Vorteile, weil man nicht die Belichtungszeit abwarten
muß, sondern schon während der Messung sieht, was los ist.

Mögliche Auswertungen:

Modus 1 (das einfachste):
* Zähle 8192 us lang die Anzahl der Lawinendurchbrüche (entspricht einer Belichtungszeit von 1/122 s).
* unkomprimiertes Rawbild: ca. 18 MByte für eine 8 MP-Kamera

Modus 2 (deutlich komfortabler):
* Zähle 8192 us lang die Anzahl der Lawinendurchbrüche (entspricht einer Belichtungszeit von 1/122 s).
* Breche Zählung vorzeitig ab, wenn 1024 Photonen gezählt wurden und notiere in diesem Fall nicht die Photonenzahl in 8192 us, sondern die Zeit für die 1024 Photonen.
* unkomprimiertes Rawbild: ca. 19 MByte für eine 8 MP-Kamera

Modus 3 (gleitender Übergang zwischen Modus 1 und Modus 2):
* Zähle so lange Lawinendurchbrüche LD, bis LD + Integrationszeit/8 us den Wert 2048 erreicht.
* unkomprimiertes Rawbild: ca. 30 MByte für eine 8 MP-Kamera

Modus 4
* Zähle die Lawinendurchbrüche. Speicher den Zählerstand nach 1024 us, 2048 us, 4096 us, 8192 us und 16384 us.
* unkomprimiertes Rawbild: ca. 96 MByte für eine 8 MP-Kamera

Modus 5
* Speicher die genauen Zeiten der Lawinendurchbrüche für alle Pixel auf und komprimiere diese mittels RLE- + LZW-Komprimierung. Speichere die ersten 1024 Byte dieses Datenstroms für jedes Pixel ab.
* komprimiertes Rawbild: ca. 8192 MByte für eine 8 MP-Kamera
BTW: hatte mal aus "Schätzen" der full well capacity und Quanteneffizienz einer 1DII heraus die Photonenzahl abgeschätzt, die bei verschiedenen ISO-Werten auflaufen:
http://www.digitale-slr.net/showthread.php?postid=546377#post546377
Zitat aus dem Thread: "Ein Einzelpixel der 1D-II dürfte bei ISO-100 so etwa bei 100.000 Photonen in die Sättigung laufen. Bei ISO-200 also um 50.000, etc.. Wir landen also bei ISO-3200 bei ca. 3.000 Photonen." Wenn wir dies weiterführen, dann landen wir lustigerweise bei ISO 102.400 bei 97 Photonen als maximal zu verarbeitendes Signal. Eine Zahl, die von Deiner physikalisch wesentlich eleganteren Herleitung zumindest nicht um größere Faktoren abweicht. :)
Auch andere können rechnen. Und habe rechnen nicht patentieren lassen ;-)
 
Zuletzt bearbeitet:
Frank Klemm schrieb:
APDs (oder andere direkt zählende Verfahren wie auch PMTs) haben aber Vorteile, weil man nicht die Belichtungszeit abwarten
muß, sondern schon während der Messung sieht, was los ist.
... und genau deswegen hätte ich hier auch gerne ein Paar APDs - und vielleicht noch gepulste Laser dazu. Einzelmolekül-Fluktuationen können hochinteressant sein und erzählen ganze Geschichten über die Funktionsweise von Zellen. ;)

Deine Implikationen für die Fotografie angewandt ...
Mögliche Auswertungen:
Modus 1 (das einfachste):
* Zähle 8000 us lang die Anzahl der Lawinendurchbrüche (entspricht einer Belichtungszeit von 1/125 s).

Modus 2 (deutlich komfortabler):
* Zähle 8192 us lang die Anzahl der Lawinendurchbrüche (entspricht einer Belichtungszeit von 1/122 s).
* Breche Zählung vorzeitig ab, wenn 1024 Photonen gezählt wurden und notiere in diesem Fall nicht die Photonenzahl in 8192 us, sondern die Zeit für die 1024 Photonen.

Modus 3 (gleitender Übergang zwischen Modus 1 und Modus 2):
* Zähle so lange Lawinendurchbrüche LD, bis LD + Integrationszeit/8 us den Wert 2048 erreicht.
... würden sehr hilfreich sein, um die Dynmaik-Limitationen digitaler Kameras zu überwinden. Die Strategie "Zeit messen, bis Pixelsaturation eintritt" wurde ja schon öfter genannt. Ein Problem dabei ist, dass die zusätzliche Dynamik lediglich in den Lichtern entstünde oder alternativ die notwendige Belichtungszeit verlängert würde, um Schatten "nachzubelichten".

Ich hätte sehr viel für eine solche Strategie übrig, die nicht höhere ISO-Werte, sondern allenfalls noch geringere ISO-Werte erlaubt, die wegen Volllaufen der Photosites derzeit nicht möglich wären. Ist die kürzlich vorgestellte "neue CMOS-Strategie" nach diesem Timer-Muster arbeitend?
 
Mi67 schrieb:
... und genau deswegen hätte ich hier auch gerne ein Paar APDs - und vielleicht noch gepulste Laser dazu. Einzelmolekül-Fluktuationen können hochinteressant sein und erzählen ganze Geschichten über die Funktionsweise von Zellen. ;)

Deine Implikationen für die Fotografie angewandt ...
... würden sehr hilfreich sein, um die Dynmaik-Limitationen digitaler Kameras zu überwinden. Die Strategie "Zeit messen, bis Pixelsaturation eintritt" wurde ja schon öfter genannt. Ein Problem dabei ist, dass die zusätzliche Dynamik lediglich in den Lichtern entstünde oder alternativ die notwendige Belichtungszeit verlängert würde, um Schatten "nachzubelichten".

Ich hätte sehr viel für eine solche Strategie übrig, die nicht höhere ISO-Werte, sondern allenfalls noch geringere ISO-Werte erlaubt, die wegen Volllaufen der Photosites derzeit nicht möglich wären. Ist die kürzlich vorgestellte "neue CMOS-Strategie" nach diesem Timer-Muster arbeitend?

Keine Ahnung, was die neue CMOS-Strategie ist (ich habe jetzt keine Probleme, die Frage zu verstehen, ich gehe davon aus, daß Du Dich auf http://www.digitalkamera.de/Info/News/30/69.htm beziehst).

Wenn man das Ausleserauschen deutlich unterhalb von 1 Photon bekommt, kann man einen Sensor während der Belichtungszeit mehrfach auslesen, ohne sich Nachteile einzuhandeln. Das ist bei APDs, PMTs, aber wenn ich richtig nachdenke, dann auch bei EM-CCDs möglich.

Bei APDs erhält man z.B. alle 50 ns einen Wert, der 0 oder 1 ist (Durchbruch nicht aufgetreten oder aufgetreten). Bei EM-CCDs und einem Wandler pro Zeile (statt pro Chip) könnte man den
Sensor alle 1/8192 s auslesen, das Meßergebnis in Quanten umrechnen und dann entweder diese Zahlen notieren oder die Zahlen zusammenaddieren. Kritisch würde es erst werden, wenn die Zelle innerhalb einer 1/8192 s volläuft.
 
Deine Implikationen für die Fotografie angewandt ...
... würden sehr hilfreich sein, um die Dynmaik-Limitationen digitaler Kameras zu überwinden. Die Strategie "Zeit messen, bis Pixelsaturation eintritt" wurde ja schon öfter genannt. Ein Problem dabei ist, dass die zusätzliche Dynamik lediglich in den Lichtern entstünde oder alternativ die notwendige Belichtungszeit verlängert würde, um Schatten nachzubelichten".

Wenn man strohdoof an das Problem herangeht (dazu neige ich), dann will man Bilder haben, die scharf und rauschfrei sind.

Praktisch gesehen heißt das, ich will einen ordentlichen Kompromiß aus Bewegungsunschärfen und Sensorrauschen.

Derzeitig kann man bei ordentlichen Kameras in Zusammenarbeit mit ordentlichen Personen dahinter diesen Kompromiß nur für das gesamte Bild treffen, indem man z.B. 8000 us Belichtungszeit einstellt.

In dunklen Stellen nimmt man bei konstanter Belichtungszeit eher das Rauschen wahr, an hellen eher die Bewegungsunschärfe.
Konstante Belichtungszeit für alle Pixel ist damit ein Relikt, das man entsorgen sollte, wenn es technisch nicht mehr notwendig
sein sollte. Einige Knipsen (wenn auch aus anderen Gründen) gehen schon die ersten Schritte in dies Richtung.

Künftig wären daher Kameras sinnvoll, die keinen ISO-Regler mehr haben, sondern einen Regler, der zwischen Rauschen und
Bewegungsunschärfen wählt. Für jeden Pixel gehen neben dem Lichtwert des PIXELs auch die aktuelle Brennweite der Optik
und die Art der Auslösung (Freihand Sport/Kinder/Tiere, Freihand normale Personen, Freihand wenig Bewegung/Stilleben,
Stativ wenig Bewegung/Stilleben, Stativ Stileben) mit ein.

Freihand normale Personen, Blende F5,6, 60 mm Brennweite (135 equ).
Lichtwert 15+: 2 ms
Lichtwert 14: 3 ms
Lichtwert 13: 4 ms
Lichtwert 12: 5 ms
Lichtwert 11: 6 ms
Lichtwert 10: 8 ms
Lichtwert 9-: 10 ms

Ich hätte sehr viel für eine solche Strategie übrig, die nicht höhere ISO-Werte, sondern allenfalls noch geringere ISO-Werte erlaubt, die wegen Volllaufen der Photosites derzeit nicht möglich wären.
Bei APDs gibt es kein Vollaufen, nur ein Übersteuern. Es sei denn, der Zähler ist zu mikrig dimensioniert und läuft über. Mit zu viel Licht haben APDs Probleme und auch kurze Belichtungszeiten helfen nicht weiter.
 
Zuletzt bearbeitet:
Hallo,

wenn ich das so lese, fällt mir nur ein:

Waren das nicht schöne Zeiten, als man noch um die beste Verdünnung von Rodinal diskutiert hat :D :D :D

Gruß
ewm
 
Mi67 schrieb:
:D
Jein. Mit einer einfachen Erhöhung der Vorspannung ist keine Noise-freie Verstärkung zu erzielen und es käme zu spontanten Durchbrüchen. EM-CCDs haben hingegen ein Verstärke-Ausleseregister (Gain-Register) mit z.B. 512 extragroßen Sites, durch die die Ladung der auszulesenden Signale schrittweise hindurchgeschoben wird. Bei jedem Schiebevorgang kann nun mit regelbarer geringer Wahrscheinlichkeit (ca. 0,1-10%) ein verschobenes Elektron ein oder mehrere weitere Elektronen generieren, die sich zum Signal hinzuaddieren und beim nächsten Schiebevorgang wiederum verstärkt werden können. Dieser Gain kann von 1 (überhaupt keine Verstärkung) bis 1000 eingestellt werden. Bis zu Verstärkungsfaktoren von ca. 200 funktioniert dies, ohne dass es häufiger zu Durchbrüchen, also spontan generierten Elektronen im Ausleseregister kommt. An der Wandlerelektronik kommen dann in der Tat nahezu diskrete Ladungsbündel mit z.B. Vielfachen von 200 an.

Ich hätte jetzt eher erwartet, das die Verstärkung im Durchschnitt 200 ist - aber selbst auch einer Statistik unterliegt. Wobei die Streuung grösser wird, wenn die Anzahl der Eingangselektronen steigt. (Summation des Rauschens der einzelnen voneinander unabhängigen Verstärkungsvorgängen für jedes Eingangs-Elektron) Dh. man kann so zuverlässig 1e- von keinem e- unterscheiden aber deutlich schlechter 1000e- von 990e- ... (wenn man einen integrierenden Detektor hat)
Ist das bei diesen EM-CCDs nicht so ? (ist das Rauschen des Multiplikationsvorgangs so klein ?)

Bei single-photon-counting hat man dieses Problem natürlich nicht.
Allerdings müsste man dann recht schnell auslesen - am besten hat dann wirklich jeder Pixel seine eigene Datenverarbeitungs-Einheit. Da geht einem bei den aktuellen Pixelgrössen aber einfach der Platz aus. (Möglicherweise reicht es ja Pixel Blöcke ala 64x64 zusammenzufassen und per bump bonding an die Elektronik anzuschliessen)
 
Rigger schrieb:
Ich hätte jetzt eher erwartet, das die Verstärkung im Durchschnitt 200 ist - aber selbst auch einer Statistik unterliegt. Wobei die Streuung grösser wird, wenn die Anzahl der Eingangselektronen steigt. (Summation des Rauschens der einzelnen voneinander unabhängigen Verstärkungsvorgängen für jedes Eingangs-Elektron) Dh. man kann so zuverlässig 1e- von keinem e- unterscheiden aber deutlich schlechter 1000e- von 990e- ... (wenn man einen integrierenden Detektor hat)
Ist das bei diesen EM-CCDs nicht so ? (ist das Rauschen des Multiplikationsvorgangs so klein ?)

Bei single-photon-counting hat man dieses Problem natürlich nicht.
Allerdings müsste man dann recht schnell auslesen - am besten hat dann wirklich jeder Pixel seine eigene Datenverarbeitungs-Einheit. Da geht einem bei den aktuellen Pixelgrössen aber einfach der Platz aus. (Möglicherweise reicht es ja Pixel Blöcke ala 64x64 zusammenzufassen und per bump bonding an die Elektronik anzuschliessen)
Ich bin gerade am Durchrechnen (traue keiner Statistik, die Du nicht selbst gefälscht hast). Der Verstärkungsprozeß bei EM-CCDs ist selbst auch ein rauschender Prozeß. Bei wenigen Photonen stört das nicht (Molekularbiologie, Astronomie), aber in der Photographie
sieht es mir so aus, als wenn man nur sehr geringe Verstärkungen nutzen kann. V_opt (Anzahl_der_Photonen, Ausleserauschen_des_Wandler_in_Photonen) scheint mir für größere Photonenzahlen auf Werte zwischen 1 und 2 zu fallen.

Ausweg wäre, die Dinge sehr häufig auszulesen und den fehlenden Nutzen in hellen Bildpartien zu akzeptieren.
Die Schatten würden weiterhin profitieren. Aber häufiges Auslesen geht auch wieder in die Richtung "Auswerteelektronik
separat für jede Zeile oder gar Pixel".
 
Frank Klemm schrieb:
Empfindlichkeitssprünge (was sind Quantensprünge?) wird es schon noch geben, technisches Potential bieten noch:
* weg von Bayer zu 3 Einzelsensoren: dichroitische Spiegel und 3 Sensoren ist aber zu aufwendig und Sigmas Weg ist noch in den Kinderschuhen. Faktor 2 im Helligkeitsrauschen und Faktor 4 im Farbrauschen sind theoretisch erreichbar.
Mich würde interessieren, ob Du da was Genaueres weißt, oder ob Du
eher allgemein spekulierst.

Ich glaube nämlich, dass das lange Warten, auf die nächste Generation
des Foveon-Chips, seine Ursache in einem kompletten Neudesign des
Sensors durch Sigma, oder besser Foveon ist.

Der Nachteil des Foveonkonzeptes ist es ja, dass man keine Einzelkomponenten,
wie etwa die Blausensoren in der obersten Schicht, ändern kann,
ohne alle anderen, in den darunterliegenden Schichten, auch
entsprechend anzupassen.

Da werden sicher die Sensormaterialien, Schichtdicken, die Siliziumart
der Trägerschichten, sowie die Auswertungsmatrizen komplett neu auf
dem Prüftisch gelandet sein.

Man hört ja auch einiges über andere Neuerungen wie zusätzliche Reflexionschichten
zwischen den Blau- und Grünsensoren und so einiges mehr!

Frank Klemm schrieb:
* Optimierung des Ausleserauschens von CCD- und APS-Sensoren.
* APD-Sensoren und variable Belichtungszeit. Das Raw-Bild ist keine 2D-Matrix von 12-bit-Werten, sondern eine 3D-Matrix von 1-bit-Werten. Beim Belichten stelle ich die maximale Belichtungszeit ein, am Computer kann ich diese im Raw-Converter dann lokal reduzieren.
Variable Belichtungszeiten wären natürlich optimal! :top:

Alternativ oder auch ergänzend könnte man ja auch einen Foveon bauen,
der über ein Set unterschiedlich großer Pixelsensoren verfügt, wie es
Fuji bei der S3 macht um die Dynamik erhöhen.
Frank Klemm schrieb:
Ersetze "einfach" durch "einfacher". Einfach sind 1:1,0 Optiken nie.
Ansonsten ist dieser Schritt schon längt ÜBERFÄLLIG.
Ein solches Objektiv würde einen Fokuspunkt jedenfalls immer superexakt treffen! :top:
Wenn die Tiefenschärfe nur noch einen mm oder so beträgt, dürfte der
Fokus dann eigendlich nie mehr daneben liegen! ;)
Frank Klemm schrieb:
Was ist an Parallelität eine Notlösung? Serialisierung ist eher eine Notlösung.
Sehe ich auch so.
Ist wie der Unterschied zwischen prozeduralen und objektorientierter Programmierung.
Die meißten kapieren das Prizip nicht. :(
Dabei braucht man sich doch nur mal die Top 500 http://www.top500.org/ anzusehen,
vorzugsweise die BlueGene-Boliden ganz vorne! ;)

Frank Klemm schrieb:
Definiere rauschfrei. Rauschfrei ist kein Sensor. Nenne mir den SNR (ohne Rauschfilterung), den Du haben willst und die Empfindlichkeit und ich sage Dir die Größe der Pixel. Bei 1 mm x 1 mm pro Pixel sind Megapixelsensoren nicht mehr tragbar ;-)

Naja, vermutlich sind die dann doch ziemlich sperrig! :D

Schönen Gruß
Pitt
 
WERBUNG
Zurück
Oben Unten