• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtstarke Optiken vor dem Aus?

lichtstarke optiken stehen in zukunft bestimmt nur in prosumern mit rauschärmeren sensoren und anti-shake vor dem aus. freistellungsvermögen durch geringe schärfentiefe ist durch NICHTS zu ersetzen
 
Cephalotus schrieb:
Gehe ich recht in der Annahme, dass Rauschen von drei Faktoren gebildet wird.
Es sind noch mehr, aber die genannten drei gehören dazu. Hinzu kommen noch: Effekte des Bayer-demosaic auf das Lumineszenz- und Chroma-Rauschen, bei JPEG-Ausgabe zusätzlich gleich in der Kamera die Effekte einer Farbraumzuweisung und das Kodierungsrauschen.

1. Signalrauschen (=Photonenverteilung), was heute aber bei unseren DSLRs noch absolut keine Rolle spielt. Dieser Einfluss hängt unmittelbar von der Pixelgröße ab.
Im Gegentum: das Signalrauschen ist die führende Komponente bei hohen ISO-Werten. Selbst wenn wir wegen einer Quanteneffizienz von 20-50% mehrere Photonen benötigen, um im Schnitt eine Ladungstrennung hervorzurufen, ist die Zahl der erfolgten Ladungstrennungen immer noch zu einem guten Teil mit dem Rauschen behaftet, der durch das ankommende Signal bedingt ist. Ob dieses Rauschen im Sensorsignal, also der sog. "shot noise" im Bild relevant wird, hängt in der Tat von der Größe der Photosite ab, mit dem Einfluss der Pixelgröße liegst Du also richtig. Die Pixelgröße entscheidet u.a. über die sog. "full well capacity", also wieviel Ladung eine Photosite speichern kann. Dieser Wert liegt heutzutage bei ca. 20.000 für große Pixel (z.B. 7 µm) und ca. 2.000-3.000 für Minipixel von 2,5-3 µm. Beim Auslesen ergibt aber nicht jedes Elektron einen Bitwert, sondern es wird mit z.B. einem Umsetzungsverhältnis von 10 Elektronen = 1 Helligkeitswert gearbeitet, das Ausleserauschen liegt dabei z.B. bei 20 Elektronen. Wir haben also bei jeweils niedrigstem ISO (z.B. ISO 100) in großen Pixeln 500-1.000 sinnvolle Helligkeitsstufen und kann durch die interne 10-12-Bit Datenverarbeitung gut abgebildet werden. Bei Kompaktknipsen haben wir nur ca. 100-200 sinnvolle Helligkeitsstufen, wie gesagt bei niedrigstem ISO. Steigern wir nun den ISO um Faktor 2, so wird die Photosite in den Lichtern mit nur noch der Hälfte der Signale befüttert, und die DSLR schafft noch sinnvolle 250-500 Helligkeitsstufen, die Kompakte gar nur 50-100. Dies permutiert dann in Richtung ISO-1600 zu 32-64 Stufen in der DSLR und 4-8 Stufen in der Kompaktkamera. BEi so geringen Anzahlen von Stufen, spielt die Stochastik der Photonen schon stark mit hinein. Ausserdem: alle Feinabstufungen, die unterhalb dieser "sinnvollen Stufen" liegen, werden durch das Ausleserauschen später stochastisch verteilt sein, d.h. rauschen.

2. Dunkelrauschen, das aber heute auch nur bei Langzeitaufnahmen oder extrem hohen Temperaturen eine Rolle spielt und durch große Pixel eh nicht kleiner werden kann, da es in gleichem Maße wie das Signal mit der Pixelfläche skaliert.
Ja, das Rauschen des Dunkelstromes spielt nur bei Belichtungszeiten eine Rolle, die nicht mehr aus der Hand haltbar sind. Die Astrofotografen machen daher lieber Bilderserien und rechnen diese mit etwas Statistik nachträglich zusammen, um damit besser Signal von Rauschen trennen zu können.

3. Ausleserauschen, heute der wesentliche Bestandteil. Dieser ist bei großen und kleinen Pixel gleich groß (?????) und die großen pixel rauschen heute deswegen weniger, weil das Singal dann auch größer ist.
Das Ausleserauschen skaliert tatsächlich nicht direkt mit der Pixelgröße, wohl aber das Rauschen einer Verstärkerstufe, die notwendig ist, um das Signal eines Minipixels so weit anzuheben, dass es vernünftig nach digital gewandelt werden kann. Im Grunde läuft der Vorverstärker der Kompaktkamera auf Einstellungen, die bei einer DSLR erst bei höheren ISO-Werten eingenommen werden.

Würde es nun ein Hersteller schaffen, das Ausleserauschen seines Sensors stark zu minimieren, dann wäre die Pixelgröße plötzlich egal, solange man sich nicht ISO Empfindlichkeiten annährt, bei denen dann das Photonenrauschen (oder wie immer man das nennt) der dominierende Faktor ist?
Der Signal/Rauschabstand ist immer gegeben als: max. Pixelkapzität (in Elektronen) geteilt durch Ausleserauschen (in Elektronen). In der Pixelkapazität steckt weiterhin die Größe der Photosite drin, aber ganz richtig: das Absenken des Ausleserauschens ist immer ein wünschenswerter Faktor, der allerdings aus mehreren sub-Faktoren zusammengesetzt ist (z.B. eine on-chip-Voverstärkung und die A/D-Wandlung selbst).

Ganz grob kann man sagen, dass das Rauschen bei niedrigem ISO vornehmlich die Güte der A/D-Wandlerelektronik zeigt, während das Rauschen bei höheren ISO-Werten zusätzlich die Güte der Vorverstärkung reflektiert. Bei extrem hohen ISO-Werten wird dann meist ohnehin nur aus der Wandlerstufe ein Bitshift gerechnet, also z.B. aus einer 12-bit-Wandlung nicht mehr Bit 3-12 genutzt, sondern Bit 2-11 usw..
 
Skater schrieb:
Naja, schade ;)
Als Sigma-Besitzer wüßte ich etwas mehr ISO durchaus zu schätzen.
Die Konkurrenz läßt bei den ISO´s ja wenig Wünsche offen, wäre toll,
wenn Sigma/Foveon in diesem Punkt gleichziehen könnte! :)

Nun ja, ich war da jetzt nicht soweit in der Zukunft wie Du.

Ich könnte mir sowas halt als festverdrahteten Zwischenschritt hin zu
Deinen variablen Belichtungszeiten vorstellen.

Ich vermute mal, dass diese einen Steuerungsaufwand bedeuten, den
heute noch niemand bezahlen kann, sofern man das technisch
überhaupt schon hinbekommt. :(

Der Einsatz von CMOS läßt einiges hoffen. Dort bringt man auf 150 mm2 500.000.000 Transistoren unter. Das sind 200 Transistoren pro Pixel, d.h. 30 Gatter. Damit wird eine gewisse Grundverarbeitung pro Pixel langsam möglich.

Skater schrieb:
Hmmm, wenn sowas mal gebaut wird, kann man die Software beim Stacken
ja entscheiden lassen, dass die überlaufenden Bereiche nicht mehr
übernommen werden, wenn sie dann jede Zeichnung verlieren.

Hilft nicht. Entweder ist das Überlaufen ein Problem der Raw-Shooter-Software (und man muß diese von 16 bit auf 24 oder 32 bit umstellen) oder es sind die Einzelbilder schon überbelichtet.

Skater schrieb:
Bzw. man muß den Farbraum doch ohnehin dem größeren Dynamikbereich anpassen.
Heutige Bilddateiformate müßten ohnehin überarbeitet werden, weil diese eher auf Bildschirmspeicher als auf die Physik und Wahrnehmungsphysiologie abgestimmt sind.

Skater schrieb:
Wenn ich das jetzt richtig verstanden habe, wird die Belichtungsauslesung
in dem Moment unterbrochen, wo die ersten Pixel überlaufen.

Nein. Dieser Prozeß wird für jedes Pixel (oder kleine Pixelgruppen von 2x2 oder 4x4 Pixel) getrennt gemacht und dient auch nur dazu, die Datenmenge zu begrenzen und nicht Gigabyte...Terabyte pro Bild zu erzeugen.

Du hast ein ähnliches Problem wie am CERN in Genf (die interessantesten Ballerspiele für Physiker).
Du bekommst Datenströme von 1 TByte/s und würdest am liebsten alles speichern. Aber das kannst Du weder speichern noch jemals auswerten. Spezialhardware komprimiert und reduziert die Daten vor, damit die Datenmenge handhabbar bleibt.

Jedenfalls sollte beim anschließenden Stacken genug Intelligenz in der
Software drin sein, als dass man auf den Graufilter verzichten kann. :cool:

Graufilter wird benötigt, wenn es Situationen gibt, in denen Lichtwerte auftreten können, die der Sensor nicht mehr abdeckt.

* CCDs: kürzeste Belichtungszeit läßt Sensor überlaufen (vielleicht kann so ein Sensor nur noch 1000 Photonen statt 100.000 Photonen pro Auslesevorgang sammeln, bei 1/125 s und 64fach-Auslesen stört das aber nicht mehr und bei 1/8 s ist
der Sensor konventionellen überlegen).
* APDs: Ab einer gewissen Helligkeit bekommt man nur noch die Maximalrate und der Sensor erhitzt sich.
 
Mi67 schrieb:
Im Gegentum: das Signalrauschen ist die führende Komponente bei hohen ISO-Werten. Selbst wenn wir wegen einer Quanteneffizienz von 20-50% mehrere Photonen benötigen, um im Schnitt eine Ladungstrennung hervorzurufen, ist die Zahl der erfolgten Ladungstrennungen immer noch zu einem guten Teil mit dem Rauschen behaftet, der durch das ankommende Signal bedingt ist.

Hmm, aber wenns heute schon soweit ist, dann gibt es ja eh kein Verbesserungspotential in der Hinsicht mehr, gegen das Schrotrauschen ist man ja völlig machtlos bei gegebener Pixelgröße.

Ob dieses Rauschen im Sensorsignal, also der sog. "shot noise" im Bild relevant wird, hängt in der Tat von der Größe der Photosite ab, mit dem Einfluss der Pixelgröße liegst Du also richtig. Die Pixelgröße entscheidet u.a. über die sog. "full well capacity", also wieviel Ladung eine Photosite speichern kann. Dieser Wert liegt heutzutage bei ca. 20.000 für große Pixel (z.B. 7 µm) und ca. 2.000-3.000 für Minipixel von 2,5-3 µm.

Die Größe der Photosite korreliert aber nicht automatisch mit der Pixelgröße = Größe der Mikrolinsen, oder ?
Vor allem bei CMOS sollte das doch ein Nachteil sein, da der Füllfaktor doch deutlich geringer ist ?

Im Gegenzug dazu haben dann Sensoren mit hohem Füllfaktor einen höhere "full well capacity".
Ich weiß die Daten jetzt nur von den Kodak Sensoren in E-1 und E-300, da ist die Kapazität bei 25.500 e- bzw 40.000 e-

Somit wäre doch z.B. die full well capacity dieser Sensoren für deren Pixelgröße recht hoch, oder?


Beim Auslesen ergibt aber nicht jedes Elektron einen Bitwert, sondern es wird mit z.B. einem Umsetzungsverhältnis von 10 Elektronen = 1 Helligkeitswert gearbeitet, das Ausleserauschen liegt dabei z.B. bei 20 Elektronen. Wir haben also bei jeweils niedrigstem ISO (z.B. ISO 100) in großen Pixeln 500-1.000 sinnvolle Helligkeitsstufen und kann durch die interne 10-12-Bit Datenverarbeitung gut abgebildet werden. Bei Kompaktknipsen haben wir nur ca. 100-200 sinnvolle Helligkeitsstufen, wie gesagt bei niedrigstem ISO. Steigern wir nun den ISO um Faktor 2, so wird die Photosite in den Lichtern mit nur noch der Hälfte der Signale befüttert, und die DSLR schafft noch sinnvolle 250-500 Helligkeitsstufen, die Kompakte gar nur 50-100. Dies permutiert dann in Richtung ISO-1600 zu 32-64 Stufen in der DSLR und 4-8 Stufen in der Kompaktkamera. BEi so geringen Anzahlen von Stufen, spielt die Stochastik der Photonen schon stark mit hinein. Ausserdem: alle Feinabstufungen, die unterhalb dieser "sinnvollen Stufen" liegen, werden durch das Ausleserauschen später stochastisch verteilt sein, d.h. rauschen.

Ich glaub, ich habs kapiert.

Was genau gibt dann Kodak mit dem "sensor noise" von 16 e- bzw 17 e- an ?

Ist damit das Ausleserauschen gemeint ?

(edit: mein Denkfehler ist vermutlich, dass man das S/N Verhältnis nicht in den hellsten Bereichen eines Bildes misst)

Der Signal/Rauschabstand ist immer gegeben als: max. Pixelkapzität (in Elektronen) geteilt durch Ausleserauschen (in Elektronen).

Das wäre dann im Falle der E-1 bei ISO 100:

40.000 / 17 = 2350.

Kann das sein? Das erschiene mir sehr hoch...

In der Pixelkapazität steckt weiterhin die Größe der Photosite drin, aber ganz richtig: das Absenken des Ausleserauschens ist immer ein wünschenswerter Faktor, der allerdings aus mehreren sub-Faktoren zusammengesetzt ist (z.B. eine on-chip-Voverstärkung und die A/D-Wandlung selbst).

Ich fasse also zusammen.

Die Größe der Photosite bestimmt mir die Größe der full well capacity, und zwar besteht da zwischen Fläche und fwc ein (weitgehend) linearer Zusammenhang ?

(Frage am Rande: Könnte man Photosites auch _dicker_ machen, damit sie mehr e- speichern können ?)

Die Fläche der photosite = Fläche des Pixels * fillfactor. ?

Man bekommt also bei manchen Sensoren (CMOS vor allem) dank der Mikrolinsen zwar viele Photonen drauf und ein starkes Signal, hat aber dennoch eine recht begrenzte Aufnahmekapazität der eigentlichen Photosite ?
Ist das richtig?

Ansonsten:

Wenn es jemandem gelänge, das Ausleserauschen seines Sensors zu halbieren wäre damit bzgl S/N ganz genausoviel gewonnen, wie wenn er die Größe der Photosite verdoppelt hätte ?

mfg

PS: Die Daten der Kodak Sensoren habe ich deswegen als Beispiel genommen, weil ich wusste wo die zu finden sind. Für andere Sensoren ahbe ich sowas bisher nicht gefunden.

PPS: Hier die Daten zum Sensor aus E-300 / E-500:
http://www.kodak.com/global/plugins/acrobat/en/digital/ccd/products/fullframe/KAF-8300CELongSpec.pdf

Die Orginaldaten zum Sensor der E-1 weiß ich grad nicht mehr, das wesentliche steht aber z.B. hier:
http://www.digitaldingus.com/articles/oct/kaf8300ce.php
 
Zuletzt bearbeitet:
Beaker80 schrieb:
Liegt es nicht sogar im Interesse der führenden Hersteller die Empfindlichkeit nicht weiter zu steigern? Wer würde denn bei rauschfreien ISO 25600 noch ein 300mm 2.8 kaufen?

Soviel wird an der Überlegung dran sein: Lichtstarke Optiken werden (mehr noch als heute schon) ein Gerät für die Anspruchsvollen werden. Die sind dann auch bereit, Geld dafür in die Hand zu nehmen. Das breite Volk bekommt billige lichtschwache Objektive und hohe ISO-Werte. Das sieht man ja heute schon an den IS-Objektiven.
 
Cephalotus schrieb:
Hmm, aber wenns heute schon soweit ist, dann gibt es ja eh kein Verbesserungspotential in der Hinsicht mehr, gegen das Schrotrauschen ist man ja völlig machtlos bei gegebener Pixelgröße.
Nun, man kann immer noch die Quantenausbeute erhöhen und parallel versuchen, die full-well-capacity weiter hochzutreiben, damit die zusätzlichen Elektronen auch genutzt werden können, ohne dann unfreiwillig den tiefsten ISO von ISO-100 auf ISO-200 oder gar ISO-400 steigern zu müssen. Die Statistik würde sich dadurch nochmal deutlich verbessern lassen - bei jeder gegebenen Pixelgröße. Die bereits mehrfach erwähnte 3CCD-Lösung mit dichriotischen Spiegeln wäre wiederum eine Maßnahme mit ca. einer Blendenstufe Potential.

Die Größe der Photosite korreliert aber nicht automatisch mit der Pixelgröße = Größe der Mikrolinsen, oder?
Die photosite ist der Teil des Sensors, der tatsächlich Ladung speichert, der fill-factor kann bei Lichtsammlung mit Mikrolinsen trotz kleiner Photosites auf nahezu 100% gepusht werden, ohne dass dies der S/R-Statistik unbedingt dienlich wäre, da hier ja die full-well-capacity wichtiger ist als der fill factor.

Vor allem bei CMOS sollte das doch ein Nachteil sein, da der Füllfaktor doch deutlich geringer ist?
Ja, theoretisch sollten CCDs hier einen Vorteil haben. Allerdings ist durch trickreiche on-chip-Logik/Nachverstärkung der CMOS anderweitig im Vorteil.

Im Gegenzug dazu haben dann Sensoren mit hohem Füllfaktor einen höhere "full well capacity".
nicht notwendigerweise

Ich weiß die Daten jetzt nur von den Kodak Sensoren in E-1 und E-300, da ist die Kapazität bei 25.500 e- bzw 40.000 e-
Somit wäre doch z.B. die full well capacity dieser Sensoren für deren Pixelgröße recht hoch, oder?
Gerade bei der E-300 wäre dieser Wert durchaus sehr beachtlich - uder ist die Zuordnung nicht eher 40.000 bei der E-1 mit den größeren Pixeln und 25.500 bei der E-300? Eine CCD-Kamera hier im Labor hat z.B. bei 8,8 µm-Pixeln ein full-well bei 50.000 Elektronen. Wir lägen also zumindest in vernünftig klingenden Bereichen.

Was genau gibt dann Kodak mit dem "sensor noise" von 16 e- bzw 17 e- an? Ist damit das Ausleserauschen gemeint?
Das weiss ich nicht genau. Von welcher Quelle sprichst Du denn? Falls es 16/17 Elektronen Ausleserauschen sein sollten, dann wäre dies ein ganz beachtlicher Wert für eine Kamera.

Das wäre dann im Falle der E-1 bei ISO 100:
40.000 / 17 = 2350. Kann das sein? Das erschiene mir sehr hoch...
Wenn die Zahl von 17 Elektronen tatsächlich das Ausleserauschen beschreibt, dann könnte es wohl stimmen. Was Dir nun noch fehlt, ist eine Angabe zum Umsetzungsverhältnis des A/D-Wandlers. Vernünftigerweise läge diese im Bereich knapp kleiner als das Rauschen, also so um die 10-12 Elektronen pro Bitstufe.

Die Größe der Photosite bestimmt mir die Größe der full well capacity, und zwar besteht da zwischen Fläche und fwc ein (weitgehend) linearer Zusammenhang?
Bei gleicher Bauart der Photosites so gut wie ja. In Sachen Sensorpixel-Abstand ist das nicht ganz gleichzusetzen, da das größere Pixel noch den Vorteil hat, dass die evtl. konstant dicken Leiterbahnen weniger von der aktiven Fläche mopsen.

(Frage am Rande: Könnte man Photosites auch _dicker_ machen, damit sie mehr e- speichern können ?)
Leider keine Ahnung, klänge aber wünschenswert.

Die Fläche der photosite = Fläche des Pixels * fillfactor. ?
Nein
photosite area = pixel area - Fläche für Leiterbahnen - Fläche evtl. Isolatoren
der fill factor beeinflusst nicht die Fläche der photosite, sondern er steigert die Quanteneffizienz der Sensorfläche.

Man bekommt also bei manchen Sensoren (CMOS vor allem) dank der Mikrolinsen zwar viele Photonen drauf und ein starkes Signal, hat aber dennoch eine recht begrenzte Aufnahmekapazität der eigentlichen Photosite ?
Ist das richtig?
Hier fehlt mir leider die Kenntnis der Spezifikationen zu den entsprechenden Sensoren.

Ansonsten:
Wenn es jemandem gelänge, das Ausleserauschen seines Sensors zu halbieren wäre damit bzgl S/N ganz genausoviel gewonnen, wie wenn er die Größe der Photosite verdoppelt hätte ?
Jawohl. Allerdings steigert das Verringern des Ausleserauschens die Dynamik in den Schatten und erlaubt eine ISO-Steigerung, während die Vergrößerung der Kapazität der Photosite zunächst mal die Dynamik in den Lichtern steigert, also bei sonst gleichen Parametern eine ISO-Senkung zuliesse.

Die Daten der Kodak Sensoren habe ich deswegen als Beispiel genommen, weil ich wusste wo die zu finden sind. Für andere Sensoren ahbe ich sowas bisher nicht gefunden.
Ganz richtig. Ich hangle mich bei meinen Rechnereien ohnehin mehr an wiss. Kameras entlang, denn sie interessieren mich mehr und zu denen gibt es wenigstens halbwegs anständige Specsheets. ;)
 
Mi67 schrieb:
Es sind noch mehr, aber die genannten drei gehören dazu. Hinzu kommen noch: Effekte des Bayer-demosaic auf das Lumineszenz- und Chroma-Rauschen, bei JPEG-Ausgabe zusätzlich gleich in der Kamera die Effekte einer Farbraumzuweisung und das Kodierungsrauschen.
Bayer-Demosaik, JPEG und so was lassen wir mal weg. Wenn man empfindliche Detektoren haben will, dann sollte man von Bayer die Finger lassen und JPEG so einstellen, daß es keine
Rolle spiegelt (JPEG-12 bit, JPEG LL bzw. geringe Kompressionrate).

Im Gegentum: das Signalrauschen ist die führende Komponente bei hohen ISO-Werten.
Quantenrauschen spielt bei niedrigen ISO und hellen Stellen die Hautptrauschquelle dar. Aber dort fällt es meist weniger auf.
Es ist die Ursache, warum helle Stellen gegenüber dunklen Stellen (z.B. 5% gegenüber 80% Reflexivität) bei geringen ISO
nicht 16x, sondern nur 4x rauschärmer sind.

Ja, das Rauschen des Dunkelstromes spielt nur bei Belichtungszeiten eine Rolle, die nicht mehr aus der Hand haltbar sind. Die Astrofotografen machen daher lieber Bilderserien und rechnen diese mit etwas Statistik nachträglich zusammen, um damit besser Signal von Rauschen trennen zu können.

Mehrfachbelichtung mit N Auslesevorgängen bringt bei Astro nicht so viel. Das Read-Out steigt an (RON*sqrt(N)), das Quantenrauschen bleibt konstant (sqrt(Q)), Übersteuerungsprobleme hat man selten.
Dunkelrauschen hat leider die gleiche zeitliche Statistik wie
die anderen Rauscharten.

Das Ausleserauschen skaliert tatsächlich nicht direkt mit der Pixelgröße, wohl aber das Rauschen einer Verstärkerstufe, die notwendig ist, um das Signal eines Minipixels so weit anzuheben, dass es vernünftig nach digital gewandelt werden kann. Im Grunde läuft der Vorverstärker der Kompaktkamera auf Einstellungen, die bei einer DSLR erst bei höheren ISO-Werten eingenommen werden.
Noch schlimmer bei Camcordern. Die dort notwendigen Vorverstärkungen werden von D-SLRs nie verwendet.

Bei extrem hohen ISO-Werten wird dann meist ohnehin nur aus der Wandlerstufe ein Bitshift gerechnet, also z.B. aus einer 12-bit-Wandlung nicht mehr Bit 3-12 genutzt, sondern Bit 2-11 usw..

Das hoffe ich nicht. Ich hoffe, daß nur die Gradationkurve umgeschaltet wird und damit ein verbesserter Headroom für Lichter entsteht.

So was in der Art (in eckigen Klammer der SNR)

ISO 100:
* geringe Vorverstärkung 1,0
* 100.000 Photonen = 200% Helligkeit = 4000 (max)
* 50.000 Photonen = 100% Helligkeit = 2000 (weiß) [160]
* 9.000 Photonen = 18% Helligkeit = 370 (grau) [49]
* 2.000 Photonen = 4% Helligkeit = 80 (schwarz) [15]

ISO 200:
* geringe Vorverstärkung 1,0
* 100.000 Photonen = 400% Helligkeit = 4000 (max)
* 25.000 Photonen = 100% Helligkeit = 1000 (weiß) [101]
* 4.500 Photonen = 18% Helligkeit = 180 (grau) [29]
* 1.000 Photonen = 4% Helligkeit = 40 (schwarz) [8,3]

ISO 400:
* mittlere Vorverstärkung 2,0
* >51.200 Photonen = 410% Helligkeit = 4095 (max)
* 12.500 Photonen = 100% Helligkeit = 1000 (weiß) [74]
* 2.250 Photonen = 18% Helligkeit = 180 (grau) [21]
* 500 Photonen = 4% Helligkeit = 40 (schwarz) [6,2]

ISO 800:
* hohe Vorverstärkung 4,0
* >25.600 Photonen = 410% Helligkeit = 4095 (max)
* 6.250 Photonen = 100% Helligkeit = 1000 (weiß) [58]
* 1.125 Photonen = 18% Helligkeit = 180 (grau) [18]
* 250 Photonen = 4% Helligkeit = 40 (schwarz) [5,6]

ISO 1600:
* sehr hohe Vorverstärkung 8,0
* >12.800 Photonen = 410% Helligkeit = 4095 (max)
* 3.125 Photonen = 100% Helligkeit = 1000 (weiß) [35]
* 562 Photonen = 18% Helligkeit = 180 (grau) [10]
* 125 Photonen = 4% Helligkeit = 40 (schwarz) [2,8]

ISO 3200:
* sehr hohe Vorverstärkung 8,0
* >12.800 Photonen = 819% Helligkeit = 4095 (max)
* 1.562 Photonen = 100% Helligkeit = 500 (weiß) [21,5]
* 281 Photonen = 18% Helligkeit = 90 (grau) [5,6]
* 62 Photonen = 4% Helligkeit = 20 (schwarz) [1,5]

ISO 6400:
* sehr hohe Vorverstärkung 8,0
* >12.800 Photonen = 1638% Helligkeit = 4095 (max)
* 781 Photonen = 100% Helligkeit = 250 (weiß) [13]
* 140 Photonen = 18% Helligkeit = 45 (grau) [3,1]
* 31 Photonen = 4% Helligkeit = 10 (schwarz) [0,8]

Neben Umschaltung des Gain-Ups erwarte ich unterschiedliche Gradationkurven und unterschiedliche Rauschfilterungen für die unterschiedlichen ISOs.

Bei ISO 100 liegt vielleicht Weiß auf dem Wert 218, der 2:1-Headroom wird auf die Werte 218...255 abgebildet und ist etwas mager.

Bei ISO 200..800 liegt vielleicht Weiß auf dem Wert 200, der 4:1-Headroom wird auf die Werte 200...255 abgebildet und ist für normale Bilder ausreichend.

Bei ISO 1600...3200 wird der Weißwert moderat reduziert, der erweiterte Headroom von 8:1 bis 16:1 wird auf die freiwerdenden Werte gestreckt. Schwarzwerte werden abgedunkelt, um das dort um sich greifende Read-Out-Noise etwas zu zähmen. Eine dann schon etwas intensivere Rauschfilterung, wie man es sonst nur von Kompakten kennt, ist leider hier auch schon notwendig.

Bei ISO 6400 verschärfen sich die Probleme nochmals. Bilder mit tiefen Schatten sind mit dieser Einstellung überhaupt nicht mehr sinnvoll machbar. Bilder mit mäßigen Kontrasten haben noch eine Chance. Für Nachtaufnahmen und geeigneter Signalaufbereitung sind aber schön durchgezeichnete Lichter möglich.
 
Mi67 schrieb:
Gerade bei der E-300 wäre dieser Wert durchaus sehr beachtlich - uder ist die Zuordnung nicht eher 40.000 bei der E-1 mit den größeren Pixeln und 25.500 bei der E-300? Eine CCD-Kamera hier im Labor hat z.B. bei 8,8 µm-Pixeln ein full-well bei 50.000 Elektronen. Wir lägen also zumindest in vernünftig klingenden Bereichen.

Das weiss ich nicht genau. Von welcher Quelle sprichst Du denn? Falls es 16/17 Elektronen Ausleserauschen sein sollten, dann wäre dies ein ganz beachtlicher Wert für eine Kamera....

Ja, die 40.000 beziehen sich auf die E-1.

Die (sehr) ausführlichen Daten zum KA-8300CE finden sich hier:

http://www.kodak.com/global/plugins/acrobat/en/digital/ccd/products/fullframe/KAF-8300CELongSpec.pdf

Du wirst damit vermutlich mehr anfangen können als ich.

Was ich da z.B. nicht kapiere ist "dark signal = 200 e- / s).

Ich interpretiere das als 200 Ladungen pro Sekunde Dunkelstromrauschen. Wenn man dann 125s lang im Dunkeln belichten würde wäre ja das komplette Bild weiß, weil jedes Pixel dann bei der Sättigung angelangt wäre.
Das ist aber definitv nicht der Fall.

mfg
 
Cephalotus schrieb:
Was ich da z.B. nicht kapiere ist "dark signal = 200 e- / s).
Ich interpretiere das als 200 Ladungen pro Sekunde Dunkelstromrauschen. Wenn man dann 125s lang im Dunkeln belichten würde wäre ja das komplette Bild weiß, weil jedes Pixel dann bei der Sättigung angelangt wäre.
Das ist aber definitv nicht der Fall.
Es ist nicht das Dunkelstromrauschen, sondern der Dunkelstrom selbst.

Siehe Kleingedrucktes weiter links: das "dark signal" ist - ebenso wie die anderen Daten - spezifiziert auf eine Temperatur von T = 60*C und eine Auslesegeschwindigkeit von 28 MHz.

Ob die tatsächlich 60°C meinen??? Dann wäre zumindest der hohe Dunkelstrom zu erklären und auch Dein Test, dass die Kamera eben nicht nach 125 s in Dunkelheit ein weisses Bild zeigt. Bei 25°C sollte - meinen Abschätzungen nach - der Dunkelstrom dann bei ca. 3-6 Elektronen/s liegen.
 
Frank Klemm schrieb:
Man sollte sich ansehen, was in der Astronomie so üblich ist. Dann merkt man, daß das was neu ist, gar nicht so neu ist. Für Widerangeaufnahmen hat man auch dort schon vor Jahren zwei- bis dreistellige Megapixelsensoren hergestellt, ein Sensor pro Waver und solche Späße.

Der fortschrittlichste funktionierende Sensor in der Röntgenastronomie hat 36cm^2 sensitive Fläche und wurde auf einem 4 Zoll Wafer produziert = 1 Wafer / 1 Device. Das ist kein Spaß sondern Realität.

Gruß

Uwe
 
Du wirst damit vermutlich mehr anfangen können als ich.

Was ich da z.B. nicht kapiere ist "dark signal = 200 e- / s).

Dunkelsignal = 200 Elektronen-Lochpaare pro Sekunde.
Man muß aber noch die Temperatur mit angeben, da man
mit einem beträchtlichen T-Gang rechnen muß. 200 Elektronen-Loch-Paare/Sekunde bei 20°C heißt so um die 30 bis 40/Sekunde bei 0°C und 0,2 / Sekunde bei -60°C.

Bei einem RON (Read-Out-Noise) von 18 e- ergeben sich Dunkelrauschzeiten, bei denen RON = DN ist, zu:
* 20°C => 1/11 sec
* 0°C => 1/2 sec
* -60°C => 90 sec

Ich interpretiere das als 200 Ladungen pro Sekunde Dunkelstromrauschen. Wenn man dann 125 s lang im Dunkeln belichten würde wäre ja das komplette Bild weiß, weil jedes Pixel dann bei der Sättigung angelangt wäre.
Mehrfach auslesen und Dunkelstromkompensation machen.
Außerdem aufpassen, daß das nicht der Maximalwert ist, der
für jedes Pixel garantiert wird. Scheint mir etwas hoch sonst zu sein.

200 e-/s DN und 18 e- RON machen aber auch mit allen Tricks keinen Sinn mehr. DN unterliegt auch der Normalverteilung, ist damit vom Quantenrauschen nicht zu trennen. Wenn ich 10 sec belichte, dann habe ich ein RON von 18 e-, ein DN-Quantenrauschen aber von sqrt(10 * 200), was etwas 45 e- ist. Oberhalb von 15 Sekunden tut sich bei so einem Sensor nichts mehr.

Weiterhin habe ich Bilder von 600 s-Belichtungen mit DSLRs.
Das DN-Rauschen wurde langsam sichtbar. Mehr aber auch nicht.
 
Frank Klemm schrieb:
Quantenrauschen spielt bei niedrigen ISO und hellen Stellen die Hautptrauschquelle dar. Aber dort fällt es meist weniger auf.
Es ist die Ursache, warum helle Stellen gegenüber dunklen Stellen (z.B. 5% gegenüber 80% Reflexivität) bei geringen ISO
nicht 16x, sondern nur 4x rauschärmer sind.
Du hast recht, ich meinte weniger die absolute Höhe des Rauschens, sondern die Qualitätsminderung in Relation zum Nutzsignal, also die Reduktion des S/N durch die Komponente des shot noise. Der shot noise wird immer dann ekelhafter führend, wenn das fertige Bild aus immer weniger Photonen gebildet werden muss, also bei hohen und höchsten ISO-Werten. Wie Du schon an anderer Stelle geschrieben hattest, verhindert der shot noise ja per se und selbst bei idealisierter Ausleseelektronik das Aufzeichnen halbwegs vernünftiger Bilder bei ISO 50.000.

Mehrfachbelichtung mit N Auslesevorgängen bringt bei Astro nicht so viel. Das Read-Out steigt an (RON*sqrt(N)), das Quantenrauschen bleibt konstant (sqrt(Q)), Übersteuerungsprobleme hat man selten.
Dunkelrauschen hat leider die gleiche zeitliche Statistik wie
die anderen Rauscharten.
Thermisches oder durch Ausleseelektronik bedingtes Rauschen ist weitestgehend stochastisch, die Nutzsignale liegen aber immer in den gleichen Pixeln. Es können daher im Verbund mit gemessenen dark frames statistische Verfahren herangezogen werden, die aus dem Rauschen das Motiv als "wahres fixed pattern" herausschälen können.

Das hoffe ich nicht. Ich hoffe, daß nur die Gradationkurve umgeschaltet wird und damit ein verbesserter Headroom für Lichter entsteht.
Das wäre zwar äusserst sinnvoll, würde aber der Linearität eines RAW-Files oder der Gamma-Definition des sRGB-Farbraumes widersprechen.
Es gab schon mal Hinweise, dass auf ISO-800 in RAW fotografiert und im Konverter auf ISO-3200 unter Erhalt des Headroom konvertiert, die Bilddaten gegenüber einem à-priori-ISO-3200-Bild deutlich mehr Lichterzeichnung enthalten.

Neben Umschaltung des Gain-Ups erwarte ich unterschiedliche Gradationkurven und unterschiedliche Rauschfilterungen für die unterschiedlichen ISOs.
Mag auch sein, dass bei extremen ISO-Werten erst beim Bayer-demosaic das Berechnungs-Kernel erweitert wird, um das Chroma-Rauschen noch halbwegs im Zaum zu halten.

Schwarzwerte werden abgedunkelt, um das dort um sich greifende Read-Out-Noise etwas zu zähmen.
...
Bei ISO 6400 verschärfen sich die Probleme nochmals. Bilder mit tiefen Schatten sind mit dieser Einstellung überhaupt nicht mehr sinnvoll machbar.
Ja, das Setzen des Schwarzpunktes wird dann ein heikles Spiel. Ob dies auch den bei extremen ISO-Werten und in den Schatten besonders auffallenden Unterschied verschiedener RAW-Konverter erklären kann?
 
Mi67 schrieb:
Die photosite ist der Teil des Sensors, der tatsächlich Ladung speichert, der fill-factor kann bei Lichtsammlung mit Mikrolinsen trotz kleiner Photosites auf nahezu 100% gepusht werden, ohne dass dies der S/R-Statistik unbedingt dienlich wäre, da hier ja die full-well-capacity wichtiger ist als der fill factor.

Ja, theoretisch sollten CCDs hier einen Vorteil haben. Allerdings ist durch trickreiche on-chip-Logik/Nachverstärkung der CMOS anderweitig im Vorteil.
Doppelbelichtungen mit
* erste Belichtung = zur Abbildung von Lichtern
* zweite Belichtung = zur Abbildung normaler Grauwerte
wird wahrscheinlich kommen. Verhältnis der Belichtungszeiten zwischen 1:4 bis 1:16 (z.B. 1/2000 s und 1/250 s). Bei High-ISO-Einstellungen kann das dann wie in der Olympus mu 800 verwendet werden.

Gegenlichtaufnahme:
* Schatten werden durch die lange Belichtungszeit abgedeckt und brauchen sich nicht nach den Lichtern zu richten!!!
* Lichter werden durch die kurze Belichtungszeit abgedeckt
Ganz richtig. Ich hangle mich bei meinen Rechnereien ohnehin mehr an wiss. Kameras entlang, denn sie interessieren mich mehr und zu denen gibt es wenigstens halbwegs anständige Specsheets. ;)
Die Chips für Kameras werden nicht so viel anders sein als
die in der Wissenschaft sein. Die Forschung düfte nicht unabhängig voneinander erfolgen.
 
Frank Klemm schrieb:
Doppelbelichtungen mit
* erste Belichtung = zur Abbildung von Lichtern
* zweite Belichtung = zur Abbildung normaler Grauwerte
wird wahrscheinlich kommen. Verhältnis der Belichtungszeiten zwischen 1:4 bis 1:16 (z.B. 1/2000 s und 1/250 s). Bei High-ISO-Einstellungen kann das dann wie in der Olympus mu 800 verwendet werden.

Gegenlichtaufnahme:
* Schatten werden durch die lange Belichtungszeit abgedeckt und brauchen sich nicht nach den Lichtern zu richten!!!
* Lichter werden durch die kurze Belichtungszeit abgedeckt
genau dieses schub ich im Thread glaube ich auch schon mal.

Die Chips für Kameras werden nicht so viel anders sein als
die in der Wissenschaft sein. Die Forschung düfte nicht unabhängig voneinander erfolgen.
Das klingt gut, denn dann ist ja vielleicht wirklich mal eine abgemilderte EMCCD-Strategie in Kamerasensoren denkbar als Maßnahme, um den readout-Noise gerade in den anfälligen Schattenpartien zu drücken.
 
Mi67 schrieb:
Das wäre zwar äusserst sinnvoll, würde aber der Linearität eines RAW-Files oder der Gamma-Definition des sRGB-Farbraumes widersprechen.
Es gab schon mal Hinweise, dass auf ISO-800 in RAW fotografiert und im Konverter auf ISO-3200 unter Erhalt des Headroom konvertiert, die Bilddaten gegenüber einem à-priori-ISO-3200-Bild deutlich mehr Lichterzeichnung enthalten.
Im Raw könnte bei ISO 800, 1600 und 3200 fast das gleiche drinstehen. Das Gain-Up läßt man identisch, man halbiert bzw. viertelt bei ISO 1600 bzw. ISO 3200 die Belichtungszeit und setzt eine Digital Gain-Up-Marker auf 2,0 bzw 4,0, den der
Raw Converter auswertet und als Startwert nimmt.

Das ist ja der Vorteil von Raw, auf Gamma und Farbraum und ähnlich Altlasten aus der Steinzeit braucht man keine Rücksicht zu nehmen. Man speichert Informationen ab.

Der Gamma-Spaß ist ohnehin nur ein furchtbar hinkendes Überbleibsel aus dem 20. Jahrhundert. Die Art der Speicherung in modernen JPEG, JPEG2000, TIFF-Formaten ist heutztage ähnlich modern wie das GIF-Format vor 10 Jahren.

Dazu auf Wunsch mehr.
 
UweW. schrieb:
Der fortschrittlichste funktionierende Sensor in der Röntgenastronomie hat 36cm^2 sensitive Fläche und wurde auf einem 4 Zoll Wafer produziert = 1 Wafer / 1 Device. Das ist kein Spaß sondern Realität.

Gruß

Uwe

Und wieviele Versuche waren wohl nötig, bis einer ohne Fehler rauskam ?

100? 1000? 10000?
 
Frank Klemm schrieb:
Doppelbelichtungen mit
* erste Belichtung = zur Abbildung von Lichtern
* zweite Belichtung = zur Abbildung normaler Grauwerte
wird wahrscheinlich kommen. Verhältnis der Belichtungszeiten zwischen 1:4 bis 1:16 (z.B. 1/2000 s und 1/250 s). Bei High-ISO-Einstellungen kann das dann wie in der Olympus mu 800 verwendet werden.

Gegenlichtaufnahme:
* Schatten werden durch die lange Belichtungszeit abgedeckt und brauchen sich nicht nach den Lichtern zu richten!!!
* Lichter werden durch die kurze Belichtungszeit abgedeckt

Die Chips für Kameras werden nicht so viel anders sein als
die in der Wissenschaft sein. Die Forschung düfte nicht unabhängig voneinander erfolgen.

Und was ist bei bewegten Motiven? Da hat die lange Belichtung dann Zeichnung in den Lichtern, aber Bewgungsunschärfe, während die kurze Belichtung dann scharf ist.

Und das setzt man dann zusammen und hat (vereinfacht) scharfe dunkle Stellen und bewegungsunscharfe helle Stellen im Bild.

Hmmm ?
 
Mi67 schrieb:
Nochmal: links kleingedruckt steht: specs gelten bei T = 60*C (also 60°C???) und redout-clock von 28 MHz.

Ich hab's gefunden. Ist nur in der ersten Tabelle angegeben.
genauso wie 5,8°C für die Halbierung/verdopplung des DN.
Macht typisch:
* +60°C => 200 e-/sec
* +50°C => 60 e-/sec
* +40°C => 18 e-/sec
* +30°C => 5,4 e-/sec
* +20°C => 1,6 e-/sec
* +10°C => 0,5 e-/sec
* 0°C => 9 e-/min
* -10°C => 2,6 e-/min
* -20°C => 0,8 e-/min
* -30°C => 14 e-/h
* -40°C => 4 e-/h

Die Grenzzeiten bei denen DN = RON ist, betragen
* +60°C => 0,08 s
* +50°C => 0,27 s
* +40°C => 0,89 s
* +30°C => 3 s
* +20°C => 10 s
* +10°C => 33 s
* 0°C => 110 s
* -10°C => 6 min0
* -20°C => 20 min
* -30°C => >1 h

Kühlen braucht man den Sensor für normale Fotographie nicht, man sollte ihn nur nicht zu sehr heizen.
Bei Deep Space-Fotographie sieht das etwas anders aus.

DN-Rauschen spielt nur in der Sahara bei gleißender Mittagshitze eine Rolle, wenn man dort mit dem Stativ Aufnahmen machen möchte und trotz der vielen Sonne noch ein Fotoobjekt findet, daß so wenig Photonen liefert, daß das Schrotrauschen dieses nicht überdeckt.

Innenaufnahme einer Dunkelkammer in der Sahara? Nur bei DSLR braucht man die nicht. Also ich finde auf die Schnelle nichts sinnvolles.
 
Cephalotus schrieb:
Und was ist bei bewegten Motiven? Da hat die lange Belichtung dann Zeichnung in den Lichtern, aber Bewgungsunschärfe, während die kurze Belichtung dann scharf ist.
Und das setzt man dann zusammen und hat (vereinfacht) scharfe dunkle Stellen und bewegungsunscharfe helle Stellen im Bild.

Umgedreht.

Lichter = kurze Belichtungszeit = scharf
Helle Flächen = in beiden Bildern = richtiges Blending wichtig
Dunkle Flächen = lange Belichtungszeit = unscharf

Gegen bewegte Objekte hilft dieses Verfahren nicht (genauso wie IS aka AS in Objektiven, KMs und Kompakten).

Dort gibt es nur die Ansätze:
* bewegte Objekte eher aus der kurzen Belichtungszeit zu blenden und erhöhtes Rauschen in Kauf zu nehmen (Belichtungszeit ist immer ein Kompromiß aus Schärfe und Rauschen).
* 3 Aufnahmen: Es lassen sich bessere Kompromisse zwischen Schärfe und Belichtungszeit für normale Flächen finden.
* Photon Counting + viele Belichtungen => Tile matching => Zusammensetzen => Bild

Weiterhin ist das Auge für Unschärfen in dunkleren Bildregionen gnädiger als wenn helle Strukturen verwischt sind.
 
WERBUNG
Zurück
Oben Unten