• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang und Pixelgröße

jenne

Themenersteller
Man sagt ja, dass der Dynamikumfang besser wird, wenn die Pixelgröße steigt. Angenommen eine 12,8 MP FF-Kamera hat 9,0 Blenden Dynamikumfang, wie auch eine 5 MP-APS-C-Kamera. Wieviel Blenden erreicht dann ungefähr eine 6 MP-FF-Kamera bei vergleichbarer Bildbearbeitung? (ca. doppelte Pixelgröße)
Zusatzfrage: Ist der Dynamikumfang bei der 5D bei Iso50 sichtbar besser als bei Iso100?
j.
 
Der Dynamikumfang hängt wohl primär von der full well capacity auf der einen Seite und dem Rauschen auf der anderen ab. Kodak veröffentlich z.B. diese Daten für seine Sensoren.

Beides hängt von vielerlei Faktoren ab.

Ich z.B. kenne ja noch nicht mal die Pixelgröße einer 5D, was ich kenne ist die Größe der Mikrolinsen, aber die sagt herzlich wenig über die fwc aus, sondern nur über die "Lichtsammelleistung".

Ich hoffe mal, es mögen sich Leute mit mehr Ahnung als ich zum Thema äußern...

mfg
 
Cephalotus schrieb:
Der Dynamikumfang hängt wohl primär von der full well capacity auf der einen Seite und dem Rauschen auf der anderen ab. Kodak veröffentlich z.B. diese Daten für seine Sensoren.

Beides hängt von vielerlei Faktoren ab.

Ich z.B. kenne ja noch nicht mal die Pixelgröße einer 5D, was ich kenne ist die Größe der Mikrolinsen, aber die sagt herzlich wenig über die fwc aus, sondern nur über die "Lichtsammelleistung".

Ich hoffe mal, es mögen sich Leute mit mehr Ahnung als ich zum Thema äußern...

mfg


......... dazu kommt, daß die Zusammenhänge zwischen Sensorgröße und Dynamikumfang nichtlinear sind und die Realwerte auch noch von der Technik (CCD / CMOS) und der Generation abhängen. Ich glaube, so wie gewünscht quantifizierend vergleichen kann man das überhaupt nicht! Ein solcher Versuch würde enden wie schon der berühmte Dreisatz: "Ein Schwimmer schwimmt 50 m in 48 Sekunden. Wie lange braucht er von Dresden zum Nordpol?................"
 
Welchen Einfluss die Pixelgröße auf den Dynamikumfang hat, kann ich zwar nicht genau sagen, denke aber eher einen geringen. Denn die aktuellen DSLRs haben ja durchweg einen von ca. 9 Blendenstufen.
Der Dynamikumfang hängt primär vom verwendeteten Halbleitermaterial des Sensors ab. Ein CMOS oder CCD nimmt die Energie des Lichtes durch Photozellen auf. Diese bestehen eben aus einem Halbleiter (Silizium). Ich gehe jetzt lieber nicht tiefer in die Physik, aber diese Photozellen haben eine bestimmte Empfindlichkeit. Um einen hohen Dynamikumfang zu bekommen, muss so eine Photozelle für "dunkles" und für "helles" Licht möglichst gleich empfindlich sein.
 
bubabo schrieb:
Welchen Einfluss die Pixelgröße auf den Dynamikumfang hat, kann ich zwar nicht genau sagen, denke aber eher einen geringen.
Aha. :confused:

Denn die aktuellen DSLRs haben ja durchweg einen von ca. 9 Blendenstufen.
Soso, und das in jedem Pixel? :confused:

Der Dynamikumfang hängt primär vom verwendeteten Halbleitermaterial des Sensors ab. Ein CMOS oder CCD nimmt die Energie des Lichtes durch Photozellen auf. Diese bestehen eben aus einem Halbleiter (Silizium).
Was nun, verschiedene Halbleiter oder alle das gleiche Silizium? ;)

Ich gehe jetzt lieber nicht tiefer in die Physik, aber diese Photozellen haben eine bestimmte Empfindlichkeit. Um einen hohen Dynamikumfang zu bekommen, muss so eine Photozelle für "dunkles" und für "helles" Licht möglichst gleich empfindlich sein.
Hui, "dunkles Licht"!? ;)

Dabei hat Ceph´ es doch schon so schön erklärt.
 
Etwas möchte ich noch hinzufügen.

Die meisten leute geben Dynamikumfang gerne als gesamtes an, also z.B. "9 Blenden" (wobei es eh keinen Standard gibt, wo man diese Grenze denn überhaupt zieht, aber lassen wir das mal beiseite).

Wer z.B. in RAW fotografiert und so belichtet, dass alles möglichst ins Histogramm passt, der fährt mit dieser Betrachtungsweise scherlich richtig.

Die entsprechende Gammkurve für ein gefälliges Bild erzeugt man dann per EBV, bei 12bit pro Kanal gibts da ja kein Problem.

Mein Ansatz in der "normalen Fotografie" ist hingegen ein anderer.

Ich will, dass meine Kamera 18% Grau auch als 18% Grau darstellt und das Bild richtig belichtet.

Von diesem Mittelwert ausgehend ergeben sich dann zwei Dynamikbereiche, sagen wir mal z.B. 5 Blenden in den Schatten und 4 Blenden in den Lichtern.

In 99% aller _meiner_ Alltagsmotive habe ich in der digitalen Fotografie (bei ISO 100) absolut kein Problem mit den Schatten, da wäre mir persönlich 1 Blende mehr reichlich egal.
Ganz anders hingegen die Lichter. Hier habe ich digital wesentlich mehr Probleme und 1 Blende mehr würde für mich "Welten" bedeuten.

Ich persönlich bevorzuge also eine Kamera mit einem großen Spielraum in den Lichtern, das muss keinesfalls die Kamera sein, die den größten Gesamtdynamikumfang hat.

mfg
 
Was nun, verschiedene Halbleiter oder alle das gleiche Silizium?
Welches Halbleitermaterial für die CMOS-Sensoren der DSLRs verwendet werden kann ich dir auch nicht genau sagen. Früher kam Silizium zum Einsatz, heute würde ich auf Verbindungshalbleiter tippen. Das sind Stoffe, die aus mindestens 2 Elementen bestehen und dieselben Eigenschaften, wie reine Halbleiter haben.
Soso, und das in jedem Pixel?
Hmm, das kommt darauf an, welches Pixel du betrachtest. Wenn du ein Pixel des fertigen Bildes betrachtest, wurde es ja aus mehreren Pixeln nach dem Bayer-Muster berechnet. Während ein Pixel des Sensors nur einen festen Helligkeitswert hat. Der vom Hersteller angegebene Dynamikumfang bezieht sich auf das fertige Bild.
Wenn du einen großen Dynamikumfang haben willst, muss jedes Pixel des Sensors möglichst gleich empfindlich sein.

Letztendlich hängt der maximale Dynamikumfang von der Empfindlichkeit der Photozellen ab. Durch die Berechnung jedes einzelnen Bildpunktes und Nachbearbeitung in der Kamera kann dieser nur geringer werden und nicht zunehmen.
Hui, "dunkles Licht"!?
Ich weiß, der Ausdruck gefällt mir selbst nicht. Ist etwas schwierig das Thema so zu erklären, damit es jeder versteht. Mit Formeln der Physik wollte ich lieber nicht anfangen;)
 
Naja, wie auch immer. Jedenfalls ist der Zusammenhang nicht so einfach berechenbar zu sagen, wenn die das hat, dann muss die das haben.

Bei der 5D sind die ISO 50 übringens in der Dynamik schlechter als die Iso 100 (AXL hat das ganz eindrucksvoll gezeigt). Wohl, weil es irgendwie keine "richtigen" sondern gedämpfte (negativ gepushte? Hey, es ist Freitag, Ihr wisst, was ich meine) ISOs sind.
 
Gibts überhaupt eine Canon-Kamera, bei der die ISO 50 & 3200 nicht gepuscht sind? Selbst bei der 1Ds MII ist das so...
 
@arne9001 & Carsten Bürgel:

Zunächst muss man wissen, was die ISO-Einstellung an einer Digitalkamera bewirkt. Der Sensor erfasst das Licht in Form von elektrischer Ladung. D. h. jedes Pixel hat nach der Aufnahme einen bestimmten Ladungsbetrag. Dieser ist jedoch unabhängig von der gewählten ISO-Stufe. Würde man das gleiche Bild unter exakten Lichtverhältnissen mit unterschiedlichen ISO-Stufen aufnehmen, hätte das Pixel immer den gleichen Ladungsbetrag.
Beim Auslesen des Sensors in der Kamera wird der Ladungsbetrag jedes Pixels verstärkt (dies macht die CMOS-Struktur). Je höher die ISO-Einstellung desto höher die Verstärkung. Mit der höheren Verstärkung werden auch mehr Fehler des Sensors sichtbar, dies zeigt sich in Form von Rauschen.

Im Bereich von 100 bis 1600 ISO (bei aktuellen Canon-Modellen) gelingt die Verstärkung so gut, dass der gesamte von den Photozellen zur Verfügung stehende Dynamikumfang ausgenutzt wird. Pusht man nun auf 3200 oder 50 ISO so werden die Ladungen eines Pixels entweder zu stark (bei 3200) oder zu schwach (bei 50) verstärkt. Dadurch kann es passieren, dass entweder die Lichter oder die Tiefen schwächer "verstärkt" werden als die restlichen Bildanteile, wodurch der Dynamikumfang sinkt.

Ich hoffe, es ist verständlich ausgedrückt, aber das Thema ist ohne Fachkenntnisse schwierig zu verstehen.
 
bubabo schrieb:
Ich hoffe, es ist verständlich ausgedrückt, aber das Thema ist ohne Fachkenntnisse schwierig zu verstehen.

Dann rück mal raus mit den Fachkenntnissen und den physikalischen Formeln und rede nicht um den heißen Brei herum, wenn Du es wirklich besser weißt...

Deswegen sind wir ja hier.

Ob wirs dann verstehen oder nicht lass mal unsere Sorge sein.

mfg
 
arne9001 schrieb:
Bei der 5D sind die ISO 50 übringens in der Dynamik schlechter als die Iso 100 (AXL hat das ganz eindrucksvoll gezeigt). Wohl, weil es irgendwie keine "richtigen" sondern gedämpfte (negativ gepushte? Hey, es ist Freitag, Ihr wisst, was ich meine) ISOs sind.

Stimmt, die Lichter reissen eher aus bei 50 ISO als bei 100, ergo kann man 50 ISO am besten bei kontrastarmen Verhältnissen nutzen, was natürlich das Einsatzgebiet sehr einschränkt, denn wenn man 50 ISO haben will ists ja meist sehr hell...:rolleyes:
 
bubabo schrieb:
Je höher die ISO-Einstellung desto höher die Verstärkung. Mit der höheren Verstärkung werden auch mehr Fehler des Sensors sichtbar, dies zeigt sich in Form von Rauschen.
Aha, würde also der Sensor fehlerfrei zu bauen sein, dann wäre der Noise also ebenfalls weg? DEN Sensor hätte ich gerne!

Im Bereich von 100 bis 1600 ISO (bei aktuellen Canon-Modellen) gelingt die Verstärkung so gut, dass der gesamte von den Photozellen zur Verfügung stehende Dynamikumfang ausgenutzt wird.
Und wieviele Photonen (oder durch Photonen erzeugte Elektronen) existieren Deiner Meinung nach noch bei ISO-1600 pro mittelgrau belichtetem Pixel? Wie hoch ist die statistische Streuung der Photonen in diesem Bereich? Wie hoch liegt die Zahl der im Pixel gespeicherten Ladungstrennungen (Elektronen) über der Zahl des Rauschens (ebenfalls in Elektronen) im Auslesevorgang?

Pusht man nun auf 3200 oder 50 ISO so werden die Ladungen eines Pixels entweder zu stark (bei 3200) oder zu schwach (bei 50) verstärkt.
Bei ISO-3200 wird meist gar nicht mehr verstärkt als bei ISO-1600, sondern es werden aus dem A/D-Wandler die Daten per bitshift um Faktor 2 nach oben "korrigiert".

Dadurch kann es passieren, dass entweder die Lichter oder die Tiefen schwächer "verstärkt" werden als die restlichen Bildanteile, wodurch der Dynamikumfang sinkt.
Wenn die Lichter aber nun mal an die Ladungskapazitätsgrenze der Einzelpixel stossen? In diesem Fall kann keine noch so schwache oder starke Verstärkung des saturierten Wertes mehr eine Durchzeichnung erzeugen. Das Bild frisst daher hart in den Lichtern aus.

Ich hoffe, es ist verständlich ausgedrückt, aber das Thema ist ohne Fachkenntnisse schwierig zu verstehen.
Ganz offensichtlich ist das so.
 
Nun an sich kann man schonmal anfangen damit, dass es keine Streuung der Photonen gibt. Wenn ein Photon auf eine Pixel trifft, trifft es dieses Pixel und kein anderes. Ne Streuung ist dort nicht vorhanden.
Die ISO hat bei dem ganzen Vorgang erstmal überhaupt nichts zu tun.
Wenn ich 10 Photonen auf einen Pixel schieße und damit 10 Elektronen aus dem Halbleiter "rauschieße", dann bleiben das immernoch 10 Elektronen, ob ich nun 50 ISO oder 3200 ISO hab.
Der Unterschied kommt erst dann zum Tragen, wenn die schon benannten A/D Wandler aus den 10 Elektronen ( bei ISO 100) eben 20 Elektronen bei ISO 200 machen ( verstärken).

Das Rauschen an sich hat ja nicht wirklich was mit dem Sensor zu tun, sondern mit der verwendetet Verstärkung der ankommenden Signale. Einen Perfekten Sensor gibt es nicht ( eventuell bei -270 Grad oder so als Supraleiter), da durch die Thermik immer Elektronen aus dem Silizium rausgeschlagen werden ( oder durch vorhandene radioaktive Strahlung). Dies wird man nicht abschalten können, egal wie man den Sensor baut.
Der Grund warum kleinere Pixel "mehr" rauschen als größere Pixel ist einfach nur an der stärkeren Verstärkung festzumachen.
Wenn die Lichter aber nun mal an die Ladungskapazitätsgrenze der Einzelpixel stossen? In diesem Fall kann keine noch so schwache oder starke Verstärkung des saturierten Wertes mehr eine Durchzeichnung erzeugen. Das Bild frisst daher hart in den Lichtern aus.
Nun, dafür ist ja die Belichtungszeit da, um zu verhindern, dass solche Szenarien passieren.
Wie sagt man so schön, etwas zu dunkles heller machen geht immer, aber was zu helles dunkel machen geht nicht.

Den Dynamikumfang kann man ( der Hersteller) am besten damit erhöhen, dass er die Ausleseempfindlichkeit des Verstärkers verbessert und dieser dann ein größeres Spektrum auslesen kann, ohne dabei fehler zu machen.
Leider ist dies auch nicht mehr leicht und erfordert viel Forschungsarbeit.
 
danhieux schrieb:
Nun an sich kann man schonmal anfangen damit, dass es keine Streuung der Photonen gibt. Wenn ein Photon auf eine Pixel trifft, trifft es dieses Pixel und kein anderes. Ne Streuung ist dort nicht vorhanden.
Die ISO hat bei dem ganzen Vorgang erstmal überhaupt nichts zu tun.
Wenn ich 10 Photonen auf einen Pixel schieße und damit 10 Elektronen aus dem Halbleiter "rauschieße", dann bleiben das immernoch 10 Elektronen, ob ich nun 50 ISO oder 3200 ISO hab.

Der Witz an der Sache ist nur die, dass aus einem "gleichmäßig blauen Himmel" die Photonen nicht schön eins neben dem anderen auf die Pixel verteilen, sondern auf dem einem 11 auftreffen und auf dem daneben 9.

Und dagegen hilft alle Technik der Welt nichts.



Das Rauschen an sich hat ja nicht wirklich was mit dem Sensor zu tun, sondern mit der verwendetet Verstärkung der ankommenden Signale. Einen Perfekten Sensor gibt es nicht ( eventuell bei -270 Grad oder so als Supraleiter), da durch die Thermik immer Elektronen aus dem Silizium rausgeschlagen werden ( oder durch vorhandene radioaktive Strahlung). Dies wird man nicht abschalten können, egal wie man den Sensor baut.
Der Grund warum kleinere Pixel "mehr" rauschen als größere Pixel ist einfach nur an der stärkeren Verstärkung festzumachen.

Nun, das thermsiche Rausche steigt aber dummerweise mit den großen Pixeln genauso an wie die eingefangene Photonen.
Schließlich werden in einem großem Pixel logsicherweise auch mehr "Fehlersignale" entstehen.

Aber das thermische Rauschen spielt wohl (?) nur bei längeren Belichtungszeiten eine wichtige Rolle.

Nun, dafür ist ja die Belichtungszeit da, um zu verhindern, dass solche Szenarien passieren.
Wie sagt man so schön, etwas zu dunkles heller machen geht immer, aber was zu helles dunkel machen geht nicht.

Naja, wer nur Grautaflen fotografiert kommt damit klar und wird kaum Probleme mit dem Dynamikumfang bekommen. Der Rest der Welt besteht dummerweise aus unterschiedlich hellen Teilen.


Den Dynamikumfang kann man ( der Hersteller) am besten damit erhöhen, dass er die Ausleseempfindlichkeit des Verstärkers verbessert und dieser dann ein größeres Spektrum auslesen kann, ohne dabei fehler zu machen.
Leider ist dies auch nicht mehr leicht und erfordert viel Forschungsarbeit.

Das Rauschen zu verkleinern ist sicherlich schon mal eine Option.

Das zweite (und vielleicht viel einfachere?) wäre aber am anderen Ende anzugreifen und die maximale "Photonen"-Aufnahmefähigkeit (nicht Empfindlichkeit!) des Pixels zu erhöhen.

Mir erscheint, dass der derzeitige Ansatz mit kleinen Pixeln und großen Mikrolinsen (für hohe Empfindlichkeit) dem genau entgegengesetzt wirkt.

mfg
 
Cephalotus schrieb:
Nun, das thermsiche Rausche steigt aber dummerweise mit den großen Pixeln genauso an wie die eingefangene Photonen.
Schließlich werden in einem großem Pixel logsicherweise auch mehr "Fehlersignale" entstehen.


Bei grossen Pixeln mitteln sich die Störereignisse eher heraus.

Nimm an der Sensor produziert 10+-3 Fehlelektronen pro µm^2
Bei einem Sensor mit in Kompaktkameramanier hast du schnell jede Menge Rauschen(gerne mal 30%), bei einem FF/APS-Sensor kannst du relativ problemlos einfach Fläche mal durchschn. Fehler abziehen(Bei 10µm Kantenlänge bleibts bei 3%). Das Nutzsignal wird im Vergleich zum übrigbleibenden Rauschen deutlich besser.
 
RSM schrieb:
Bei grossen Pixeln mitteln sich die Störereignisse eher heraus.

Nimm an der Sensor produziert 10+-3 Fehlelektronen pro µm^2
Bei einem Sensor mit in Kompaktkameramanier hast du schnell jede Menge Rauschen(gerne mal 30%), bei einem FF/APS-Sensor kannst du relativ problemlos einfach Fläche mal durchschn. Fehler abziehen(Bei 10µm Kantenlänge bleibts bei 3%). Das Nutzsignal wird im Vergleich zum übrigbleibenden Rauschen deutlich besser.
Das ist nicht korrekt.
Ein 4-fach grösseres Pixel generiert (bei linear skalierter Bauweise) grob gesagt auch 4 Mal mehr thermische Elektronen. Ein stochastisches Signal, dessen Intensität sich vervierfacht, steigt auch im Rauschen, nämlich um den Faktor Wurzel(4), also 2-fach. Da derDunkelstrom in Form der Schwarzpunkt-Setzung subtrahiert wird, bleibt das gestiegene thermische Rauschen beim größeren Pixel durchaus übrig. Eine Verbesserung gegenüber dem Nutzsignal ergibt sich also nicht per se aus der Vergrößerung des Pixels, sondern erst dann, wenn das Nutzsignal auch wirklich gegenüber dem gestiegenen Rauschen überproportional steigt, oder wenn das gleiche Nutzsignal bei entsprechend reduzierter Belichtungszeit erhalten werden kann.

Aber nochmal generell: Thermisches Rauschen spielt erst ab Belichtungszeiten oberhalb 1/10 s eine real messbare und oberhalb 1 s eine real sichtbare Rolle. Die geeignetste Gegenmaßnahme dagegen machen uns die Astrofotografen vor: 1. Kühlen und 2. stochastisches Rauschen aus Bildserien herausrechnen.
 
danhieux schrieb:
Nun an sich kann man schonmal anfangen damit, dass es keine Streuung der Photonen gibt. Wenn ein Photon auf eine Pixel trifft, trifft es dieses Pixel und kein anderes. Ne Streuung ist dort nicht vorhanden.
Es ging um die statistische Streuung eines in Ganzzahlen auftretenden Signals mit dem Mittelwert 10.

Der Unterschied kommt erst dann zum Tragen, wenn die schon benannten A/D Wandler aus den 10 Elektronen ( bei ISO 100) eben 20 Elektronen bei ISO 200 machen ( verstärken).
Der A/D-Wandler wandelt (und rauscht), verstärkt aber selbst nicht. Du meintest die Signalverstärkung, die entweder on-chip oder in der Auslesestufe bzw. im Ausleseregister geschieht. In der Praxis ist es leichter all die komplexen Wechselspiele dieser Rausch-Komponenten zusammenzufassen und als read-out-noise anzugeben, der die Untergrenze des Dynamikumfanges limitiert.

Das Rauschen an sich hat ja nicht wirklich was mit dem Sensor zu tun, sondern mit der verwendetet Verstärkung der ankommenden Signale.
*DAS* Rauschen ist nicht auf eine einzige Komponente reduzierbar. Ebenso wie es einen read-out-noise gibt, gibt es auch einen shot-noise, der bei hohen ISO-Werten sogar durchaus die führende Komponente des im Bild erkennbaren Noise bildet.

Einen Perfekten Sensor gibt es nicht ( eventuell bei -270 Grad oder so als Supraleiter), da durch die Thermik immer Elektronen aus dem Silizium rausgeschlagen werden ( oder durch vorhandene radioaktive Strahlung). Dies wird man nicht abschalten können, egal wie man den Sensor baut.
Derzeit ist es so. Dies heisst aber nicht, dass es für alle Zeiten so bleiben müsse. Wer weiss, vielleicht gibt es ja mal Sensoren, die die Energieprofile der Signal-auslösenden Quanten erkennen können und damit zwischen thermischen, optischen und extrem hochenergetischen Prozessen unterscheiden können ... (zuendespinn)

Den Dynamikumfang kann man ( der Hersteller) am besten damit erhöhen, dass er die Ausleseempfindlichkeit des Verstärkers verbessert und dieser dann ein größeres Spektrum auslesen kann, ohne dabei fehler zu machen. Leider ist dies auch nicht mehr leicht und erfordert viel Forschungsarbeit.
Ja, durch weiteres Absenken des read-out-noise kann man durchaus noch einiges wettmachen. Ein Hauptproblem dabei ist, dass die Leute immer mehr Pixel und immer höhere Bildwiederholungsfrequenzen wollen. Damit muss die Pixel-clock im Auslesevorgang stark gesteigert werden, was jenseits eines kompliziert zu berechnenden (ich kann es nicht) Optimums wieder zwangsläufig zum Ansteigen des Ausleserauschens führt. Die derzeit trickreichsten Verfahren hierzu betreffen die mehrstufige on-chip-Verstärkung, die bei den Canon CMOS-Bauteilen schon sehr gut implementiert ist. Die absoluten Oberhammer sind aber CCD-Chips, die ein eigens konstruiertes Verstärkungsregister zur Elektronenmultiplikation besitzen. Sie kommen an das Ideal der Einzelphotonenzählung derzeit so nah heran, wie es kein anderes optisches Bildgebungsverfahren schafft. Dennoch, selbst wenn der Sensor absolut fehlerfrei ist, dann rauschen die Photonen immer noch. Daher wird der ISO nie unbegrenzt steigerbar sein, sondern er findet sein natürliches Limit an der stochatischen "Streuung" (s.o., bzw. shot-noise) der Photonen.
 
Mi67 schrieb:
Das ist nicht korrekt.
Ein 4-fach grösseres Pixel generiert (bei linear skalierter Bauweise) grob gesagt auch 4 Mal mehr thermische Elektronen.

Ich habe auch nicht über thermisches Rauschen geschrieben.
Rauschen entsteht durch diverse Störungen, und eben diese treten bei grösseren Photosites gleichmässiger verteilt auf.
Damit wird aus einer zufälligen Fehlerverteilung eine Systematische, die sich leicht beseitigen lässt.
 
Der A/D-Wandler wandelt (und rauscht), verstärkt aber selbst nicht. Du meintest die Signalverstärkung, die entweder on-chip oder in der Auslesestufe bzw. im Ausleseregister geschieht. In der Praxis ist es leichter all die komplexen Wechselspiele dieser Rausch-Komponenten zusammenzufassen und als read-out-noise anzugeben, der die Untergrenze des Dynamikumfanges limitiert.
sorry mein Fehler :rolleyes:

*DAS* Rauschen ist nicht auf eine einzige Komponente reduzierbar. Ebenso wie es einen read-out-noise gibt, gibt es auch einen shot-noise, der bei hohen ISO-Werten sogar durchaus die führende Komponente des im Bild erkennbaren Noise bildet.
Ich hab da eher was anderes gemeint als du ;)
Mein Ansatz war jetzt so, Beispiel: Ein Siliziumchip hat auf der Gesamten Fläche sagen wir mal 100 "Rauschelektronen". Diese 100 "Rauschelektronen" hat der Chip nun so oder so. Ob da nun 3 MP oder 10 MP drauf sind ist erstmal soweit sekundär ( es fängt erst wirklich an was auszumachen wenn die Atomlagen so dünn sind, dass schon wieder Tunneleffekte auftreten.
Der große Unterschied ist nur, dass man bei kleinen Pixeln weniger "gewünschte" Elektronen herausbekommt als bei größeren Pixeln. Es muss als stärker verstärkt werden und dies verstärkt die "Rauschpixel" dann auch gleich noch mit.

so und jetzt hab ich Aufgrund von Chataktivitäten den Faden verloren und find ihn nicht mehr :wall: :D :D
 
WERBUNG
Zurück
Oben Unten