• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Sensor mit höherem Dynamikumfang

Nun, bei der D700, die ja ohne Zweifel aktuelle Sensortechnologie bietet, haben wir auf die Crop 1,6-Fläche bezogen 4,6875 MP. Ist bei einem Bild, dass aus dieser Fläche gewonnen wird, die Dynamik wirklich deutlich höher, als bei einer 7d oder einer D300s?

Wenn bei der D700 im DX Modus und der D300s dasselbe Motiv aufgenommen wird schätze ich mal ja. Die D300s kam 1 Jahr später als die D700. Der D300s Sensor kann also weiter entwickelt sein. Müssen wir warten bis DXO die D300s getestet hat. Laut DXO is die Differenz zwischen der D300 und D700 ca. 1,5 EV. Möglich das das bis auf 1 EV schrumpft.
 
Das Thema gab es ja schon öfter, nur unter anderem Namen:
https://www.dslr-forum.de/showpost.php?p=5597608&post=343
Um die Dynamik des Sensors an sich zu verbessern, würde ich "einfach" die Eimerchen tiefer machen. Scheint aber nicht so einfach zu sein. Nach dem aktuellen Stand der Technik sind IMHO noch viel mehr Faktoren für die Dynamik bestimmend:
https://www.dslr-forum.de/showthread.php?p=5578666#post5578666
Alles zusammen ist der Sensor bei ca. 1 Blendenstufe vor dem theoretischen Limit angekommen und signifikante Verbesserungen sind auch noch bei der nachgeschalteten Elektronik zu erreichen.

Noch ein paar Beiträge dazu:
https://www.dslr-forum.de/showpost.php?p=5597869&post=346
https://www.dslr-forum.de/showpost.php?p=5598378&post=351
https://www.dslr-forum.de/showpost.php?p=5598476&post=355
https://www.dslr-forum.de/showpost.php?p=5602682&post=450
 
Auch die sagenhaften Dynamikumfänge, die für das menschliche Auge angegeben werden, sind eher theoretischer Natur. Um Kontraste im Umfang eines Sonnentags und einer Neumondnacht zu bewältigen, braucht das Auge ungefähr eine Stunde Zeit, wobei jedes bißchen Störlicht die volle Dunkelanpassung verhindert. Nicht umsonst sehen selbst sehr natürlich (keine Halos, keine Über- oder Entsättigung) gemachte Tonemappings irgendwie komisch aus, eben weil man in der Natur solch große Dynamikumfänge nicht sehen kann.

Das war bisher die beste Antwort zum Thema.
Und DXO glaub ich kein Wort solange nicht sicher Nachgewiesen ist wie Dynamikumfang überhaupt gemessen wird.
gruß Andre
 
...
Um die Dynamik des Sensors an sich zu verbessern, würde ich "einfach" die Eimerchen tiefer machen. Scheint aber nicht so einfach zu sein.
...

Ist auch irgendwie logisch, dass das nicht so einfach ist. Während ganz unten in den Tiefen bereits wenige Photonen genügen um eine Verdoppelung der Helligkeit zu erhalten (1 zu 2, 2 zu 4, 4 zu 8 etc.) müssen es in den Lichtern u.U. Millionen von Photonen sein.

Angenommen die zwei letzten messbaren Helligkeitswerte wären ein Sprung von 500.000 Photonen auf 1.000.000 Photonen, so müssten für die nächste Stufe der Helligkeit bereist 2.000.000 Photonen aufgenommen und gemessen werden können. Noch eine Stufe weiter wären es bereits 4.000.000 Photonen.
 
Die Sensorfläche is doch bei allen gleich. Wenn es nur an der Fläche liegt müsste die DR bei allen dreien gleich sein. Is sie aber nicht. Sensoren werden aber kontinuierlich weiter entwickelt. Die DR steigt trotz sinkender Pixelgröße. Hätten wir heute anstatt 18 nur 8 Mpixel auf einem APS-C Sensor wäre die DR deutlich höher.

Ja was den nun.
Die Unterschiede in der Fläche von Knipse über FT zum KB zeigt mehr Dynamik. Dein Einwand. Stimmt so nicht.
Es ist nicht die Fläche sondern die größeren Pixel.
Darauf zeige ich, zunehmend kleiner werdende Pixel bei gleichbleibender Fläche, die mehr Dynamik zeigen.
Klarer geht es doch nicht.
Größere Pixel sind nicht die Dynamikbringer.
Wenn dann ist es der Sensorfortschritt und die Fläche.

MfG
Fritz
 
Interessant zu wissen wäre, wie viel Luft noch nach unten ist.

Das heiß, wie viele Photonen sind notwendig bis der erste Grauwert nach Schwarz erkannt wird. Wären es bisher z.B. 8 Photonen so könnten durch bessere Messung, zumindest theoretisch noch 3 Blenden zu erzielen sein (8 zu 4, 4 zu 2, 2 zu 1). Wobei bei so geringer Messbasis die Fehlinterpretation sicher recht hoch ausfallen würde.
 
Ist auch irgendwie logisch, dass das nicht so einfach ist. Während ganz unten in den Tiefen bereits wenige Photonen genügen um eine Verdoppelung der Helligkeit zu erhalten (1 zu 2, 2 zu 4, 4 zu 8 etc.) müssen es in den Lichtern u.U. Millionen von Photonen sein.

Angenommen die zwei letzten messbaren Helligkeitswerte wären ein Sprung von 500.000 Photonen auf 1.000.000 Photonen, so müssten für die nächste Stufe der Helligkeit bereist 2.000.000 Photonen aufgenommen und gemessen werden können. Noch eine Stufe weiter wären es bereits 4.000.000 Photonen.
Nö. Die Sättigungsladung real vegetierender Bildsensoren liegt bei ca. 50.000 Elektronen, die Quantenausbeute bei ca. 30-40%, so dass man allenfalls auf 150.000 Photonen kommt, d.h. die letzte Stufe hätte gerade mal 75.000 Photonen.

Mit einem Ausleserauschen von ca. 2 Elektronen RMS (5DII) kommt man auf einen Dynamikbereich von 25.000:1, praktisch etwas weniger, so dass 14 Bit zur Quantisierung ausreichen. Daran wird sich in den nächsten 5 Jahren wenig ändern, das Rauschen wird man kaum auf 1 Elektron RMS senken können. Allenfalls kann man die Quantenausbeute durch BSI verdoppeln, das wäre dann eine ISO-Stufe mehr...
 
@Ockham,

mir ist nicht ganz klar wozu du "Nö" sagst. Zu meine fiktiven Zahlen, zur Aussage als ganzes? Vielleicht bis du so lieb und hilfst mir auf die Sprünge.:)
 
Alles Klar, danke.

Die Zahlen waren ja eh nur fiktiv (u.U.), da ich keine Ahnung hatte welche Menge an Photonen real ausgelesen werden.

Dank deinem Hinweis ist jetzt klar: ca. 75.000 Photonen. Danke.:)

Das heißt also, um eine Blende mehr bei den Lichtern zu erreichen, müssten 75.000 Photonen mehr differenziert werden können. Noch eine Blende mehr würde dann schon weitere 150.000 Photonen fassen müssen. Und so weiter.

Der Blick von Wolfgang_R auf das Schachbrett ist da ja auch ganz Anschaulich.:)

Damit kann man große Hoffnungen an eine deutlich Entwicklung zu mehr Dynamik wohl eher begraben.
 
Nö. Die Sättigungsladung real vegetierender Bildsensoren liegt bei ca. 50.000 Elektronen, die Quantenausbeute bei ca. 30-40%, so dass man allenfalls auf 150.000 Photonen kommt, d.h. die letzte Stufe hätte gerade mal 75.000 Photonen.
...

Jetzt muss ich doch noch mal nachfragen. Die Menge der Photonen, auf die man maximal kommt muss doch auch von der Pixelgröße abhängen? Bei welcher Größe sind die 75.000 / 150.000 Photonen gegeben?
 
Jetzt muss ich doch noch mal nachfragen. Die Menge der Photonen, auf die man maximal kommt muss doch auch von der Pixelgröße abhängen? Bei welcher Größe sind die 75.000 / 150.000 Photonen gegeben?
Bei Pixelgrößen wie bei der 5DII z.B. also ca. 6.4µm. Klar, dass in kleinere Pixel weniger reinpasst.
 
Bei Pixelgrößen wie bei der 5DII z.B. also ca. 6.4µm. Klar, dass in kleinere Pixel weniger reinpasst.
Im Prinzip ja, sagt Radio Eriwan. Dafür sind es dann eben mehr Pixel und nur der Füllfaktor spielt noch eine Rolle, abhängig davon wie dicht man die Pixel zusammen kriegt oder wie gut die Mikrolinsen den Zwischenraum ausgleichen.
Unterm Strich also (fast) Patt.
 
Eine Antwort auf die meine Frage zum Mond und seinem Hof würde mich noch immer interessieren. Weiß Jemand was?

Wenn der Mond von einem Hof umgeben wird, und man so belichtet, dass der Hof sichtbar ist, dann erscheint der Mond nur als weiße Scheibe. Belichtet man so, dass die Struktur des Mondes erkennbar ist, dann erscheint alles darum herum nur als Schwarz.

Wie viele Blenden Dynamik wären erforderlich, um die Szenerie zu erfassen?
 
Ist ja grad günstig (Vollmond). :D

Abgesehen davon erschließt sich mir die Forderung nach mehr Dynamikumfang nur bedingt. Während klar ist, daß ein höheres Potential immer ein Vorteil ist, auch wenn man es nicht nutzt, kann man froh sein auf Ausgabemedien einen Dynamikumfang von 1:1000 zu bekommen, was die aktuell verfügbaren DSLRs durchaus bedienen können.


Ich finde das schon erstrebenswert. Schafft die Kamera einen hohen Dynamikumfang, kann ich zuhause in Ruhe die Dynamik für das Ausgabemedium komprimieren und erhalte so wieder meinen gewohnten Seheindruck.Es würde halt die Fälle, wo man sich zwischen ausgefressenen Lichtern und abgesoffenen Schatten -- oder beidem -- entscheiden muß, verringern.
 
Etwas mehr Dynamik wäre noch möglich, da die Verarbeitungskette derzeit etwa so aussieht (Beispiel 5D Mark II):

Licht -> Quanteneffizienz ca. 35% (Grünkanal) -> max. Sensorfüllgrad rund 2^16 -> Reduktion um 2 EV, da Ausleserauschen 2,x , also > 2 und damit 2 statt 1 Bits (ergo Base-ISO 400) -> 14-Bit-ADC -> Quantisierungsrauschen rund 2 Bits, d.h. Ergebnis < 12 Bits. Gemessen knapp > 10 EV.

Mögliche Ansetzpunkte:
- Licht: wird das Pixel größer, sammelt es mehr Licht. Fläche nur noch minimal vergrößerbar durch bereits genannte Verlagerung der Signalpfade zwischen den Pixeln auf deren Unterseite, außerdem sind die Mikrolinsen ja bereits ohne Zwischenräume. Vertiefung der Pixel kaum weiter möglich, da Eindringtiefen von Wellenlänge abhängig,
- Quanteneffizienz: evtl. mit Verbesserung der aktuellen Lithografieverfahren noch kleinere Auslesekreise für die Pixel möglich, d.h. erhöhte Effizienz (bei CCD schon bis zu 85%)
- Ausleserauschen: Absenkung auf 1,x Elektronen eher unwahrscheinlich, schon wegen thermischer Effekte. Möglich auch, dass kleinere Auslesekreise wieder ein höheres Ausleserauschen bedingen.
- ADCs mit höherer Genauigkeit gibt es, allerdings deutlich teurer und auch langsamer. Im Moment machen > 14 Bit keinen Sinn; sollten die ersten beiden Punkte verbessert sein, wird es evtl. 16 Bit ADCs geben, die 14 oder vielleicht auch irgendwann 15 Bit ausgeben. Ganz ohne Digitalisierungsrauschen wird es auf Elektronenebene kaum gehen.

D.h. mit heute üblichen Pixelgrößen ist bei einer theoretischen Dynamik von 17-18 EV, real vermutlich 2-3 EV weniger das Ende des CMOS/Active Pixel Sensor erreicht.

Und, wie bereits mit dem Schachbrettmuster angesprochen: was nutzen einem 14 EV, wenn es in den unteren Bits zu wenig und in den oberen zu viele Abstufungen gibt?

Die einzige Lösung ist ein Sensor, welcher analog dem menschlichen Auge aufzeichnet: nämlich logarithmisch. Da gibt es z.B. den Digital Pixel Sensor

*****
 
WERBUNG
Zurück
Oben Unten