• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Kontrastumfang DSLR-Sensoren

  • Themenersteller Themenersteller Gast_18834
  • Erstellt am Erstellt am
...
...auch dass man so jemanden in DIN Ausschüssen mitarbeiten lässt finde ich höchst bedenklich...oder sollten die Leute, die ihm Posten und Aufträge geben etwas wissen, was wir noch nciht herausgefudnen haben? ;)
Etwas herausgefunden haben? Vielleicht jenes:
http://www.vfdkv-forum.de/profile.php?mode=viewprofile&u=178&sid=ead77f45bd886d92103b2926c03a17bf ;) :D

Aus meinen Kontaktpunkten mit Anders im DForum wurde mir klar, dass er sehr versiert ist, was die Datenverarbeitung/-aufbereitung in der Postprocessing-Software ist. Da er viel im Kompaktkamera-Sektor gewerkelt hat, in dem ja vornehmlich in JPEG gearbeitet wird und die Bilder weitestgehend bereits in der Kamera auf "Endresultat" gebracht werden, ist in diesem Bereich gerade was seine Betrachtungen zu Schärfe und Artefakte angeht, viel Wahres dran. Mit seinem Hintergrund besonders im Bereich der Informatik ist dies auch gut verständlich. Probleme sehe ich nur dann, wenn er vermutet, dass all das was die Kompakten machen (und vielleicht auch auf DSLR übertragbar wäre) tatsächlich auch in den DSLR-Systemen implementiert wäre. Da die Objektiv-spezifischen Korrekturmöglichkeiten auch die Objektivinformation benötigen, ist ein Abkleben der Kontakte immer das einfachste Mittel, um herauszufinden, welche Objektiv-spezifischen Korrekturen denn nun wirklich angewendet werden. Wäre mal echt hilfreich, wenn noch je ein Nikon-User und ein Olympus-Anwender mit relativ lichstarken Objektiven eine Offenblendenaufnahme mit und ohne Kommunikation einstellen könnten, die z.B. die Vignettierung mit und ohne Übertragungsprotokoll zeigt. Am einfachsten geht dies (zumindest bei Canon) mit nur halb verriegeltem Bajonett.
 
Zuletzt bearbeitet:
Ich habe es nur hier gesehen. Dass ein IR-Schutzfilter vor dem Objektiv besonders bei Weitwinkeloptiken ein solches Farbkippen produzieren kann, habe ich öfter gelesen. Dass dies allerdings schon herausgerechnet wird, war mir bis zu dem verlinkten Beitrag noch neu. Ist wohl alles noch etwas vorläufig zu betrachten.

Das Problem kenne ich (tritt auch bei anderen optischen Geräten auf).
"Farbkippen", wie es hier genannt wird, ist die eine Auswirkung. Bei lichtstarken Objektiven tritt dagegen nichtkorrigierbare CA auf.

An sich müssen entweder
* IR-Schutzfilter und Anti-Alias-Filter beim Objektivdesign berücksichtigt werden oder
* extrem dünn sein (z.B. aufgedampfte Schichten auf den Sensor selbst) oder
* sich im parallen Lichtweg (z.B. vor der Optik) befinden.

Das Problem tritt sowohl bei (massiven) IR-Schutzfilter wie bei (massiven) AA-Filtern auf.
 
Also brauchen die Daten des DNG-Files noch ein Bayer-demosaicing?
Ja, das brauchen die schon noch, denn sonst wäre die Datei ja 3mal so groß.
Wenn nur 8 bit gespeichert sind, dann sind doch zumindest bei niedrigen ISO-Werten Tonwertabrisse bei nachträglichen Belichtungs- bzw. Farbtemperatur-Korrekturen quasi vorprogrammiert? Wundert mich echt, dass Leica diesen Weg geht.
Die Verwunderung kann ich voll teilen. Die Tonwertabstufung ist ja noch schlechter als bei jpg, denn bei der DNG Rücktransformation, mussen die Tonwerte ja sogar wieder auf 12bit verteilt werden. Was aber hilft, ist die Tatsache, dass das Bayer-damosaicing noch gemacht werden muss. Hier werden die fehlenden Zwischentonwerte ja wieder rein interpoliert, so dass das Histogramm wieder glatt aussieht. Man erzeugt sich damit natürlich ein fein abgestufes "Mikrorauschen".
Dass ein IR-Schutzfilter vor dem Objektiv besonders bei Weitwinkeloptiken ein solches Farbkippen produzieren kann, habe ich öfter gelesen. Dass dies allerdings schon herausgerechnet wird, war mir bis zu dem verlinkten Beitrag noch neu. Ist wohl alles noch etwas vorläufig zu betrachten.
Reden wir gerade nur von dem durch den zu dünn ausgelegten IR Sperrfilter erzeugten Farbfehler? Denn kann ich doch gar nicht automatisch korrigieren. Wenn ich sage, am Rand ist der Filter gut aber in der Mitte zu schwach, kann ich nicht pauschal einfach in der Mitte das Rot absenken, denn ich hab ja keine Information, ob in dem Bild überhaupt IR enthalten war. Für echtes IR sind übrigens alle Farbmatixelemente empfindlich (ab 800nm). Das Farbkippen bei WW Objektiven mit Filter ist leicht erklärt. Die IR Sperrfilter sind in der Regel Interferenzfilter. Kommt das Licht stark von der Seite, so sieht es andere Ebenenabstände der Bedampfungen und somit ändert sich die Filterwirkung.
 
Es soll so aussehen. A/D Wandler ist 16bit. Die vier untersten bit werden weg geworfen (steht eh nur Rauschen drin). Von den verbleibenden 12bit wird die Wurzel gezogen (Gamma ähnliche Korrektur) und das Ergebnis wird in 8bit unkomprimiert abgespeichert. Da das DNG Dateiformat offen ist, kann man das ja recht zuverlässig erkennen. Wenn die Vignettierungskorrektur eingeschaltet ist, so wird sie auf jpg und dng los gelassen (hab ich nicht selbst getestet).
Das "Wurzeln" hat nichts mit Gamma/DeGamma zu tun, sondern mit dem Quantenrauschen von Licht (was seinen Hintergrund darin hat, daß Lichtsensoren im Gegensatz zu Antennen quadratische, aktive Sensoren sind).
Dieses ist proportional zur Wurzel des Signals, d.h. ein rauschmäßig äquidistantes Maßsystem (bei Vernachlässigung des zusätzlichen ReadOut-Rauschens) ist ein System, daß INT [Konstante*sqrt(Signal)] abspeichert. Konstante legt fest, wie viel Rauschen mitkodiert wird und wieviel zusätzliches Quantisierungsrauschen dazukommt. Leider kann man nicht klar zwischen Signal und Rauschen unterscheiden, d.h. es gibt keine Grenze, ab der man nur noch Rauschen wegschneidet.

Ansonsten zu Vignettierung, CAs, Verzeichnung, Scharfzeichnen:
Es ist einfacher, diese Korrekturen als Metadaten abzuspeichern als direkt in den Daten rumzufuschen (gilt für alle vier). Desweiteren sind viele Korrekturen erst nach dem Demosaiking (CA, Verzeichnung, Scharfzeichnung). Weiterhin gibt es Korrekturen, die man zusammen mit anderen Korrekturen erledigne sollte (damit man nicht zweimal fast das gleiche korrigiert) - da gilt z.B. für Verzeichnung, CA-Korrektur und perspektivisische Verzeichnung.
 
Das Farbkippen bei WW Objektiven mit Filter ist leicht erklärt. Die IR Sperrfilter sind in der Regel Interferenzfilter. Kommt das Licht stark von der Seite, so sieht es andere Ebenenabstände der Bedampfungen und somit ändert sich die Filterwirkung.

Sperrfilter kann man sowohl als Interferenzfilter wie als Absorptionsfilter implementieren. IR-Absorption wird durch Anregung der Molekülbindungen bewirkt (UV- und Röntgen durch Anregung der Elektronenhülle).

Strahlteiler dagegen müssen Interferenzfilter sein.

Die Farbfehler entstehen durch den brechungsindexabhängigen Strahlversatz beim Durchgehen von Licht durch planparallele Platten.

Suche nach IR + Absorptionsfilter:
http://www.google.de/search?hl=de&q=IR+Absorptionsfilter&btnG=Google-Suche&meta=
 
Das "Wurzeln" hat nichts mit Gamma/DeGamma zu tun, sondern mit dem Quantenrauschen von Licht (was seinen Hintergrund darin hat, daß Lichtsensoren im Gegensatz zu Antennen quadratische, aktive Sensoren sind).
Du willst mir aber jetzt nicht erklären, dass wir das Quantenrauschen der Photonen sehen können. Davon sind wir *leider* noch meilenweit entfernt.
 
Die Farbfehler entstehen durch den brechungsindexabhängigen Strahlversatz beim Durchgehen von Licht durch planparallele Platten.
Öhm, ja aber das hat den Effekt von tranversaler CA. Wir reden doch hier von Farbverfälschungen zum Bildrand. Hast du übrigens mal ausgerechnet, welche Dicke du brauchst, um einen Pixel Versatz zu bekommen? Das ist gar nicht mal so wenig.
 
Du willst mir aber jetzt nicht erklären, dass wir das Quantenrauschen der Photonen sehen können. Davon sind wir *leider* noch meilenweit entfernt.

... und nächstes Jahr wird Kennedy erschossen.

Aktuelle Sensoren sind bei höheren Lichtstärken rein schrottrauschenbegrenzt.
Nehmen wir mal aktuelle Kodak. Auslese + Dunkelstromrauschen = 18 Photonen.
Full Well Capacity = 22.000 Photonen:

Der Break Even zwischen Auslese- und Schrotrauschen liegt bei etwa 330 Photonen. Der Bereich zwischen 330 Photonen und 22.000 Photonen ist durch das Schrotrauschen (=Quantenrauschen) dominiert. Ab 3000 Photonen ist das Schrotrauschen dominant (macht mehr als 90% des Rauschens aus).

EmCCDs hat zwar zwar nicht alle Tage in den Händen, aber auch das nur, weil es Wochenenden gibt.
 
... und nächstes Jahr wird Kennedy erschossen.
Ich nehm's ja schon zurück. :)
Nehmen wir mal aktuelle Kodak. Auslese + Dunkelstromrauschen = 18 Photonen.
Kannst du mir mal sagen, wie das gemessen wird?
Full Well Capacity = 22.000 Photonen:
Das setzt aber doch QE=1 voraus. Wo liegen die Sensoren realistisch oder gehst du von EmCCDs aus?
Der Break Even zwischen Auslese- und Schrotrauschen liegt bei etwa 330 Photonen. Der Bereich zwischen 330 Photonen und 22.000 Photonen ist durch das Schrotrauschen (=Quantenrauschen) dominiert. Ab 3000 Photonen ist das Schrotrauschen dominant (macht mehr als 90% des Rauschens aus).
In dem Moment, da ich Photonenrauschen dominiert bin, kann ich doch mein Pixel immer kleiner machen und verliere keine Information. Hab ich gerade einen Denkfehler oder lehrt die Erfahrung etwas anderes?
EmCCDs hat zwar zwar nicht alle Tage in den Händen, aber auch das nur, weil es Wochenenden gibt.
Klar, wenn ich erst mal meine Photonen zählen kann bin ich glücklich und am Ziel, aber für uns ist das erst noch Zukunftsmusik.
 
Aktuelle Sensoren sind bei höheren Lichtstärken rein schrottrauschenbegrenzt.
Nehmen wir mal aktuelle Kodak. Auslese + Dunkelstromrauschen = 18 Photonen. Full Well Capacity = 22.000 Photonen:
Gar nicht mal so schlecht! Für doppelte full well capacity und 5-7 Elektronen Ausleserauschen bezahlt man schnell mal über 10.000 ? - und das bei nur 1-3 MP und Cropfaktor 3-4.

EmCCDs hat zwar zwar nicht alle Tage in den Händen, aber auch das nur, weil es Wochenenden gibt.
Wenn die Systemassemblierer mit der Einpflegung der Kamera in ihre Software mal endlich in den Tritt kämen! Will auch endlich mal unser Setup auf die EMCCD umstellen.
 
Kannst du mir mal sagen, wie das (Anm: Ausleserauschen) gemessen wird?
Dies ist Aufgabe der Sensorhersteller. Dafür müssen sie immer gleich konfigurierte Ladungsbündel an der Ausleseelektronik anbieten und Mehrfachmessungen machen. Die Statistik ergibt dass das Ausleserauschen.

Das setzt aber doch QE=1 voraus. Wo liegen die Sensoren realistisch oder gehst du von EmCCDs aus?
Eine full well capacity gibt es auch bei 2% Quanteneffizienz. Auch dann ist ein Signal irgendwann vom Photonenrauschen abhängig, selbst wenn nur jedes 50ste Photon eine Ladungstrennung auslösen sollte. Aktuelle Sensoren liegen im Grünbereich um 25-45% QE, eine EMCCD ist da keinen Deut besser. Was wirklich nohcmal einen Push gibt, ist eine back-thinned, back-illuminated Konfiguration. Diese kann allerdings mit Elektronenmultiplikation oder auch ohne diese ausgeführt sein. Eine back-illuminated CCD-Kamera mit > 80% QE bei 500 nm haben wir schon seit vielen Jahren. EMCCD gibt es erst in jüngerer Zeit.

In dem Moment, da ich Photonenrauschen dominiert bin, kann ich doch mein Pixel immer kleiner machen und verliere keine Information. Hab ich gerade einen Denkfehler oder lehrt die Erfahrung etwas anderes?
Pro Pixel akkumuliert man auch ein Ausleserauschen. Je kleiner die Pixel, desto mehr Auslesevorgänge werden benötigt, um die angestiegene Pixelanzahl zu bewältigen. Wenn dann das gesamte in einem Pixel gelagerte Ladungsbündel gegenüber dem Ausleserauschen nicht mehr dominant ist, dann ist letzteres auch nicht mehr zu vernachlässigen.

Klar, wenn ich erst mal meine Photonen zählen kann bin ich glücklich und am Ziel, aber für uns ist das erst noch Zukunftsmusik.
EMCCDs kratzen genau an dieser Schwelle. Durch das Verschmieren der Amplifikationsereignisse kann derzeit an Flächensensoren gerade noch keine diskrete Photonenzählung geleistet werden, aber die Überlappungsbereiche der Signale bei 1, 2 oder 3 Photonen könnten sich in Zukunft vielleicht auch noch trennen.
 
Dies ist Aufgabe der Sensorhersteller. Dafür müssen sie immer gleich konfigurierte Ladungsbündel an der Ausleseelektronik anbieten und Mehrfachmessungen machen. Die Statistik ergibt dass das Ausleserauschen.
Das ist ja eine vom Sensor unabhängige Art der Messung und ergibt als Rauscheinheit "Elektronen pro readout". Wie komme ich aber auf "Photonen pro readout". Einfach durch die QE teilen? Das macht ja gleich mal einen Faktor 2 aus.

Eine full well capacity gibt es auch bei 2% Quanteneffizienz. Auch dann ist ein Signal irgendwann vom Photonenrauschen abhängig, selbst wenn nur jedes 50ste Photon eine Ladungstrennung auslösen sollte.
Schon klar, aber die Statistik ändert sich. Mit QE=1 brauche ich für 22000 Photonen full well capacity (fwc) nur 22000 Photonen, macht ein Rauschen von sqrt(22000)=148 Photonen. Ist meine QE=0,5, so brauche ich für fwc aber schon 44000 Photonen und das sind in Photonenrauschen 210 Photonen. Das verrückte an der Geschichte ist, je schlechter die QE, umso leichter ist es für die Elekronik photonenrauschendominiert zu sein.

Pro Pixel akkumuliert man auch ein Ausleserauschen. Je kleiner die Pixel, desto mehr Auslesevorgänge werden benötigt, um die angestiegene Pixelanzahl zu bewältigen. Wenn dann das gesamte in einem Pixel gelagerte Ladungsbündel gegenüber dem Ausleserauschen nicht mehr dominant ist, dann ist letzteres auch nicht mehr zu vernachlässigen.
Dann passt es ja doch mit der Erfahrung zusammen. Wenn es hell ist (Photonenrauschen dominiert), kann ich die Sensorfläche klein machen und erhalte immer noch gute Bilder. Ist es dunkel, so wird das Ausleserauschen dem Photonenrauschen ebenbürtig und ich sollte große Pixel nehmen.
EMCCDs kratzen genau an dieser Schwelle. Durch das Verschmieren der Amplifikationsereignisse kann derzeit an Flächensensoren gerade noch keine diskrete Photonenzählung geleistet werden, aber die Überlappungsbereiche der Signale bei 1, 2 oder 3 Photonen könnten sich in Zukunft vielleicht auch noch trennen.
Wenn es dunkel genug ist (wenig Photonen pro Zeit), dann sollte doch auch nichts mehr verschmieren?
 
Schon klar, aber die Statistik ändert sich. Mit QE=1 brauche ich für 22000 Photonen full well capacity (fwc) nur 22000 Photonen, macht ein Rauschen von sqrt(22000)=148 Photonen. Ist meine QE=0,5, so brauche ich für fwc aber schon 44000 Photonen und das sind in Photonenrauschen 210 Photonen.

Nein. Photonen = 44000, QE = 0,5, Elektronen-Loch-Paare = 22000, das Quantenrauschen ist weiterhin sqrt(22000).

Licht ist (wie Materie überhaupt) eigentlich nur ein Feld. Es gibt stochastische Wechselwirkungsprozesse zwischen diesem Feld und dem Sensor. Diese haben bestimmte Wahrscheinlichkeiten. Bei großen Photonenzahlen wird dieser statistische Prozeß ziemlich deterministisch, weil die Poissonverteilung für große Lambda relativ gesehen sehr schmal wird.

325px-Poisson_distribution_PMF.png


Das verrückte an der Geschichte ist, je schlechter die QE, umso leichter ist es für die Elekronik photonenrauschendominiert zu sein.
Nein.
Sorry, daß ich im ersten Artikel von Photonen und nicht von absorbierten Photonen, Photonenwechselwirkungen bzw. Elektronen-Loch-Paaren geschrieben habe.
Häufig schreibt man aber nur Photonen, weil nicht absorbierte Photonen nicht berücksichtigen muß.

Wenn es dunkel genug ist (wenig Photonen pro Zeit), dann sollte doch auch nichts mehr verschmieren?
Es gibt keine Photonen. Wenn man sich Licht als Photonen vorstellt, kommt man auf allerlei falsche Ergebnisse. Deswegen immer von EM-Feld ausgehen.

Damit lassen sich auch solche Dinge wie "squeezed light" besser verstehen.

Zu QE:
Da tummeln sich auch schon etliche Sensoren im Bereich zwischen 0,9 und 1,0 (zumindest im Empfindlichkeitsoptimum). >0,8 ist schon seit einigen Jahren nichts besonders mehr.
Das ganze gilt für Einfarbensensoren. Bayer liegt um den Faktor 3 bis 4 drunter.
 
Zuletzt bearbeitet:
Ich nehm's ja schon zurück. :)
Kannst du mir mal sagen, wie das gemessen wird?

RO-Noise und FWC ganz einfach: Man mißt
* die Rauschspannung am Ausgang (µV),
* die maximale Ausgangsspannung (mV) und
* die Übersetzungsfunktion (µV/Photon) durch gezielten Lichtbeschuß.

Für das Verhältnis RO-Noise zu FWC braucht man keine optischen Messungen. Das ist einfach das Verhältnis Rauschen zu maximaler Ausgangspannung.
 
Sorry, daß ich im ersten Artikel von Photonen und nicht von absorbierten Photonen, Photonenwechselwirkungen bzw. Elektronen-Loch-Paaren geschrieben habe.
Häufig schreibt man aber nur Photonen, weil nicht absorbierte Photonen nicht berücksichtigen muß.
Ich sollte so spät einfach nichts mehr schreiben, da kommt eh nur Müll raus. :ugly:

Eigentlich wollte ich folgendes sagen: Ich habe ja nur begrenzt Licht zur Verfügung. Bei einer willkürlich gewählten Beleuchtung kommen 1000 Photonen durch die Optik und werden dem Sensorelement angeboten. Bei einer QE=1 beträgt das S/N=31,6. Sinkt die QE auf 0,5 so ist das theoretisch mögliche S/N nur noch 22,4; bei QE=0,3 -> S/N=17,3 u.s.w. Je schlechter die Quantenausbeute, ein umso geringerer S/N der Elektronik reicht um quantenlimitiert aufnehmen zu können. Da bei den Sensoren aber das Ausleserauschen unabhängig vom Signal angegeben wird, sind theoretisch beliebig hohne S/N Werte von der Elekronik erreichbar und nur vom fwc abhängig. Ist das Ausleserauschen wirklich so unabhängig vom Signal? Wenn ja, war das hier eine sehr theoretische Betrachtung.

Kennt ihr eigentlich die Seite von Roger Clark? Ich hatte die mal vor einem Jahr gefunden, aber inzwischen ist der Informationsgehalt förmlich expodiert. So langsam glaube ich, er lässt keine Frage unbeantwortet. Da muss ich mich mal durch arbeiten, wenn ich ein paar Tage Zeit habe.

http://www.clarkvision.com/imagedetail/index.html
 
Eigentlich wollte ich folgendes sagen: Ich habe ja nur begrenzt Licht zur Verfügung. Bei einer willkürlich gewählten Beleuchtung kommen 1000 Photonen durch die Optik und werden dem Sensorelement angeboten. Bei einer QE=1 beträgt das S/N=31,6. Sinkt die QE auf 0,5 so ist das theoretisch mögliche S/N nur noch 22,4; bei QE=0,3 -> S/N=17,3 u.s.w. Je schlechter die Quantenausbeute, ein umso geringerer S/N der Elektronik reicht um quantenlimitiert aufnehmen zu können.
Korrekt, allerdings findet dies dann auch auf dem Boden eines relativ schlechten S/N statt. Es ist eine Argumentation wie: "Mit dem Porsche darf ich in der Schweiz ohnehin nur 120 fahren, also kann ich dann auch kleinere Räder montieren, damit ich wieder Drehzahl-begrenzt rasen kann."

Da bei den Sensoren aber das Ausleserauschen unabhängig vom Signal angegeben wird, sind theoretisch beliebig hohne S/N Werte von der Elekronik erreichbar und nur vom fwc abhängig. Ist das Ausleserauschen wirklich so unabhängig vom Signal? Wenn ja, war das hier eine sehr theoretische Betrachtung.
Das Ausleserauschen ist tatsächlich bei einem gegebenen Sensor unabhängig vom Signal. Letzteres trägt dann *sein* Rauschen, nämlich das Signalrauschen, auch Photonenrauschen oder "shot-noise" genannt, bei.
Beliebig hohe S/N-Werte seitens der Elektronik sind aber aus dem Grund nicht erreichbar, dass die Ausleseelektronik, die auf Ladungspakete von 0-25.000 Elektronen ausgelegt ist und dabei ein Ausleserauschen von 20 Elektronen erzielt, nicht plötzlich mit 250.000 Elektronen belastet werden kann. Dafür müsste man eine anders dimensionierte Elektronik löten, die dann auch wieder ein anderes/höheres Ausleserauschen haben könnte.

Ja, kenne ich. Eine *sehr gute* Seite, gerade im Vergleich mit so manch anderem!
 
Korrekt, allerdings findet dies dann auch auf dem Boden eines relativ schlechten S/N statt. Es ist eine Argumentation wie: "Mit dem Porsche darf ich in der Schweiz ohnehin nur 120 fahren, also kann ich dann auch kleinere Räder montieren, damit ich wieder Drehzahl-begrenzt rasen kann."
Leider falsch. Die Elektronik merkt nichts vom QE.

QE = 1, Ausleserauschen = 16 absorbierte Photonen, Sättigung = 32768 absorbierte Photonen:

1 absorbiertes Photonen: SNR = 0,06:1
8 absorbierte Photonen: SNR = 0,49:1
64 absorbierte Photonen: SNR = 3,6:1
512 absorbierte Photonen: SNR = 18,5:1
4096 absorbierte Photonen: SNR = 62:1
32768 absorbierte Photonen: SNR = 180:1

QE = 0,125, Ausleserauschen = 16 absorbierte Photonen, Sättigung = 32768 absorbierte Photonen:

1 absorbiertes Photonen: SNR = 0,06:1 (obiger Sensor hätte 8 Photonen absorbiert und ein SNR von 0,49:1 erreicht)
8 absorbierte Photonen: SNR = 0,49:1 (obiger Sensor hätte 64 Photonen absorbiert und ein SNR von 3,6:1 erreicht)
64 absorbierte Photonen: SNR = 3,6:1 (obiger Sensor hätte 512 Photonen absorbiert und ein SNR von 18,5:1 erreicht)
512 absorbierte Photonen: SNR = 18,5:1 (obiger Sensor hätte 4096 Photonen absorbiert und ein SNR von 62:1 erreicht)
4096 absorbierte Photonen: SNR = 62:1 (obiger Sensor hätte 32768 Photonen absorbiert und ein SNR von 180:1 erreicht)
32768 absorbierte Photonen: SNR = 180:1 (obiger Sensor wäre fette in die Sättigung gefahren worden)
 
Leider falsch. Die Elektronik merkt nichts vom QE.
Nicht die Elektronik, aber das fertige Bild bei gleichem Lichtangebot merkt etwas davon. Da mit sinkender Quanteneffizienz auch die Zahl der erzielten Ladungstrennungen sinkt, geht auch der SNR des "shot noise" enorm den Bach runter. Nun mutmasste Rainer (Nightshot), dass man bei geringer QE und gleichem Lichtangebot ein miserables SNR durch shot noise bekommt und daher die Ausleseelektronik ebenfalls etwas schlechter sein dürfe. Dies nenne ich dann einen Bauernkompromiss auf niederem Leistungsniveau. Anderer, vielleicht etwas griffigerer Vergleich: wenn die Schallplatte schon beim Schnitt große Gleichlaufpromleme hatte, dann darf der abspielende Plattenspieler ebenfalls einen schlechten Gleichlauf haben, ohne dass er das Jaulen der Aufnahme dramatisch verstärkt.
 
Nun mutmasste Rainer (Nightshot), dass man bei geringer QE und gleichem Lichtangebot ein miserables SNR durch shot noise bekommt und daher die Ausleseelektronik ebenfalls etwas schlechter sein dürfe.
Ich bin mir da gar nicht mehr so sicher. Dieses Konzept des konstanten Ausleserauschens kehrt das irgendwie wieder um.
Nehme ich Franks virtuellen Sensor mit Ausleserauschen = 16 detektierten Photonen und ich will, dass mein Sensor ab 1000 angebotenen Photonen photonenrauschdominiert ist, dann muss er eine QE von 0,25 haben (16^2/1000). Nehme ich eine schlechtere Elektronik mit Ausleserauschen = 20 Photonen, dann muss ich die QE auf 0,4 steigern, um wieder bei 1000 angebotenen Photonen Photonenrauschen dominiert zu sein.

Ach menno ich hab nen Knoten im Hirn. Ich komme sonst immer von der anderen Seite (erst SNR bestimmen und daraus die QE berechnen). Und dann hat meine Elekronik ein konstantes SNR, das unabhängig vom Signal ist. Alle Schlüsse, die ich sonst ziehen kann, gelten so nicht.

@Frank
Wenn ich deine beiden virtuellen Sensoren nehme, würde die Behauptung ISO800 (QE=1) = ISO100 (QE=0,125) stimmen, wenn ich nur das Rauschverhalten betrachte?
 
Ich bin mir da gar nicht mehr so sicher. Dieses Konzept des konstanten Ausleserauschens kehrt das irgendwie wieder um.
Nehme ich Franks virtuellen Sensor mit Ausleserauschen = 16 detektierten Photonen und ich will, dass mein Sensor ab 1000 angebotenen Photonen photonenrauschdominiert ist, dann muss er eine QE von 0,25 haben (16^2/1000).
Welchen Sinn sollte es haben, *immer* eine Limitation durch das Photonenrauschen erzielen zu wollen? Dies verstehe ich nicht wirklich, zumal dies nur oberhalb einer definierten Anzahl absorbierter Photonen der Fall ist. Will ich beispielsweise ein *echtes Bild* machen, dann kann es ja gut sein, dass selbst bei ISO-100 und trotz 20.000 Ladungstrennungen in den Lichtern in den Schatten gerade mal noch 40-200Ladungstrennungen übrigbleiben. Letztere will ich doch auch noch möglichst gut wandeln, da sonst die feine Zeichnung in den Schatten im Rauschen untergeht und die Eingangsdynamik stark beschnitten würde.
 
WERBUNG
Zurück
Oben Unten