• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtstärke Vergleich: VF vs APS-C ?

Diese 38800 sind aber nur ein statistischer Erwartungswert, genauso wie 100 der Erwartungswert für die Anzahl der 6er ist, wenn ich 600mal würfle. Die Streuung der tatsächlichen Werte um den Erwartungswert kann man aber ausrechnen, es ist einfach die Wurzel aus dem Erwartungswert (Stichwort Gauß'sche Normalverteilung), also 197. Das leuchtet jetzt nicht unmittelbar ein, aber man darf es ruhig glauben. Wäre es falsch, hätte die Hochrechnungen am Wahlsonntag auch nicht gepasst ;)
Irgendeine Zusatzannahme muss da aber noch hinzukommen: Bei der Normalverteilung sind Standardabweichung und Erwartungswert zunächst mal voneinander unabhängige Parameter. Die Standardabweichung ist die Wurzel aus der Varianz, nicht aus dem Erwartungswert. Wie kommt man dann auf die 197?
 
Nein, da gibt es keine Zusatzannahme. Streng genommen müsste man eine Poisson-Verteilung nehmen, aber für große Zahlen (die wir hier zweifelsohne haben) geht die in eine Gauß-Verteilung mit eben dieser Standardabweichung über.
Bei einem "Zählexperiment" die Standardabweichung immer ganz einfach die Wurzel der Ereignisanzahl, wie beim Würfelbeispiel von oben. Immer unter der Voraussetzung, dass es sich nicht um ganz wenige Ereignisse handelt.
 
Irgendeine Zusatzannahme muss da aber noch hinzukommen: Bei der Normalverteilung sind Standardabweichung und Erwartungswert zunächst mal voneinander unabhängige Parameter. Die Standardabweichung ist die Wurzel aus der Varianz, nicht aus dem Erwartungswert. Wie kommt man dann auf die 197?
Du hast völlig recht. Modellierung des Photonenflusses mit der Normalverteilung ist Unsinn, normalerweise nimmt man eine Poisson-Verteilung. Bei der Poisson-Verteilung ist Varianz = Erwartungswert. Die Normalverteilung kann man unter gewissen Umständen als Näherung nehmen (mit Erwartungswert und Varianz wie bei der Poisson-Verteilung), aber das spielt hier gar keine Rolle.

kknie hätte also einfach "Stichwort: Poissonverteilung" schreiben müssen, dann wäre es richtig gewesen.

L.G.

Burkhard.
 
Zuletzt bearbeitet:
Ich steige dann mal unauffaellig aus der Diskussion aus ;)


Aber die erste Erklaerung von kknie war schonmal ein guter Einstieg (wenn auch vielleicht nicht bis ins letzte ausgefeilt), danke dafuer.


Chris
 
Warum macht es sich so kompliziert? Der einzige Unterschied zwischen Vollformat Sensor und APS-C ist, das es mehr Fläche hat. Wenn man also was vergleichen möchte, macht man eine Aufnahme mit identischen Einstellungen bezüglich Blende, Belichtungszeit und ISO. Die Pixelzahl müsste man mit APS-C * 1,5 haben (APS-C=16mp, Vollformat=24mp), um die gleiche Menge an Pixel gemessen an die Sensorgröße zu erreichen. Anschließend beschneidet man das Bild des Vollformat soweit, wie es das APS-C auch hergibt und vergleicht.

Wenn alles identisch ist, dann hat man eben mit Vollformat den mehr an Bildkreis zur Verfügung. Das ist im Prinzip der grundlegende Unterschied. Denn mit identischen Einstellungen hat man nach dem Beschneiden das gleiche, was APS-C auch liefert.
 
Modellierung des Photonenflusses mit der Normalverteilung ist Unsinn, normalerweise nimmt man eine Poisson-Verteilung. Bei der Poisson-Verteilung ist Varianz = Erwartungswert.
Ah, das ist der entscheidende Hinweis, danke.

Die entscheidende Zusatzannahme ist hier: Der weit dominante Rauschanteil kommt aus dem Photonenrauschen, und eben nicht das Rauschen irgendwelcher Verstärker oder so.
Daher Poisson, nicht Gauß. OK, dann passt's.
Weil die Photonen sich nicht absprechen, sondern einfach irgendwann auf dem Sensor einschlagen, sind die Zwischenankunftszeiten exponentialverteilt. Ja, ergibt Sinn.
 
Daher Poisson, nicht Gauß. OK, dann passt's.
Weil die Photonen sich nicht absprechen, sondern einfach irgendwann auf dem Sensor einschlagen, sind die Zwischenankunftszeiten exponentialverteilt. Ja, ergibt Sinn.

Eigentlich andersrum: Dass die Photonen sich so verhalten, ist bekannt. Die Annahme hier ist, dass das Bildrauschen sich auch so verhält, weil es vom Photonenrauschen dominiert wird. Und die zweite Annahme war eine mittlere "full well capacity" von 2E9/mm². Mehr erstmal nicht.


Gruß, Matthias
 
Daher Poisson, nicht Gauß. OK, dann passt's.

Wenn man schon das Erbsenzählen anfängt, weder noch. Eigentlich ist's eine Binomial-Verteilung. Nur bekommt man da irrsinig unhandliche Zahlen, so dass sie unpraktikabel wird. Wenn man davon ausgeht, dass mein Objekt unendlich viele Photonen aussenden würde, wird die Binomial-Verteilung zur Poisson-Verteilung (natürlich tut mein Objekt das nicht, also ist bereits Poisson eine Näherung). Wenn man wiederum davon ausgeht, dass viele Photonen nachgewiesen werden, darf man Poisson durch Gauß annähern.

Was ich aber beim besten Willen nicht verstehe ist, dass man sich bei solchen Diskussionen immer an so irrelevanten Zeug aufhängen kann. In diesem Fall ist es doch vollkommen egal, ob ich eine Poisson- oder Gaußverteilung als Näherung nehme, auch die Gauß-Näherung ist sehr, sehr gut. Verglichen mit den anderen Unsicherheiten verschwinden die Fehler dadurch im sprichwörtlichem "Rauschen".
 
Zuletzt bearbeitet:
Wenn man schon das Erbsenzählen anfängt, weder noch. Eigentlich ist's eine Binomial-Verteilung. Nur bekommt man da irrsinig unhandliche Zahlen, so dass sie unpraktikabel wird. Wenn man davon ausgeht, dass mein Objekt unendlich viele Photonen aussenden würde, wird die Binomial-Verteilung zur Poisson-Verteilung (natürlich tut mein Objekt das nicht, also ist bereits Poisson eine Näherung). Wenn man wiederum davon ausgeht, dass viele Photonen nachgewiesen werden, darf man Poisson durch Gauß annähern.
Die Binomialverteilung spielt hier gar keine Rolle, es wird ja keine feste Photonenanzahl über den Sensor verstreut. Aber um solche Feinheiten ging es in der Tat nicht, sondern um eine Erklärung, warum bei "deiner" Normalverteilung Varianz = Erwartungswert vorausgesetzt wird.

L.G.

Burkhard.
 
Full well capacity = 2E9/mm² meint einfach, man kann pro mm² Sensorfläche maximal 2 Milliarden Elektronen durch Licht erzeugen, dann ist er am Anschlag. Das ist einfach eine Materialeigenschaft.
Kann man die FWC rein aus Eigenschaften von Si ableiten? - das würde mich interessieren. Vordergründig gehen ja Parameter wie Kapazität/Fläche der Pixel und deren Durchbruchsspannung ein, die wiederum von Geometrie und Dotierung abhängen.
 
Moin!


Das ist nicht als Eigenschaft des Materials Silizium zu verstehen, sondern als eine Eigenschaft von Sensoren der neuesten Generation. Die Canon 7D erreicht bspw. Nur 1,1E9/mm² und ältere Sensoren vermutlich noch weniger, aber bislang hatte ich noch keine Lust, all die Daten aus sensorgen.info abzutippen und auszurechnen. Entscheidend finde ich dabei aber, dass die "full well capacity" pro mm² ziemlich unabhängig von der Pixeldichte ist. D4 mit 16MP, D800 mit 36MP und D7100 mit (auf KB hochgerechnet) 54MP kommen auf ziemlich ähnliche Werte.


Gruß, Matthias
 
Entscheidend finde ich dabei aber, dass die "full well capacity" pro mm² ziemlich unabhängig von der Pixeldichte ist.
Das ist nun nicht sehr überraschend bei gleicher Technologie. Parameter, die Ladung oder Strom oder Leitwert oder Kapazität darstellen, sind immer proportional zur Breite oder Fläche der Struktur.

Letztlich ist die FWC bei der gegenwärtigen Art, die Sensoren auszulesen, begrenzt durch die Durchbruchspannung der Photodiode (so weit kann sie vor dem Lichteinfall aufgeladen werden) und deren Sperrschichtkapazität (je größer, desto mehr Licht ist für die Entladung nötig). Diese beiden Größen hängen gegenläufig von der Dotierung ab, hochdotierte Dioden haben kleinere Durchbruchspannung, aber größere Kapazität dank kleinerer Breite der Raumladungszone. Insofern gibt es schon so etwas wie eine relativ konstante FWC jedenfalls bezüglich der Variation der Dotierungskonzentration. Ob man das aber wirklich als Materialeigenschaft des Halbleiters angeben kann, würde ich daraus noch nicht schließen, deshalb meine Frage.

Wenn man z. B. unterhalb der Photodioden zusätzliche vergrabene Kapzitäten anordnen und parallelschalten würde, könnte man die FWC erhöhen. Die Struktur spielt insofern schon eine Rolle.
 
Zuletzt bearbeitet:
Das ist nun nicht sehr überraschend bei gleicher Technologie.

Für einige hier vermutlich schon, und darum ging es ja: Es ist gar nicht nötig, umständlich in großen oder kleinen Pixeln zu denken und die dann hinterher noch umständlicher miteinander zu verrechnen. Die Eigenschaften eines Sensors sind bei gleichem Entwicklungsstand in erster Linie nicht von der Pixelgröße, sondern von der Sensorfläche abhängig. Das gilt in guter Näherung für die Full Well Capacity und es gilt sowieso für die Quanteneffizienz.

Nicht ganz so einfach ist es mit dem Ausleserauschen. Da streuen meine 6 nachgerechneten Kandidaten zwischen 560/mm² (D800) und 5300/mm² (5D3). D4 (2600/mm²) und D7100 (820/mm²) verhalten sich genau andersrum, als man aufgrund der Pixeldichte erwarten würde. Das sind aber alles Ergebnisse bei Basis-ISO, bei höheren ISO mag das anders aussehen.


Gruß, Matthias
 
Zuletzt bearbeitet:
Nicht ganz so einfach ist es mit dem Ausleserauschen. Da streuen meine 6 nachgerechneten Kandidaten zwischen 560/mm² (D800) und 5300/mm² (5D3). D4 (2600/mm²) und D7100 (820/mm²) verhalten sich genau andersrum, als man aufgrund der Pixeldichte erwarten würde. Das sind aber alles Ergebnisse bei Basis-ISO, bei höheren ISO mag das anders aussehen.
Was würdest Du erwarten?

Ich hab jetzt nicht alles gelesen - wo die Rohdaten herkommen und welche (dimensionslose) Größe Du für das Ausleserauschen angibst, ich nehme an, irgendetwas proportional zur Lichtleistung/Photonenzahl - aber da würde ich nicht erwarten, daß es sich flächenproportional verhält. 1 Pixel = 1 Verstärker.

D800: 560/mm² und 42kP/mm² macht 0,013/Pixel.
D7100: 820/mm² und 67kP/mm² macht 0,012/Pixel.

D4 und die Canon passen nicht, aber das sind andere Sensoren. Dort ist Dynamik bei niedriger ISO bekanntermaßen niedriger.
http://www.dxomark.com/index.php/Ca...rand2)/Nikon/(appareil3)/767|0/(brand3)/Nikon
 
Was würdest Du erwarten?

Ich hab jetzt nicht alles gelesen - wo die Rohdaten herkommen und welche (dimensionslose) Größe Du für das Ausleserauschen angibst, ich nehme an, irgendetwas proportional zur Lichtleistung/Photonenzahl - aber da würde ich nicht erwarten, daß es sich flächenproportional verhält. 1 Pixel = 1 Verstärker.

Das sind einfach die Zahlen von sensorgen.info, umgerechnet auf 1 mm². Die "dimensionslose Größe" ist die Anzahl Elektronen.

D800: 560/mm² und 42kP/mm² macht 0,013/Pixel.
D7100: 820/mm² und 67kP/mm² macht 0,012/Pixel.

Nee, das stimmt nicht. Da musst Du mit der Wurzel(Pixelzahl) rechnen, oder einfach bei sensorgen.info nachgucken:

D800: 2,7/Pixel, D7100 3,2/Pixel

D4 und die Canon passen nicht, aber das sind andere Sensoren. Dort ist Dynamik bei niedriger ISO bekanntermaßen niedriger.

Ja natürlich. Ich wollte doch bloß daruf hinaus, dass man sogar beim Ausleserauschen sensorübergreifend ungefähr ähnliche Werte für Ausleserauschen/mm² annehmen kann. Und mit 2000/mm² trifft man mehrere der durchgerechneten Kameras ganz gut. D7100 und D800 sind dann eben noch besser. Aber das Ausleserauschen spielt ja ohnehin erst bei sehr geringer Belichtung eine Rolle, insofern finde ich es jetzt nicht so tragisch, dass es nicht so ganz passt.


Gruß, Matthias
 
Nee, das stimmt nicht. Da musst Du mit der Wurzel(Pixelzahl) rechnen,
Stimmt. Das bedeutet aber auch, daß die angegebene Einheit falsch ist, nicht 1/mm², sondern 1/mm. Dadurch habe ich mich täuschen lassen.

Ich sehe aber nach wie vor nicht, weshalb eine solchermaßen normierte Angabe sinnvoll sein soll. Sinnvoll ist hier pro Pixel.
 
Stimmt. Das bedeutet aber auch, daß die angegebene Einheit falsch ist, nicht 1/mm², sondern 1/mm. Dadurch habe ich mich täuschen lassen.

Nöö, es ist schon pro mm².

Ich sehe aber nach wie vor nicht, weshalb eine solchermaßen normierte Angabe sinnvoll sein soll. Sinnvoll ist hier pro Pixel.

Pro Pixel wird's auch nicht besser, guck Dir die Werte bei sensorgen.info an. Es ist aber im übrigen gar nicht wichtig. Über einen weiten Belichtungsbereich wird das Rauschen durch Photonenrauschen dominiert, und das ist nun wieder von der Sensorfläche abhängig und nicht von der Pixelgröße (bei gleich groß betrachteten Bildern). "Ganz im dunklen" kommt dann doch noch Ausleserauschen hinzu, und da stimmt das Modell dann eben nicht mehr, denn das ist, sensorübergreifend betrachtet, weder von der Pixel- noch von der Sensorgröße direkt abhängig.


Gruß, Matthias
 
Nöö, es ist schon pro mm².
Nein, ist es nicht.

Eine Größe, die proportional zur Wurzel aus der Fläche wächst, muß auf die Wurzel aus der Fläche normiert werden, um daraus eine flächenunabhängige Kenngröße zu erzeugen.

1/mm.

Pro Pixel wird's auch nicht besser, guck Dir die Werte bei sensorgen.info an.
Ich habe nicht geschrieben, daß die Kennwerte Ausleserauschen/Pixel bei allen Kamera gleich sind, sondern daß ein solcher Kennwert physikalisch sinnvoll ist auf Grund der Ursache des Rauschens in einem Verstärker/ADC, der einmal pro Pixel in der Signalverarbeitungskette auftrittt und dessen Rauscheigenschaften nur schwach von der Pixelfläche abhängen.


Nach Deiner Argumentation wäre auch die Angabe eines Bruttosozialprodukts/Einwohner sinnlos, da nicht alle Länder den gleichen Wert erreichen. ;)
 
WERBUNG
Zurück
Oben Unten