Mehr Licht, mehr Elektronen.Was haben die Elektronen mit "Mehr Licht" zu tun?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Mehr Licht, mehr Elektronen.Was haben die Elektronen mit "Mehr Licht" zu tun?
Das (Binning, also verlustfreies Addieren von Ladung) funktioniert nur bei monochromen CCD-Bildsensoren. Bei CMOS geht das nicht und sobald Bayer-Filter in's Spiel kommen wird's arg kompliziert.Teilst du jedes große Pixel in vier kleinere auf, dann kannst du die Elektronen der vier Pixel addieren und bekommst dieselbe Auflösung und dasselbe Signal-Rausch-Verhältnis wie bei den großen Pixeln (in der Praxis etwas weniger, wegen des "Randes" zwischen den Pixeln).
Eben. Und das ist nur die halbe Miete.Das bezieht sich natürlich – wie deine Bemerkung – nur auf das Photonenrauschen.
Das (Binning, also verlustfreies Addieren von Ladung) funktioniert nur bei monochromen CCD-Bildsensoren. Bei CMOS geht das nicht und sobald Bayer-Filter in's Spiel kommen wird's arg kompliziert.
Eben. Und das ist nur die halbe Miete.
Äquivalenz bzw. Isomorph heißt, dass es ihm Rahmen gewisser Grenzen egal ist, ob mal sich System 1 oder System 2 ansieht.Bitte hört mit "äquivalenter ISO" auf. ISO ist vorgegeben über Licht am Sensor zu Helligkeit in der Datei.
Belichtung des Sensors mit der gleichen PhotonenanzahlDas da eine Verstärkung notwendig ist ist klar. Da bei einer gleichen Pixelzahl bei unterschiedlicher Sensorgröße unterschiedliche Pixelgrößen und daher unterschiedliche Verstärkungsfaktoren raus kommen ist klar.
Nur bitte was soll das "äquivalenter ISO" sein????? Soll es die notwendige Verstärkung ausdrücken?
Und damit ein Faktor für das Rauschen sein? Glaube da wird dabei soviel idealisiert (prinzipielles gleiches verhalten der Sensoren) das in meinen Augen nur Sch... raus kommen kann.
Addieren von Ganzzahlen ist immer verlustfrei.Das (Binning, also verlustfreies Addieren von Ladung) funktioniert nur bei monochromen CCD-Bildsensoren.
Wenn die gesamte Optik und Elektronik in einem unzerstörbaren Kasten ist, ist es prinzipiell nicht möglich, diese beiden System voneinander zu unterscheiden. Deswegen kann man problemlos mit effektiver Brennweite, Blende und ISO arbeiten, solange man es mit keiner oder allen Größen durchführt.
Im Prinzip ja, aber in der Praxis nicht.Du kann (Crop,B,T,ISO) => (1,B/Crop,T,ISO*Crop²) transformieren.
Wenn die gesamte Optik und Elektronik in einem unzerstörbaren Kasten ist, ist es prinzipiell nicht möglich, diese beiden System voneinander zu unterscheiden. Deswegen kann man problemlos mit effektiver Brennweite, Blende und ISO arbeiten, solange man es mit keiner oder allen Größen durchführt.
Nicht "binning", einfach addieren bzw. integrieren.
Na dann...Nein, das ist über einen weiten Belichtungs- und ISO-Bereich fast 100% der Miete.
Hardware, Software?
Na dann...
Eine 50mm-Optik wirkt an KB nicht wie 30mm sondern wie jede andre 50mm Optik auch. Egal wofür sie berechnet wurde. Mal abgesehen vom möglicherweise unzureichenden Bildkreis sowie Feinheiten wie Vignettierung oder Abbildungsgüte. Aber auch das läßt sich nicht verallgemeinern: mein Sigma-UWW tuts am KB-Format durchaus, solange man mit der Brennweite etwas vom unteren Limit wegbleibt.
Du schriebst in Beitrag #165:
Und jetzt wär das Motiv plötzlich kleiner?
1. Paßt alles nicht zusammen.
2. und hat mit der Ausgangsfrage "Mehr Licht bei Vollformat?" nun garnichts zu tun.
Wenn hier ein fotografischer Anfänger mitliest wird er am Ende des Threads mit großer Wahrscheinlichkeit nicht klüger sein als zuvor, eher verwirrter.
Was haben die Elektronen mit "Mehr Licht" zu tun?
Für mich bedeutet mehr belichtete Fläche für dasselbe Motiv das der Sensor weniger verstärken muß.
Die für dasselbe Motiv belichtete Fläche ist bei Crop-Sensoren viel kleiner. Das Licht des Motivs, das beim Crop-Sensor einen Stecknadelkopf-großen Bereich ausleuchtet wird bei Vollformat in die breite und höhe gefächert. Das Motiv wird größer abgebildet ohne das es dabei dunkler wird.
Selbst bei gleicher Pixeldichte hat man bei Vollformat Licht von viel mehr Pixeln und Pixelfläche eingefangen. Das ist die für mich bisher stimmige Erklärung.
Mehr Licht, mehr Elektronen.
Genau. Das trifft exakt auf Deine hübsch gemalten Grafiken zu:Das alles nicht zusammen passt liegt daran das ständig jemand ein anderes Beispiel, mit anderen/umgekehrten Zusammenhängen einbringt, das wie du schreibst, eigentlich eher vom Thema ablenkt.
Da könntest du Recht haben. Worüber reden wir eigentlich? Leuchtdichte, Bestrahlungsstärke, Lichtstrom?Ein Physikseminar hilft uns hier nicht weiter; der TO fragte ob die Abbildung eines Objektivs auf unterschiedlichen Sensorgrößen verschiedene Bildhelligkeit erzeugt. Darum ging's ihm, und darauf wurde inzwischen mehrfach hingewiesen.
Elektronen, Jauchegruben & andere hier irrelevante Größen sind OT und verwirren bloß.
Nein. Kleinere Pixel erzeugen weniger Nutzsignal (weniger Ladung). Das Shotnoise dagegen ist höher, das Rauschen des Ausgangsverstärkers ist unabhängig von der Pixelgröße. Schlechteres SNR ist die Folge.Es werden nur Signal und darin schon enthaltenes Rauschen gleich stark verstärkt, aber an deren Verhältnis ändert sich fast nichts. Nur bei sehr geringer Belichtung ist das durch die Elektronik erzeugte Rauschen überhaupt bemerkbar.
Nein. Kleinere Pixel erzeugen weniger Nutzsignal (weniger Ladung). Das Shotnoise dagegen ist höher, das Rauschen des Ausgangsverstärkers ist unabhängig von der Pixelgröße. Schlechteres SNR ist die Folge.
Nein. Kleinere Pixel erzeugen weniger Nutzsignal (weniger Ladung). Das Shotnoise dagegen ist höher, das Rauschen des Ausgangsverstärkers ist unabhängig von der Pixelgröße. Schlechteres SNR ist die Folge.
Dann geht die Auflösung rapide gegen null.Und wenn Du nun über gleich viele Flächenanteile des Sensors (bei DxOMark sind's 8000000) integrierst, was man bei gleich groß betrachteten Bildern, wir nun schon x mal erläutert, ganz automatisch "per Auge" tust?
Und wieder wird nur der einzelne Sensel betrachtet und nicht das Gesamte.