• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Mehr Licht bei Vollformat?

Was haben die Elektronen mit "Mehr Licht" zu tun?
Mehr Licht, mehr Elektronen.
 
Teilst du jedes große Pixel in vier kleinere auf, dann kannst du die Elektronen der vier Pixel addieren und bekommst dieselbe Auflösung und dasselbe Signal-Rausch-Verhältnis wie bei den großen Pixeln (in der Praxis etwas weniger, wegen des "Randes" zwischen den Pixeln).
Das (Binning, also verlustfreies Addieren von Ladung) funktioniert nur bei monochromen CCD-Bildsensoren. Bei CMOS geht das nicht und sobald Bayer-Filter in's Spiel kommen wird's arg kompliziert.
Das bezieht sich natürlich – wie deine Bemerkung – nur auf das Photonenrauschen.
Eben. Und das ist nur die halbe Miete.
 
Das (Binning, also verlustfreies Addieren von Ladung) funktioniert nur bei monochromen CCD-Bildsensoren. Bei CMOS geht das nicht und sobald Bayer-Filter in's Spiel kommen wird's arg kompliziert.

Nicht "binning", einfach addieren bzw. integrieren.

Eben. Und das ist nur die halbe Miete.

Nein, das ist über einen weiten Belichtungs- und ISO-Bereich fast 100% der Miete.
 
Bitte hört mit "äquivalenter ISO" auf. ISO ist vorgegeben über Licht am Sensor zu Helligkeit in der Datei.
Äquivalenz bzw. Isomorph heißt, dass es ihm Rahmen gewisser Grenzen egal ist, ob mal sich System 1 oder System 2 ansieht.
Beide Systeme können dabei auch völlig unterschiedlich sein, z.B. kann System 1 etwas aus der Mathematik und System 2 etwas aus der Physik oder Chemie sein.

Das da eine Verstärkung notwendig ist ist klar. Da bei einer gleichen Pixelzahl bei unterschiedlicher Sensorgröße unterschiedliche Pixelgrößen und daher unterschiedliche Verstärkungsfaktoren raus kommen ist klar.
Nur bitte was soll das "äquivalenter ISO" sein????? Soll es die notwendige Verstärkung ausdrücken?
Belichtung des Sensors mit der gleichen Photonenanzahl
Belichtung des Sensors, so dass das finale Bild das gleiche SNR hat.

Und damit ein Faktor für das Rauschen sein? Glaube da wird dabei soviel idealisiert (prinzipielles gleiches verhalten der Sensoren) das in meinen Augen nur Sch... raus kommen kann.

Du kann (Crop,B,T,ISO) => (1,B/Crop,T,ISO*Crop²) transformieren.
Wenn die gesamte Optik und Elektronik in einem unzerstörbaren Kasten ist, ist es prinzipiell nicht möglich, diese beiden System voneinander zu unterscheiden. Deswegen kann man problemlos mit effektiver Brennweite, Blende und ISO arbeiten, solange man es mit keiner oder allen Größen durchführt.
 
Das (Binning, also verlustfreies Addieren von Ladung) funktioniert nur bei monochromen CCD-Bildsensoren.
Addieren von Ganzzahlen ist immer verlustfrei.
Binning bringt nur etwas, wenn es das Ausleserauschen reduziert.
Wenn sich das Ausleserauschen von aktuellen Sensoren noch etwas verringert, lohnt sich das Binnen gar nicht mehr bzw. verschlechtert das Signal.
Aktuelle lohnt sich das Binning nicht bzw. schadet:
* bei EMCCDs
* bei APD-Arrays
 
Wenn die gesamte Optik und Elektronik in einem unzerstörbaren Kasten ist, ist es prinzipiell nicht möglich, diese beiden System voneinander zu unterscheiden. Deswegen kann man problemlos mit effektiver Brennweite, Blende und ISO arbeiten, solange man es mit keiner oder allen Größen durchführt.

Also gibt es keinen besonderen Vollformatblick, nur ein paar bessere Objektive.
 
Du kann (Crop,B,T,ISO) => (1,B/Crop,T,ISO*Crop²) transformieren.
Wenn die gesamte Optik und Elektronik in einem unzerstörbaren Kasten ist, ist es prinzipiell nicht möglich, diese beiden System voneinander zu unterscheiden. Deswegen kann man problemlos mit effektiver Brennweite, Blende und ISO arbeiten, solange man es mit keiner oder allen Größen durchführt.
Im Prinzip ja, aber in der Praxis nicht.
 
Ich finde es auch in der Praxis gut anwendbar. Es ist eine Abschätzung und ersetzt für jemanden der eine (möglichst gute) Kamera kaufen möchte auch keine Tests, aber für das allgemeine Verständnis und die prinzipielle Wahl zwischen verschiedenen Systemen finde ich die Aussagekraft mehr als ausreichend.

Der Unterschied ist zwischen System A und B mit gleicher Sensorgröße auch nicht kleiner als zwischen A und C mit unterschiedlicher Sensorgröße - dafür ist zu viel Soft- und Hardware involviert.
 
Hardware, Software?

Wenn Du möchtest, kannst Du die Werte im Kopf addieren. Oder per Software. Oder gar nicht, weil "das Auge" die Addition ganz allein erledigt. Das wurde doch längst erklärt.


Wenn nicht, wie erklärst Du die Abnahme des Rauschabstands um nur 3dB pro Halbierung der Belichtung, die (s. Z.B. DxOMark "full SNR") über einen weiten Bereich von Belichtungen und ISO bei praktisch allen modernen Kameras zu finden ist? Wäre es Ausleserauschen, müssten es 6dB pro Halbierung sein.
 
Eine 50mm-Optik wirkt an KB nicht wie 30mm sondern wie jede andre 50mm Optik auch. Egal wofür sie berechnet wurde. Mal abgesehen vom möglicherweise unzureichenden Bildkreis sowie Feinheiten wie Vignettierung oder Abbildungsgüte. Aber auch das läßt sich nicht verallgemeinern: mein Sigma-UWW tuts am KB-Format durchaus, solange man mit der Brennweite etwas vom unteren Limit wegbleibt.


Du schriebst in Beitrag #165:
Und jetzt wär das Motiv plötzlich kleiner?

1. Paßt alles nicht zusammen.
2. und hat mit der Ausgangsfrage "Mehr Licht bei Vollformat?" nun garnichts zu tun.

Wenn hier ein fotografischer Anfänger mitliest wird er am Ende des Threads mit großer Wahrscheinlichkeit nicht klüger sein als zuvor, eher verwirrter.


Was haben die Elektronen mit "Mehr Licht" zu tun?

Das alles nicht zusammen passt liegt daran das ständig jemand ein anderes Beispiel, mit anderen/umgekehrten Zusammenhängen einbringt, das wie du schreibst, eigentlich eher vom Thema ablenkt.
Wieso verwendet man den Crop-Faktor um die Wirkung eines Vollformat-Objektives an Crop zu beschreiben und darf das selbe Prinzip nicht bei der (unsinnigen) Verwendung eines Crop-Objektives an Vollformat verwenden?
So sehe ich das:
crop_an_FF.jpg
Das Bild ist nur dasselbe wenn man den Rand wieder weg-cropt. Die perspektive ist die gleiche, wie ich bereits geschrieben habe.

Back to topic:
Für mich bedeutet mehr belichtete Fläche für dasselbe Motiv das der Sensor weniger verstärken muß.
Im Grunde gehts darum, zur Verdeutlichung mir einem 1 Zoll Sensor:
Rauschen.jpg

Die für dasselbe Motiv belichtete Fläche ist bei Crop-Sensoren viel kleiner. Das Licht des Motivs, das beim Crop-Sensor einen Stecknadelkopf-großen Bereich ausleuchtet wird bei Vollformat in die breite und höhe gefächert. Das Motiv wird größer abgebildet ohne das es dabei dunkler wird. Selbst bei gleicher Pixeldichte hat man bei Vollformat Licht von viel mehr Pixeln und Pixelfläche eingefangen. Das ist die für mich bisher stimmige Erklärung.
 
Für mich bedeutet mehr belichtete Fläche für dasselbe Motiv das der Sensor weniger verstärken muß.

Lass die Verstärkung raus...
Zur vergleichenden Betrachtung sinnvollerweise immer nur einen Faktor ändern, schrieb gerade noch jemand.

Die für dasselbe Motiv belichtete Fläche ist bei Crop-Sensoren viel kleiner. Das Licht des Motivs, das beim Crop-Sensor einen Stecknadelkopf-großen Bereich ausleuchtet wird bei Vollformat in die breite und höhe gefächert. Das Motiv wird größer abgebildet ohne das es dabei dunkler wird.

Weil auch mehr vom Motiv kommendes Licht auf den Sensor kommt, ja.

Selbst bei gleicher Pixeldichte hat man bei Vollformat Licht von viel mehr Pixeln und Pixelfläche eingefangen. Das ist die für mich bisher stimmige Erklärung.

Mehr Licht auf größere Fläche bei genau gleich viel Licht pro Fläche bei gleicher Blenden-Zeit-Kombination - gleiche Belichtung bei gleicher Blende, Zeit und ISO. Alles ohne Betrachtung von Pixeln oder Sensortechnik, gilt übrigrens auch bei Belichtung von Film oder Platte.
Der größenbedingte Unterschied kommt jetzt: das Bild vom kleinen Sensor wird bei gleicher Ausgabegröße stärker vergrößert: mitsamt seinem Rauschen, und allein daraus ergibt sich der Vorteil der großen Fläche (immer noch ohne Pixel und Sensortechnik).
 
Mehr Licht, mehr Elektronen.

Ein Physikseminar hilft uns hier nicht weiter; der TO fragte ob die Abbildung eines Objektivs auf unterschiedlichen Sensorgrößen verschiedene Bildhelligkeit erzeugt. Darum ging's ihm, und darauf wurde inzwischen mehrfach hingewiesen.
Elektronen, Jauchegruben & andere hier irrelevante Größen sind OT und verwirren bloß.

Das alles nicht zusammen passt liegt daran das ständig jemand ein anderes Beispiel, mit anderen/umgekehrten Zusammenhängen einbringt, das wie du schreibst, eigentlich eher vom Thema ablenkt.
Genau. Das trifft exakt auf Deine hübsch gemalten Grafiken zu:
Der TO stellt im Eingangsbeitrag die Behauptung seines Bekannten in Frage daß "bei gleichem Bildwinkel in den Vollformat Body mehr Licht kommen würde" - im Sinne einer anderen Belichtung. Und das zurecht, wie ich aus Erfahrung weiß.

Es wird nach gleichem Bildwinkel gefragt - damit sind sämtliche Darstellungen mit den bekannten Unterschieden kliener & großer Sensoren absolut unpassend.


Mehr werd ich wohl nicht mehr dazu sagen.
 
Lass doch einfach die Pixel und die Verstärkung raus, dann passt's. In Deinen Beispielbildchen ist das kleine grüne Blatt auf beiden Sensoren und auf beiden Bildern gleich hell, da muss nichts verstärkt werden. Es wird aber unterschiedlich vergrößert! Die grünen Flächen des Blatts auf dem Sensor sind gleich verrauscht, aber verschieden groß. Bei der Vergrößerung vom kleinen Sensor werden kleinere "Rauschdetails" bis in den sichtbaren Bereich des "Auges" vergrößert, während die gleichen "Rauschdetails" noch unsichtbar, weil vom Auge "rausgemittelt", bleiben.

Edit: Und nur für den Fall, dass auch das jemand falsch verstehen möchte: Ja, es werden natürlich Signale verstärkt, und sogar je nach ISO und Pixelgröße unterschiedlich. Aber die Verstärkung ist nicht der Grund für das Rauschen! Es werden nur Signal und darin schon enthaltenes Rauschen gleich stark verstärkt, aber an deren Verhältnis ändert sich fast nichts. Nur bei sehr geringer Belichtung ist das durch die Elektronik erzeugte Rauschen überhaupt bemerkbar.
 
Zuletzt bearbeitet:
Ein Physikseminar hilft uns hier nicht weiter; der TO fragte ob die Abbildung eines Objektivs auf unterschiedlichen Sensorgrößen verschiedene Bildhelligkeit erzeugt. Darum ging's ihm, und darauf wurde inzwischen mehrfach hingewiesen.
Elektronen, Jauchegruben & andere hier irrelevante Größen sind OT und verwirren bloß.
Da könntest du Recht haben. Worüber reden wir eigentlich? Leuchtdichte, Bestrahlungsstärke, Lichtstrom?
 
Es werden nur Signal und darin schon enthaltenes Rauschen gleich stark verstärkt, aber an deren Verhältnis ändert sich fast nichts. Nur bei sehr geringer Belichtung ist das durch die Elektronik erzeugte Rauschen überhaupt bemerkbar.
Nein. Kleinere Pixel erzeugen weniger Nutzsignal (weniger Ladung). Das Shotnoise dagegen ist höher, das Rauschen des Ausgangsverstärkers ist unabhängig von der Pixelgröße. Schlechteres SNR ist die Folge.
 
Nein. Kleinere Pixel erzeugen weniger Nutzsignal (weniger Ladung). Das Shotnoise dagegen ist höher, das Rauschen des Ausgangsverstärkers ist unabhängig von der Pixelgröße. Schlechteres SNR ist die Folge.

Und wenn Du nun über gleich viele Flächenanteile des Sensors (bei DxOMark sind's 8000000) integrierst, was man bei gleich groß betrachteten Bildern, wir nun schon x mal erläutert, ganz automatisch "per Auge" tust?
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten