Bei der ganzen Umrechnerei geht es doch um die Frage "welche Werte brauche ich an Sensor Y, wenn die Werte für Sensor X bekannt sind?"
Wenn ich also am APS-C-Sensor ein Bild mit 100 mm, Blende 1.8, ISO 100 mache, dann brauche ich für ein (nahezu) identisches Bild am KB-Sensor 160 mm, Blende 2.88, und für die gleiche Bildhelligkeit ISO 256 (besser 160 mm, f2.8, ISO 250).
Die Belichtungszeit bleibt gleich, das Bild soll sich ja nicht unterscheiden.
Kurz: Wenn Du ca. 1 1/3 Stufen abblendest, dann musst Du die ISOs für eine identische Bildhelligkeit ebenso viele Stufen erhöhen.
Das ganze Konstrukt der "äquivalenten ISO" ist relativ einfach erklärt, ganz abseits von Quanteneffizienz usw.:
Um äquivalent zu sein müssen 2 Bilder folgende notwendige Bedingungen erfüllen:
gleiche Schärfentiefe
gleiche Bewegungsunschärfe
gleiche Bildhelligkeit.
Aus erstem folgt dass man am größeren Sensor stärker abblenden muss, aus zweitem dass dieselbe Verschlusszeit erforderlich ist, und somit aus drittem dass man am größeren Sensor zum Ausgleich daher eben eine höhere ISO-Zahl einstellen muss.
So, vielen Dank Jungs
, jetzt hab' ich es auch kapiert!
Ich habe bisher immer zu weit, bzw. zu kompliziert gedacht, indem ich angenommen habe, dass die ISO Äquivalenz etwas über das Rauschverhalten der Sensoren aussagen soll.
OK, habe nun verstanden, dass sie lediglich dazu dient, bei gleichbleibender Belichtungszeit dafür zu sorgen, dass es unterm Strich keinen EV Unterschied gibt.
Ergo liegt aber dann doch der "Lichtvorteil" von dem u.a. chmee (siehe
#8) gesprochen hat, doch immer auf der Seite der kleineren Sensoren, oder verstehe ich immer noch etwas falsch?
Und zwar umso mehr, je größer der Crop-Faktor ist.
Um es jetzt mal wieder bezogen auf den Beitrag, um den es hier ja geht zu beziehen und so zu formulieren, dass es für die Zielgruppe möglichst verständlich ist:
Das Pendant zu dem Punkt
"KB = größeres Freistellungspotential"
wäre demnach
"APS-C = Schärfentiefe Vorteil (insb. bei kleinen Blendenzahlen bei z.B. "dunklen" Lichtverhältnissen)"
In a nutshell:
- Je größer der Sensor, desto mehr "Echte Informationen" in Form der einfallenden Photonen kann er einfangen. Die Sammelfläche ist einfach größer
--> damit ist theoretisch die Detailauflösung besser.
Hmmm ..., auch noch einige Fragen (für mein Verständnis):
Unter der Voraussetzung, dass beide Sensoren (KB + APS-C) dieselbe Auflösung, d.h. dieselbe Pixelanzahl (bspw. 24 MP) haben, wo besteht dann der Unterschied in der "Anzahl echter Informationen", die der jeweilige Sensor "einfangen" kann?
Und ist es nicht gerade so, dass die Detailauflösung vom Pixelabstand abhängt, der unter den o.g. Voraussetzungen beim APS-C Sensor ja deutlich kleiner ist?
(Dass ein geringerer Pixelabstand wiederum andere Probleme mit sich bringt, wie z.B. eine geringere Menge Photonen, die auf die einzelne Diode fallen, was wiederum eine größere Signalverstärkung bedingt, die u.U. den Auflösungsvorteil wieder konterkariert, ist wieder ein anderer Punkt.)
Die Fläche zwischen den Pixeln, die halt abhängig vom Pixelabstand ist, ist ja quasi die Fläche, auf der der Sensor keine "Information" erfasst/ erfassen kann.