Fangen die Sensel mehr Photonen ein, wenn man sie nur auseinanderrückt?
Also war meine Annahme in #283, erster Satz, doch richtig?
C.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Fangen die Sensel mehr Photonen ein, wenn man sie nur auseinanderrückt?
naja wenn noch parallel jemand eine Zauberformel findet welche die Lichtbrechung aushebelt, kaufen wir alle eine Lichtfeldkamera und alle Sorgen sind gelöst*Und Du meinst, diese Technik würde dann nicht auch bei größeren Sensoren eingesetzt werden?
Ich feiere Heute mit. Masi, wenn Du es zulässt, gebe ich Dir beizeiten, wenn ich in Hamburg bin, ein Getränk aus.
Also war meine Annahme in #283, erster Satz, doch richtig?
Nein, es liegt nicht an deren Größe, sondern an der Flächenbedeckung. Das geht auch mit vielen kleinen Senseln, siehe D7000<>D800.
Aber auch damit bekomme ich nur ein (zwei, vielleicht drei) Gleise in der Bahnhofsachse scharf, die Schärfenebene wird ja nur gedreht, größer wird sie nicht
Lass stecken, ich hab die Nase voll. Gibt Tatort auf WDR.
Der Vorteil des größeren Sensors besteht darin, größer zu sein. Mehr Fläche zu haben.Wenn eines der Vorteile des größeren Sensors doch darin besteht, bei mehr Pixel mehr Details zu zeigen,
Nehmen wir der Einfachheit halber erstmal an, die CAs wären nicht einen halben, sondern einen ganzen Pixel groß gewesen. Jetzt vervierfachen wir die Pixelzahl - das bedeutet eine Verdoppelung in jeder Dimension. Jetzt sind die CAs zwei Pixel breit. In der 100%-Ansicht sind sie jetzt also doppelt so breit wie vorher. Wenn du aber - das vergisst du immer noch - die Bilder der beiden Sensoren in der gleichen Größe ansiehst, sind die Pixel des höher auflösenden Sensors in der Darstellung auch in jeder Dimension nur halb so groß. Die CAs sind deswegen statt einen breiten Pixel jetzt zwei halb so breite Pixel groß - also wieder genauso groß wie vorher. Wie vorhin beim Rauschen kürzt sich die Auflösung raus.dann werden auch z. B. die CAs sichtbar, die bei weniger Pixel nur einen halben Pixel breit waren und nicht sichtbar waren, wenn die Optik nicht der höheren Pixeldichte gerecht wird, oder?
Der Sensor unterscheidet bei Details doch nicht zwischen CAs und einem Maschendraht.
In beiden Fällen, Crop oder KB-Sensor, ist der Sensor an sich "flächendeckend" gefüllt mit lichtempfindlichen Bauteilen (Sensel/Pixel/wieauchimmer). Genau daraus ergibt sich die einfache Rechnung -> KB Sensor erhält 2,56 (1.6*1.6) mal mehr Licht (bzw. Photonen). Unterm Strich ist es egal, ob es 8 Millionen Pixel sind oder 36 - im Endergebnis (unbeschnitten) sind alle Pixel für das ganze Lichtaufkommen im Ergebnis zuständig. Das Gleiche kann man auch über µFT oder Cropsensoren sagen, nur sind diese kleiner, ergo werden da deutlich weniger Photonen gefangen... liegt nicht an deren Größe, sondern an der Flächenbedeckung...
Naja, das ist ja das Gedankenexperiment. Exakt die (Anzahl, Art, Größe) Sensel eines APS-C, verteilt auf KB (so dass wieder ein Sensor daraus wird): Hat dann die größere Fläche (mit mehr Licht etc.) noch den Rauschvorteil?
Hmm, interessante Dokumente.hier ein Auszug aus einem interessanten Dokument der Firma Schneider-Kreuznach
http://www.schneiderkreuznach.com/p.../know-how/optik-fuer-die-digitale-fotografie/
Interessanterweise steht in diesem Dokument, die Farbsäume sollten kleiner als 2 Pixel sein. Anscheinend kommt dein Zitat unten noch woanders her? Und: Anscheinend sind die sich auch nicht ganz einig...Danach sollen Farbsäume deutlich kleiner als 1 Pixelgröße sein.
Wie ich vermuteteUnd wenn die Pixelgröße kleiner wird, dann müssen auch Farbsäume schmaler werden. Bei älteren Objektiven besteht also die Gefahr, dass sie sichtbar werden ... (aktuelle Beispiele ältere L Objektive an APS-C, siehe auch the-digital-picture.com)
Nun muß noch die sehr wichtige Frage geklärt werden, bis zu welchen Strukturfeinheiten eine Kontrastübertragung überhaupt sinnvoll ist, denn was das Auge nicht mehr sehen kann, braucht auch nicht übertragen (abgebildet) zu werden.
Danach sollen Farbsäume deutlich kleiner als 1 Pixelgröße sein. Wie ich vermuteteUnd wenn die Pixelgröße kleiner wird, dann müssen auch Farbsäume schmaler werden. Bei älteren Objektiven besteht also die Gefahr, dass sie sichtbar werden ... (aktuelle Beispiele ältere L Objektive an APS-C, siehe auch the-digital-picture.com)
@masi, @grundstoffkonzentrat
Kann es sein, dass ihr immer wieder vergisst, dass wir in der 100 Prozent-Ansicht am Monitor keine realen Pixel des Sensors betrachten können, sondern genaugenommen nur die math. Resultate der Verrechnung von mehreren Nachbarpixel aufgrund der Bayermatrix?
Das bedeutet aber, dass die Frage, ab wann sich Farbsäume im späteren Bild bemerkbar machen nicht generell beantworten lassen und eher ein Erfahrungswert darstellen. Es spielt also eine Rolle, welche Bayer-Matrix ich verwende, wie stark ein Sensorbild überhaupt vergrößert werden muss und wie groß die Pixel auf dem Sensor überhaupt sind...
Epitox