Der Punkt ist eben, dass große Pixel schneller Ladung sammeln können, und man dadurch weniger verstärken muss. Man hat zwar häufig eine Korrelation von KB-Sensoren und großen Pixeln, aber einen entsprechenden kausalen Zusammenhang hat man dadurch noch lange nicht. Gerade der ist aber wichtig, wenn man die Lichtausbeute als Argument anführen will.
Die Pixelgröße ist nicht wichtig. Daher auch nicht der Zusammenhang zwischen Sensor- und Pixelgröße. Die Summe über alle Pixelgrößen = Sensorfläche ist wichtig.
Nein, erklärt wurde bis jetzt nur wenig. Es wurden nur Aussagen getroffen.
Lies doch weiter vorne im Thread mal die Diskussion mit "-rabu-" durch. Da habe (unter anderem) ich eine Menge erklärt.
Das Problem ist, dass man in "Pixeln" bei der Wiedergabe denken muss - im Zweifelsfall also "Augenpixel", wenn die Auflösung durch nichts anderes (Sensor, Wiedergabemedium etc.) limitiert ist. Da werden dann spätestens sowieso die Sensorpixel gemittelt.
Und das Photonenrauschen ist ebenfalls ein Effekt der auf Pixelebene stattfindet. Wie soll es auch anders sein?
Zunächst mal ja. Aber dann werden immer mehrere Sensorpixel gemittelt. Spätestens bei der Betrachtung im Auge - meistens lange vorher bei der Wiedergabe. Lies dir doch mal
diese beiden Posts von mir durch.
Man liest ja nicht die Gesamtladung der Sensorfläche aus.
Nein, aber man mittelt am Ende (wie gesagt, spätestens im Auge des Betrachters) immer über mehrere Pixel, d.h. man liest quasi deren Gesamtladung aus. Und wenn es mehr kleinere Pixel sind und weniger größere, ist das Ergebnis trotzdem gleich.
Genau. Wenn Du alles zusammenschüttest hast Du recht. Was kommt wohl bei dabei raus, wenn Du bei einem digitalen Bild alles zusammenschüttest?
Wie gesagt: Du schüttest nicht
alles zusammen, aber zwangsläufig immer ein paar Pixel. Andernfalls würdest du bei der Betrachtung einzelne Pixel erkennen.
Dann wird die Pxielzahl relevant, weil sie nämlich zu klein ist.
Es gibt da so ein paar tolle Regeln bei die man beim Zusammenspiel zwischen Optik (v.a. der Blende) und der dahinter liegenden Sensormatrix beachten sollte. Eine wichtige Faustregel dabei ist z.B. das die Beugungsscheiben nicht größer werden sollten, als der Abstand zwischen zwei benachbarten Sensorelementen (aka Pixeln).
Sowas hat "-rabu-" ja später auch noch zitiert. Solche Regeln gibt es. In erster Näherung ist die Überlegung ja nicht falsch: Wenn ich mit der Größe der Scheibe grundsätzlich unter einer Sensorpixel bleibe, bin ich jedenfalls sicher, dass die Beugung (oder sonstwie entstandene Unschärfe, das ist hierfür ja egal) keine Auswirkung haben kann. Wenn ich diesen Pixel jetzt aber in vier einzelne aufteile (und sich die Beugungsscheibe daher über aller vier erstreckt) und hinterher diese vier bei der Betrachtung wieder zusammenwerfe, habe ich nichts verloren.