Das kann ich soweit gut nachvollziehen. Für mich ergibt sich aber daraus immernoch die Folgerung, dass eine Linse, die die Kapazität des für überständige Bereiche verbrauchten Lichts für die Darstellung des Eigentlichen Bildes ausnutzen könnte, um einiges lichtstärker wäre. Das scheint aber leider aufgrund physikalischer Gegebenheiten nicht umgehbar zu sein.
Dennoch bleibt ein großer Lichtverlust! Das System ist nicht perfekt. Und warum sollte ich meine Überlegung als belanglos begraben??
Und wie soll das bitte gehen? Du schneidest ja von einem Kreis zwei Bereiche ab, verringerst also die Fläche, die bestrahlt wird, und erwartest das dadurch mehr Licht genutzt werden kann? Die Randbereiche der Linse sind immer Problematisch (Schärfe, Abbildungsleistung, Vignettierung) - bin kein Fachmann - aber bin mir ziemlich sicher, dass, wenn du eine eckige Linse hast, das Bild schlechter wird.
Beispiel: Wir haben unsere runde Linse, das Bild das entsteht ist mittelmäßig, vor allem der Randbereich ist sehr unscharf und dunkel durch die vielen Beuge- und Brechvorgänge - aber wird schneiden diese Bereiche heraus und nehmen und das Schönste (nämlich die Bildmitte) um diese abzubilden. Dennoch haben wir in den Ecken noch die Probleme der Randbereiche, da diese ja auch die letzten Randbereiche des Kreises sind. Wenn wir jetzt ein überdimensionales Objektiv hätten, dass - sagen wir mal - 5 mal größer ist als der Sensor, und würden wieder freischneiden, hätten wird ein besseres Bild - Schärfe bis an den Rand, keine Verzerrung, keine Vignettierung, etc. Aber es wäre ein ziemlich schlechtes Kosten-Nutzen-System. Bei deiner eckigen Linse wären nicht nur die Ecken mies, sondern der gesamte Rand. Außerdem kannst du nicht erst eine Linse schleifen und dann wegfräsen - damit versaust du dir das Schleifen und deine Oberfläche - Schleifen ist sehr TEUER. Die eckige Linse hat auch nicht mehr die selben Eigenschaften, das Licht wird anders abgelenkt und müsste neu berechnet werden und anschließend nochmal geschliffen.