Es wird Vektor, Lichtintensität bzw. Farbe aufgenommen.
Aber beim genannten Model kann der Vektor prinzipbedingt gar nicht so genau bestimmt werden, weshalb
whrs Aussage auf dieses Modell bezogen ja nicht falsch ist. Zudem wird sich eine Art lokale Pixelparallaxe ergeben und verdammt wenig Licht für den effektiven Bildpixel, was das Thema Rauschen wieder hervorbringt.
Das ist vielleicht alles noch nicht ideal, aber es zeigt doch, wo es hingehen kann. Nicht nur das Verschieben der Fokusebene kann ich mir vorstellen, sondern auch das Verschwenken. Da hat man quasi Tilt´n Shift schon mit an Board, auch wenn man hinterher softwaremässig vlt. noch die Ausdehnungen anpassen muss. Tiefenschärfe und Fokus können nicht nur über das gesamte Bild, sondern kontextspezifisch festgelegt werden oder auch auch nicht. Man kann sich das Bild formen, wie man möchte, ohne dass das schon wirklich Richtung BV geht.
Allerdings vermute ich auch, dass man im Vergleich zur klassischen Fotografie ziemlich grosse Linsen in Bezug auf die Sensorgrösse brauchen wird. Denke ich an die abgeschnittenen Bokeh-Kreise im Randbereich herkömmlicher Bilder, glaube ich, dass im Moment nicht das gesamte Lichtfeld der realen Szenerie auf den Sensor projeziert wird bzw. das von einer Linse projezierte Lichtfeld sphärisch oder vielleicht ellipsoid ist. Und damit die virutelle Bildebene darin beliebig gedreht (oder vielleicht auch bewegt) werden kann, muss sie entsprechend klein bzw. das Lichtfeld und die Linsen entsprechend gross sein. Weiss jemand, was ich damit meine?
Ich glaube auch, dass CAs, Denzentrierungen und andere Abbildungsfehler der Linsen dabei zunehmend zum Problem werden bzw. nicht mehr tolerierbar sind. Diese wird man zwingend beheben müssen, damit das Prinzip funktioniert. Oder?
Der Ottonormalverbraucher hats gern überall scharf, der Amateur jede Menge Technik, dem Profi ist es egal und ich habs gern einfach. Wo soll da der Markt sein?
