so ist es.
Auch wenn
rein visuell ein Gutteil des gezeigten Effekts auch per focus-stacking aus mehreren Aufnahmen mit einer konventionellen Kamera per Software herstellbar wäre. ;-)
Damit hast du recht, bei deutlich höherem Aufwand.
Blos müsstest du bei focusstacking für jede Ebene Bilder der passenden Scharfevariante vorhalten, hättest also n Aufnahmen zu machen. und bräuchtest auch noch einen Viewer, der dir die Möglichkeit gibt durch das Bild zu wandern und dabei die jeweils passenden Bilder auszuwählen. Wenn man nur die Intention Focusstacking = alles Scharf betrachtet, dann käme man zu diesem einen speziellen Bild und könnte es nicht unterscheiden.
Das passiert hier durch die Lichtfeldtechnik mit einer Aufnahme und du kannst mit der Schärfe durchs Bild wandern. Durch andere Auswertungen sollten sich sogar Stereobilder errechnen lassen.
Insgesamt eine sehr interessante Technik wobei diese Kamera für unsere derzeitigen Ansprüche eine Alpha-Produkt liefert zu geringe Auflösung zu wenig Ebenen, man kann nur
hoffen, das die
Firma überlebt und sich
weiterentwickelt. Die meisten Meckereien werden voraussichtlich aufhören wenn man zumindest 1920*1024 (HD) als Bildformat anbieten kann.
Aus meinem Verständniss müsste man die Anzahl der beitragenden Elemente mindestens verdoppeln, damit das Wandern durch das Bild besser wird, die Algorhytmik müsste den Fernbereich noch besser dabei differenzieren und wie oben erwähnt die Auflösung hinauf.
Was bedeutet das, derzeit wird eine 11 MPix Sensor genutzt also eine Untersetzung zum 1MPix Bild von 11 zu eins. Meine Forderung sowohl Auflösung als auch Anzahl der Strahlen pro Bild mindestens zu verdoppeln führt mindestens zu einem 44 MPix Sensor, also mehr als der Markt derzeit anbietet.