Soweit ich das gesehen habe ist das ja kein "richtiges" fotografieren mehr:
Bei der klassischen Digitalkamera wird das Bild ja dadurch erzeugt, dass möglichst genau die richtige Dosis Photonen möglichst optimal eingefangen werden um dann letztendlich ein optimales Bild als Projektion auf dem Sensor zu haben, der dann am Ende ausgewertet wird. So dass entsprechend der eingefangenen Lichtmenge und -Farbe dann eben eine Bitmap entsteht (also eine digitale Datenstruktur aus 1 und 0), die sich über einen Monitor oder einen Beamer oder einen digitalen Ausbelichter dann in ein für den Menschen erkennbares Bild aus verschiedenen Farben und/oder Helligkeiten umwandeln lässt.
Diese neue Technik arbeitet hier anders - hier werden zwar auch erst mal Photonen eingefangen - aber eben über eine Optik, die durch ihre minimalen Abmaße usw. zum einen nicht wirklich scharf abbilden kann, die aber zudem auch noch Massen an Aberrationen usw. erzeugt. Hier wird dann durch einen Sensor auch noch erst mal eine digitale Bitmap erzeugt - die dann aber bei der Ausgabe einfach erst mal nur als "Bildmatsch" und "Müll" erkannt werden würde. Und genau hier setzt dann der eigentliche Kern der neuen Technik an - man gibt diese Bilder nun in ein neuronales Netzwerk ein, das davor mit genau dieser Kamera trainiert wurde um möglichst gute Abbildungen berechnen zu können. So dass diese "KI" (also das neuronale Netzwerk) die Fehler und Unschärfen der Optik dann letztendlich einfach raus rechnen kann aus dem Bild. Und am Ende kann keiner wirklich so ganz genau sagen was das neuronale Netzwerk da wirklich mit den Daten aus der Kamera gemacht hat - aber es wurden aus "Bildmüll" dann eben "gute Bilder" gerechnet. Womit das Ganze keine Abbildung der Realität mehr ist. Aber das neue System hat mit etwas Rechenpower die für die Realität wahrscheinlichsten Pixelwerte für das fertige digitale Bild berechnet.
Und genau hier kommen eben die 2 Probleme, die meiner Meinung nach diese Technik erst mal nicht so zu einer komplett neuen Fototechnik-Sparte werden lassen: Es ist zum einen eben kein Foto mehr, es ist ein künstliches, computergeneriertes Bild, das so eben auch nicht mehr die Realität abbildet, sondern lediglich eine Interpretation von vorhandenen Bild-Daten durch eine von ihrem Training massiv beeinflussten "KI". Das ist allerdings mittlerweile nur noch ein kleiner Einwand, angesichts der vielen Filter und "digitalen Schönheitskorrekturen", die mittlerweile bei Insta & Co. völlig normal geworden sind.
Das Hauptproblem dürfte aber eher die immense Rechenleistung sein, die hier notwendig wird um so ein Bild aus dem "Bildmüll" zu erzeugen. Klar hat sich da viel getan seit der ersten Digitalkamera - und selbst eine einfache digitale Kamera hat heute wohl mehr Rechenpower als die Supercomputer, die damals die Daten zur Mondlandung berechnet haben. Und selbst das Ladegerät der Kamera hat wohl mehr Rechenleistung als die Mondfähre (mit ihren 74kB RAM.. und diversen ICs, die noch im kHz Bereich getaktet waren ). Aber für z.B. 6 Bilder/s mit 35+ MPix dürfte es auch mit der neuesten Technik immer noch eng werden bei der Berechnung der wahrscheinlichsten Pixelwerte.
Aber wenn man sich die Steigerung der Rechenpower von Smartphones und sonstigen Geräten wie digitalen Kameras an schaut über die "Jahre und Jahrzehnte", dann kann es durchaus sein, dass diese neue Technik in ein paar Jahren nicht nur deutlich bessere Bilder liefert (im Sinne von korrekt geschätzten Werten für die Pixeldaten usw.), es dürfte auch kein so großes Problem mehr sein so mal eben ein 35 Mpix Bild im Bruchteil einer Sekunde zu berechnen. Von daher sehe ich durchaus großes Potential in dieser Kombination Nano-Kamera/KI. Nur eben nicht in unmittelbarer Zukunft. Das wird noch ein bisschen Dauern, bis sich so was durchsetzen kann. Und selbst dann werden sicher noch viele "klassisch" fotografieren wollen. Also "echte" Abbildungen machen wollen.