• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lytro Light Field Camera

Status
Für weitere Antworten geschlossen.
Das 3D-Wackelbild klingt beeindruckend - aber das Ergebnis ... naja ähnliches können heute schon GIFs ...

Das ist ein GIF. :p
 
Nette Spielerei. Das war's aber auch.

Ja das denke ich mir zur Zeit auch - sicher, mit kommenden Generationen bzw. Weiterentwicklungen könnte daraus mehr als nur eine Spielerei werden ... aber mit dieser Anfangs-Kamera nicht. Schon alleine die Haltung dieser Kamera ist ein Witz - ich habe hier im Büro einen dicken Klebstoff-Roller - der hat eine ähnliche Form und wenn ich den nun so vor mich halte und dann hinten auf dem imaginären "Screen" schau ... nein das geht echt nicht.

Aber ich denke, dass diese Kamera sicher gut für so "Spanner" (sorry, aber solche Leute sind echt störend) oder für Street-Fotografie ist, da sie nicht so auffällt und man sich keine Gedanken über den Fokus machen braucht. Einfach zum Objekt der Begierde hinhalten und abdrücken. Daheim am PC dann scharf stellen. Fertig.
 
Zuletzt bearbeitet:
man kann es natürlich einfach als Spielzeug abtun.

Man könnte aber auch sagen - interessant, was bereits diese allererste, relativ billige Lytro-Lichtfeld-Kompaktknipse (plus Software) vom Start weg an Möglichkeiten bieten. Wieviele andere Kameras gibt es denn derzeit noch, die nachträglich fokussierbare Bilder und 3-D Bilder mit einem Objektiv und aus nur einer Aufnahme liefern können? Egal, in welcher Auflösung/Bildqualität ... na also! :-)

Im Übrigen sollte man - wie schon mehrfach erörtert - das im web an Bildern und Effekten Gezeigte nicht unbedingt 1:1 mit dem gleich setzen, was die Kamera selbst plus die Software nbei Auslieferung bzw. an einem PC dann wirklich. Gerade die Software bis hin zu den mathematischen Modellen und Algorithmen sind ja durchaus noch "in rasanter Entwicklung". :)

Und es zwingt einen ja keiner zum Kauf. Man kann auch abwarten, bis zur 2., 3. oder 4. Produktgeneration, kein Problem.

Das ändert nichts daran, dass in Kürze für jeden, der will, eine neue Form des Fotografierens möglich ist. Und wie der Erfinder sinngemäss schreibt ... Mega-Pixel am Bildsensor und CPU-Leistung dazu gibt es schon bald in derartiger Überfülle, dass man ruhig einen Teil davon für die zusätzlichen Möglichkeiten der Lichtfeldtechnik verwenden kann und dabei noch immer "mehr als genug" Auflösung "übrig bleibt". :D
 
Schon alleine die Haltung dieser Kamera ist ein Witz - ich habe hier im Büro einen dicken Klebstoff-Roller - der hat eine ähnliche Form und wenn ich den nun so vor mich halte und dann hinten auf dem imaginären "Screen" schau ... nein das geht echt nicht.

Dass ein Gutteil der Menschheit einmal kleine quaderförmige Kameras an beiden weit ausgestreckten Händen vor sich hält und keine Probleme hat, so zu fotografieren, hätten wir uns wohl alle noch vor 20 Jahren nicht vorstellen können. Und nochmals etwas früher wäre es undenkbar gewesen, mit einer Kamera zu fotgrafieren, die nicht auf einem stabilen Stativ steht und der Kopf des Fotofrafen unter einem schwarzen Tuch ist. :evil:

Die Lytro muss man nicht einmal am ausgestreckten Arm vor sich halten, man kann damit einfach wie mit einer kleinen Taschenlampe auf die Motivszene "leuchten" ... also ich denke schon, dass das die meisten von uns hinbekommen werden. ;-)

Aber ich denke, dass diese Kamera sicher gut für so "Spanner" (sorry, aber solche Leute sind echt störend) oder für Street-Fotografie ist, da sie nicht so auffällt und man sich keine Gedanken über den Fokus machen braucht. Einfach zum Objekt der Begierde hinhalten und abdrücken. Daheim am PC dann scharf stellen. Fertig.

exakt. Ich freue mich darauf, wenn es *endlich* Kompaktknipsen gibt, mit denen ich so fotografieren kann. :top:

Und wenn ich beim Scharfstellen eine echte Herausforderung haben will, dann nehme ich eben die DSLR mit einem manuellen Zeiss Objektiv aus dem Schrank und gehe in die Sporthalle damit. :lol:
 
Man könnte aber auch sagen - interessant, was bereits diese allererste, relativ billige Lytro-Lichtfeld-Kompaktknipse (plus Software) vom Start weg an Möglichkeiten bieten. Wieviele andere Kameras gibt es denn derzeit noch, die nachträglich fokussierbare Bilder und 3-D Bilder mit einem Objektiv und aus nur einer Aufnahme liefern können? Egal, in welcher Auflösung/Bildqualität ... na also! :-)

Was aber, wenn man dies gar nicht braucht? Na also! :D
Aber wie du richtig sagst, man muss diese Kamera nicht kaufen.

Die Lytro muss man nicht einmal am ausgestreckten Arm vor sich halten, man kann damit einfach wie mit einer kleinen Taschenlampe auf die Motivszene "leuchten" ... also ich denke schon, dass das die meisten von uns hinbekommen werden. ;-)

Ich bin mir sicher, dass man sich dabei schwer tut, die Kamera gerade zu halten. Schon mit einer richtigen Kamera ist es gar nicht soooo einfach.
 
Zuletzt bearbeitet:
Nette Spielerei. Das war's aber auch.

Das hatte man vom Telefon auch behauptet. (Wobei ich vermute, du meinst das konkrete Lytro-Model und nicht die dahinter steckende Technologie.)

Es ist erstaunlich, wie gering das Interesse an diesem Thema ist bzw. wie stark auch die Ablehnung ausgeprägt ist. Dieser Thread hat gerade mal 8.000 Hits und die drei anderen Threads zum gleichen Thema haben noch weniger Interesse hervorgerufen.

Gut, es kann sein, dass man hier im Forum nur schaut, wie man die nächsten Tage sein Geld verprassen könnte bzw. um über die gerade gekaufte Kamera zu jammern. Witzigerweise ist eines der Lieblingsthemen der Autofokus und dessen Fehlfunktionen.

Spielzeug? Ist es echt so schwer eine Technologie zu erkennen, die das Potential hat, die Fotowerkzeuge von Grund auf umzukrempeln?

Über die Skalierbarkeit des Systems "digitale Lichfeldkamera" wissen wir fast nichts. Die Pixeldichte von einigen Kompaktkameras lässt vermuten, man könnte 400 Millionen Sensoren auf 24 x 36mm unterbringen. Sofern man nicht mehr als 49 Sensoren hinter eine Mikrolinse packt, kommt man mit realistischem Aufwand zu einer 2D-Auflösung von 8MPixel.

Solange man auf das Recycling von Sensoren, konstruiert für herkömmliche Kameras, also im Bereich von 10 bis 24 Millionen Pixel, angewiesen ist, kann die Technik nur "Spielzeug" Niveau erreichen.

.
 
Zuletzt bearbeitet:
Über die Skalierbarkeit des Systems "digitale Lichfeldkamera" wissen wir fast nichts. Die Pixeldichte von einigen Kompaktkameras lässt vermuten, man könnte 400 Millionen Sensoren auf 24 x 36mm unterbringen. Sofern man nicht mehr als 49 Sensoren hinter eine Mikrolinse packt, kommt man mit realistischem Aufwand zu einer 2D-Auflösung von 8MPixel.

Solange man auf das Recycling von Sensoren, konstruiert für herkömmliche Kameras, also im Bereich von 10 bis 24 Millionen Pixel, angewiesen ist, kann die Technik nur "Spielzeug" Niveau erreichen.
.

Die Lichtfeld-Technik stehen noch ganz am Start - da wird sich technisch noch sehr viel tun. Wie schnell das geht, hängt primär davon ab, wieviel Geld in die Sache reinfliesst. Aber auch mit heutigen Sensoren lässt sich schon Einiges machen - vor allem, weil man in einem man Auflösung und Richtungsinformation ja auch direkt gegeneinander abtauschen kann. Da gibt es sicher etliche gute "Kompromiss"-Möglichkeiten.

Siehe auch Raytrix, die immerhin schon bis zu 1/4 der Sensor-Auflösung herausholen - an einem 24 MP APS-C Sensor wären das immerhin schon 6 MP, wenn man die Mikrolinsen klein genug/derart dicht gepackt hinbekommt? Und 6 MP sind ja nach Meinung mancher Fotografen "längst genug" ;-)
 
Einige neue Living Pictures: https://www.lytro.com/lytro-camera-...urce=Embed&utm_medium=EmbedLink/361&_suid=341

Und ein 3D-Wackelbild: http://blog.lytro.com/news/lytro-demo-at-asiad-allthingsd/#more-664

Nachtrag: Ich habe nachgezählt. Das Wackelbild besteht aus 5 verschiedenen Perspektiven. Dasraus kann man nicht viel ableiten, da die Ansichten z.T. interpoliert sein könnten.

Sie sind interpoliert. Die Kamera kann ja nicht bei einer Aufnahme die Perspektive ändern. Wenn man auf die Hemdfalten achtet, dann sieht man wie die sich verschieben.
 
Siehe auch Raytrix, die immerhin schon bis zu 1/4 der Sensor-Auflösung herausholen - an einem 24 MP APS-C Sensor wären das immerhin schon 6 MP, wenn man die Mikrolinsen klein genug/derart dicht gepackt hinbekommt? Und 6 MP sind ja nach Meinung mancher Fotografen "längst genug" ;-)

Ja, aber bei einer reduzierten Fokustiefe, siehe deren Auflösungsgrafik.
 
Ja, aber bei einer reduzierten Fokustiefe, siehe deren Auflösungsgrafik.

natürlich! Wie ich gerade schrieb und ein paar posts weiter oben aus Ng's Diss zitierte - Auflösung und Richtungsinformation sind durch Veränderung des Abstands der Mikrolinsen zum Sensor [Beta] direkt gegeneinander "abtauschbar".

Ng überlegt deshlab ja schon in seiner Diss,den Abstand der Mikrolinsen-"Wabe" (array) von der Sensoreben per Motor variabel zu machen. Dann könnte der Fotograf - je nach Art des Bildes, das aufgenommen werden soll - zwischen einer plenoptischen Kamera (maximale Richtungsinformation, wenig Auflösung - mit Zahl der Mikrolinsen begrenzt) und einer herkömmlichen 2D-Kamera (keine Richtunsginformation, Auflösung = Sensorauflösung) per Knopfdruck selbst wählen. Vielleicht kommt das ja noch in zukünftigen Lytros oder Konkurrenzmodellen. :)
 
Sie sind interpoliert. Die Kamera kann ja nicht bei einer Aufnahme die Perspektive ändern. Wenn man auf die Hemdfalten achtet, dann sieht man wie die sich verschieben.

Interpolieren kann man eine andere Perspektive nicht. Das dürfte so wie bei einigen Kameras bereits mit Schwenken der Kamera während der Aufnahme funktionieren.


Ja, aber bei einer reduzierten Fokustiefe, siehe deren Auflösungsgrafik.

Für höhere Auflösung ist das System - zumindest in der hier derzeit gelösten Art - nicht einsetzbar. Es ergeben sich dann derart urgewaltige Datenmengen und auch eine derart hohe Pixeldichte am Sensor, durch die die Lichtempfindlichkeit dramatisch verschlechtert wird.

Wenn man beispielsweise davon ausgeht dass die Lytro - davon gehe ich einmal aus - ein Bild mit 1Mpx Größe macht und dafür einen Sensor von 11Mpx braucht, dann ist das schon eine Reduzierung auf zumindest 1/11 des Lichts. Wenn man ein größeres Bild will, dann braucht man engere Focussier-Stufen, also muss man beispielsweise 22 Bilder dafür machen; damit ist die Lichtempfindlichkeit auf 1/22 reduziert, das sind mehr als 4 Blendenstufen.

Ich denke, dass das so wie in der Lytro-Kamera realisiert - vielleicht noch mit etwas höherer Auflösung - schon seinen Zweck erfüllt. Also für Facebook, kleine Papierfotos, elektronischer Bilderrahmen. Das ist sowieso die Hauptverwendung für die allermeisten Leute und daher ein urgewaltiges Marktpotential.

Aber für ernsthafte Fotografie mit anständiger Auflösung von zumindest 5Mpx wird man sich eine andere Technologie einfallen lassen müssen. Auch die Dateigrößen die sich dabei ergeben würden wären ein Wahnsinn.
 
Zuletzt bearbeitet von einem Moderator:
Interpolieren kann man eine andere Perspektive nicht. Das dürfte so wie bei einigen Kameras bereits mit Schwenken der Kamera während der Aufnahme funktionieren.

Ich gehe davon aus das die aus einem Bild berechnet wurde, sonst wüsste ich nicht was das Bild in der Galerie soll.
Wenn ich Tiefeninformationen zu den Pixeln habe, dann kann ich diese doch gegeneinander verschieben um einen Perpetivewechsel vorzutäuschen. Die fehlenden Bildbereiche interpoliert man aus der Umgebung. Bei kleinen Verschiebungen wie im Beispiel kann das funktionieren wenn man nicht zu genau schaut (z.B. Bewegungen im Hemd).


Für höhere Auflösung ist das System - zumindest in der hier derzeit gelösten Art - nicht einsetzbar. Es ergeben sich dann derart urgewaltige Datenmengen und auch eine derart hohe Pixeldichte am Sensor, durch die die Lichtempfindlichkeit dramatisch verschlechtert wird.

Mir brauchst Du das nicht zu erzählen ;-).


natürlich! Wie ich gerade schrieb und ein paar posts weiter oben aus Ng's Diss zitierte - Auflösung und Richtungsinformation sind durch Veränderung des Abstands der Mikrolinsen zum Sensor [Beta] direkt gegeneinander "abtauschbar".

Ja, aber warum verwendest Du denn in deiner Rechnung die geringe Fokustiefe um auf eine höhere Auflösung zu kommen? Das löst das Problem doch nicht das man eine hohe Auflösung benötigt um "brauchbare" Auflösung zu erhalten ohne fokusieren zu müssen.
 
Zuletzt bearbeitet von einem Moderator:
Ja, aber warum verwendest Du denn in deiner Rechnung die geringe Fokustiefe um auf eine höhere Auflösung zu kommen? Das löst das Problem doch nicht das man eine hohe Auflösung benötigt um "brauchbare" Auflösung zu erhalten ohne fokusieren zu müssen.

wenn möglich, lies bitte wirklich einmal die Diss. Es ist- noch dazu für eine durchaus bahnbrechende wissenschaftliche Arbeit - sehr lesbar geschrieben. Als Nicht-Physiker/Mathematiker kann man - wie ich - den Formelkram auch auslassen - der Text und die sehr guten Ilustrationen sind ausreichend für ein gutes Basis-Verständnis der Technik.

Natürlich gibt es keine Wunder oder - wie die Amis sagen, "there is no free lunch". Jede Technik hat ihre Vor- und Nachteile bzw. es sind stets Entscheidungen zu treffen, welche Ziele einem am wichtigsten sind - zulasten anderer, an sich ebenfalls erstrebenswerter Dinge.

Ng weist nach, dass man mit einem einzigen, relativ leicht zu beeinflussenden Faktor ein und dieselbe Kamera dazu bringen kann, sich entweder wie eine "herkömmliche Kamera" zu verhalten oder wie eine Lichtfeld-Kamera - und alles dazwischen. Die jetzt kommende, erste Lytro-cam wurde mehr auf die Richtungsinformation des Lichts angelegt als auf Auflösung.

Das hat sicher auch technische Gründe, vor allem aber sind es Marketing-Überlegungen. Wenn man mit einer völlig neuen Technik auf den Markt kommt, dann legt man das Produkt doch selbstverständlich so aus, dass damit die im Vergleich zu allem Vorhandenen völlig neuartigen Effekte besonders gut zur Geltung kommen! In diesem Fall ist das ganz klar "scharfstellen nach statt vor der Aufnahme".
 
Ich gehe davon aus das die aus einem Bild berechnet wurde, sonst wüsste ich nicht was das Bild in der Galerie soll.
Wenn ich Tiefeninformationen zu den Pixeln habe, dann kann ich diese doch gegeneinander verschieben um einen Perpetivewechsel vorzutäuschen. Die fehlenden Bildbereiche interpoliert man aus der Umgebung. Bei kleinen Verschiebungen wie im Beispiel kann das funktionieren wenn man nicht zu genau schaut (z.B. Bewegungen im Hemd).

Dass sie das vortäuschen kann freilich sein. Leider machen die dazu keine Angaben und bei dem Beispiel weiß man ja auch nicht, ob das so aus der Kamera kommt oder ob es ungefähr so ausschauen würde, wenn das fertig ist. Oberhalb des Ringfingers bewegt sich jedenfalls ein Bereich vom Hemd bei einigen Einzelbildern mit und rechts oberhalb der Schulter im hellen Bereich taucht bei einzelnen Bildern ein Fleck auf. Schlüssiges kann jedenfalls ich aus dem Beispiel nicht lesen.
 
Interpolieren kann man eine andere Perspektive nicht. Das dürfte so wie bei einigen Kameras bereits mit Schwenken der Kamera während der Aufnahme funktionieren.
nein,da wird nichts geschwenkt. Das ist ja das Schöne an der Lichtfeldtechnik, dass man aus der mitgespeicherten Richtungsinformation des einfallenden Lichts verschiedenste Perspektiven *berechnen* kann.

Für höhere Auflösung ist das System - zumindest in der hier derzeit gelösten Art - nicht einsetzbar. Es ergeben sich dann derart urgewaltige Datenmengen und auch eine derart hohe Pixeldichte am Sensor, durch die die Lichtempfindlichkeit dramatisch verschlechtert wird.
Die Speicherung der Richtungsinformation (Vektoren) des Lichts braucht Platz - es wird eben nicht nur ein 2D-Bild gespeichert, sondern der gesamte 4D Lichtraum. Das sind nicht 5, oder 10 oder 22 verschiedne Bilder, sondern de facto unendlich viele. Die erzielbare Auflösung hängt nicht nur von der Pixelzahl am Sensor ab, sondern - wenn die Kamera plenoptisch ausgelegt ist - von der Anzahl der Mikrolinsen ... vermutlich ist das der größere Engpassfaktor. :-)

Ja, die zusätzliche Information braucht mehr Speicherplatz und die Datenmenge muss auch transferiert werden. Für eine Videokamera in Lichtfeldtechnik ist das mit aktueller Technik sicher eine enorme Hürde. Bei Standbildkameras kommt man dagegen auch mit vorhandener Technik ganz schön weit. Und wenn die Datenmenge z.B. 10x so groß ist, macht die cam notfalls eben keine 10 Bilder/Sekunde sondern nur eines. Das dafür ohne scharfstellen zu müssen und auf Wunsch auch in 3D. :-)


Aber für ernsthafte Fotografie mit anständiger Auflösung von zumindest 5Mpx wird man sich eine andere Technologie einfallen lassen müssen....
ich denke, dass das relativ bald kommen wird - bzw. bei Raytrixx kann man sich eine Lichtfeld-Kamera mit 5 MP Auflösung möglicherweise derzeit schon bauen lassen ... 21 MP KB-Sensoren gibt es ja. ;-)
 
Zuletzt bearbeitet:
Dass sie das vortäuschen kann freilich sein. Leider machen die dazu keine Angaben und bei dem Beispiel weiß man ja auch nicht, ob das so aus der Kamera kommt oder ob es ungefähr so ausschauen würde, wenn das fertig ist. Oberhalb des Ringfingers bewegt sich jedenfalls ein Bereich vom Hemd bei einigen Einzelbildern mit und rechts oberhalb der Schulter im hellen Bereich taucht bei einzelnen Bildern ein Fleck auf. Schlüssiges kann jedenfalls ich aus dem Beispiel nicht lesen.

die brauchen nichts "vorzutäuschen", die können das mit einigen sehr cleveren Algorithmen in der Software nämlich aus dem aufgezeichneten Lichtfeld errechnen. Genau dafür wird das Lichtfeld ja abgespeichert. :)

Lytro / Ng liefert dazu übrigens sehr viele Angaben, auch wenn sie nicht alle technischen & Geschäftsgeheimnisse im Detail ausplaudern. ;)
 
Sie sind interpoliert. Die Kamera kann ja nicht bei einer Aufnahme die Perspektive ändern. Wenn man auf die Hemdfalten achtet, dann sieht man wie die sich verschieben.

Nicht ganz korrekt.
Eine Kamera kann sehr wohl die Perspektive ändern (ohne das man die Optik, respektive die Kamera, bewegt), wenn man die Eintrittspupille verschiebt.
Und genau das ist möglich mit einer Lichtfeld-Kamera. Ein anschauliches Beispiel ist in der Dissertation in Fig. 3.5 zu sehen. Durch einfaches umsortieren sind hier genau die Pixel (-Strahlen) zusammengekommen, die alle durch den gleichen Teil der Blende gegangen sind.
Mit entsprechender Mathematik kann man das auch noch weiter treiben.

criz.
 
Nicht ganz korrekt.
Eine Kamera kann sehr wohl die Perspektive ändern (ohne das man die Optik, respektive die Kamera, bewegt), wenn man die Eintrittspupille verschiebt.

Das kann ich mir nicht vorstellen, das geht ja auch mit einer Fachkamera nicht.

Die Position von der aus man quasi schaut, verändert sich dadurch nicht. Wenn ich einen Würfel fotografiere und vor mir frontal eine der Flächen habe, dann sehe ich nichts von der linken und der rechten Fläche. Das sehe ich aber, wenn ich mit zwei Augen schaue.

Ich glaube nicht, dass man das durch Mathematik lösen kann, weil man das aus der Position in der Mitte beim besten Willen einfach nicht sieht.
 
...also muss man beispielsweise 22 Bilder dafür machen; damit ist die Lichtempfindlichkeit auf 1/22 reduziert, das sind mehr als 4 Blendenstufen.
Nur mal so am Rande:
Bei einer Lichtfeld-Kamera braucht man nie wieder abblenden. Da man zu den Pixeln eine Richtungsinformation hat kann man einfach nur die Strahlen nehmen, welche zu der kleineren Blendenfläche gehören. Nimmt man nun nicht einfach die Mitte in der Blende, sondern verschiebt man die Blendenfläche in der großen Blende kann man sogar die Perspektive wechseln.
Aber hier hört der Spaß nicht auf: Da wir ja die Richtungsinformation haben können wir jedes Pixel beliebig fokussieren - also auch auf die richtige Entfernung. Wir können als ein Bild erstellen, welches eine durchgehende Schärfe hat ohne abzublenden - damit verwenden wir natürlich mehr Information als in einer herkömmlichen Kamera. "Abgeblendet" rauscht einer Lichtfeld Kamera also weniger als eine normale Kamera.

Aber für ernsthafte Fotografie mit anständiger Auflösung von zumindest 5Mpx wird man sich eine andere Technologie einfallen lassen müssen. Auch die Dateigrößen die sich dabei ergeben würden wären ein Wahnsinn.
Im RAW-Format ist Lichtfeld sicher aufwändiger - je nach gewünschter Richtungsauflösung kommt einfach noch mal ein Faktor dazu. Ich vermute aber, dass aufgrund der Art der Information sehr effektive Komprimierungen gefunden werden können. Man sieht das z.B. sehr gut in den "RAW-Bildern" der Dissertation - die einzelnen Nachbarscheibchen unterscheiden sich "relativ" wenig.

Ich vermute, dass die gesamte Technik erst dann interessant wird, wenn Auflösung nicht mehr ein Thema ist - ein KB Sensor mit 200 MP und einer Richtungsauflösung von 16 hätte immerhin noch eine Ortsauflösung von 12 MP - sowas wäre wirklich verlockend.
Wechselobjektive wären aber immernoch problematisch.

criz.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten