• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lytro Light Field Camera

Status
Für weitere Antworten geschlossen.
Nein, zumindest nicht bei mir. Meine Vorstellung beruht darauf, dass digitale Daten nie stufenlos sind. Die Anzahl der Stufen muss nur ausreichend sein um quasi stufenlosen zu sein, z.B. 24Bit RGB Farbauflösung.
das ist jetzt aber schon sehr spitzfindig. 2hoch24 sind so feine Stufen, dass es wohl jeder Mensch als "stufenlos" wahrnehmen würde.

Bei der Lichtfeldtechnik frage ich mich wie hoch den die Auflösung der Tiefenebenen ist, sie wird nicht unendlich von der Distanz von 0 bis unendlich sein. Wenn ich das richtig sehe geht die Auflösung der Tiefeninformation zu Lasten der Bildauflösung. Ergo muss wie so oft ein Kompromiss gefunden werden.
http://www.bythom.com/ mutmasst dazu auch ... er glaubt, die Anzahl der Fokuszonen (=Deine Stufen) entspräche 1:1 der Anzahl an Sensorelementen (Sensel, vulgo "Pixel") die einer Mikrolinse zugeordnet sind, und denkt, dass es bei der Lytro 16 "Fokuszonen / Stufen" sein könnten.

Ich selbst sehe das etwas anders und gehe davon aus, dass bei einer plenoptischen Kamera die Software auf Basis der Richtungs-Information der Lichtstrahlen tatsächlich jede beliebige "virtuelle" Schärfenebene [also in "unendlich kleinen Stufen"] darstellen kann. So fasse ich auch die Aussage von Ng (Video-Interview) und die Information im bereits verlinkten Raytrix-pdf auf. Ob das in der Praxis und spezifisch bei den Lytro Kameras wirklich so ist, wird sich spätestens zeigen, wenn die Dinger auf den Markt kommen.

Für höherauflösende Bilder zusammen mit einer hohen Tiefenauflösung braucht man also eine sehr hohe Pixelzahl.
Das sehe ich auch so - die zusätzliche Information "braucht ihren Platz". Die Entwicklung wird also ganz wesentlichd davon abhängen, wie schnelle das (oft verdammte) Megapixelrennen bei Bild-Sensoren weitergeht - bzw. vielleicht wird es durch die Anforderungen der Lichtfeldtechnik (LF) nochmals stark beschleunigt. Dazu kommt, dass die riesigen Datenmengen auch ausgelesen/transferiert werden müssen. Und die Anforderungen an die Rechnerleistung bei der Entwicklung der LF-RAW-Bilder werden mit der Datenmenge auch stark steigen. Es gibt sicher noch einiges zu forschen und entwickeln in den nächsten Jahren. Andrerseits brauchte man noch vor 1 Jahr dutzende Kameras und Supercomputer um im Labor LF-Bilder zu produzieren.
 
das ist jetzt aber schon sehr spitzfindig. 2hoch24 sind so feine Stufen, dass es wohl jeder Mensch als "stufenlos" wahrnehmen würde.

Bei feinen Verläufen nicht unbedingt. Bei kritischen Motiven mit Himmel erkennt man das im Vergleich zu Aufnahmen mit Film. Studiohintergründe mit Verlauf sind daher seit dem Einsatz von Digitalkameras nicht mehr so modern. Wenn man da an der Gradation nachbearbeiten muss, schaut das schnell schlimm aus.
 
Also d.h. der Fotograf muss jedes Bild erstmal "behandeln." :o

ich erwarte, dass kommende LF-Raw-Konverter-Software die Bilder auch mit einer Standard-Fokus-Einstellung entwickeln kann - also so etwas wie ein nachträglicher Software-Autofokus ... z.B. mit face detection wird "standardmässig" immer auf das vorderste Gesicht scharfgestellt, wenn kein gesicht im Bild ist, erfolgt eine scene analysis (mit Kontrast, Farbe, Abgleich mit Referenz-Mustern etc.) und darauf basierend eine automatische Wahl der Schärfeebene. Das läuft dann als Stapelverarbeitung durch. Man muss dann nur "nachbeabrbeiten, wenn man etwas bestimmtes, anderes haben will. Also genau gleich wie "jpg out of cam" vs. "RAW" fotografieren. Man muss da auch nicht bei jedem Bild den Weißabgleich manuell festlegen, außer man hält es für nötig. .

Kann sein, dass Lytro "sein Ding" zunächst wirklich mit proprietärer Software durchzieht, und tatsächlich nur "living images" auf den eigenen Server exportieren lässt, bei denen der Betrachter mit der Schärfe-Ebene spielen kann ... dann wird es aber sicher nicht lange dauern, bis es "hacks" gibt oder sich Dritthersteller (Adobe!) des Problems annehmen. Oder andere Hersteller bringen "offenere" Geschäftsmodelle. So wie Google/Android vs. Apple. :-)
 
All das was ich vorher einstellen musste, kann ich jetzt nachher am PC einstellen. Es ist also eine zeitliche Verlagerung der Arbeit. Bestimmt ist dies für viele Aufnahmen unnötig und die ''normale Photographie'' ist bdafür mehr als ausreichend. Aber Das oben genannte Beispiel vom Handball. Aufnahmen aus dem Sportbereich oder schnell bewegenden Objekten können damit vereinfacht werden.

Da auf dem Display der Kamera ja das Bild angezeigt wird, wird wohl eine default ''Entwicklung'' durch eingebaute Engine erzeugt werden.


@Bernd71 Die dahinterliegende Idee ist revolutionär, auch wenn sie 108 Jahre alt ist. Die Frage ist bekommen wird es eine finanzierbare hochwertige Implementierung geben.

Für den Handy-Knipser, den Familienvater und die unbeschwerte Alltagsphotographie könnte die Kamera oder deren Nachfolgemodell schon ausreichen, - deren Ziel ist 10*15cm oder Bildschirmauflösung 1920*1080.

Für den Hobby-fotographen, also jemand der sich eine DSLR kauft und bis DIN A0 ausdrucken will, für den ist die Kamera wohl noch nicht geeignet, aber der wartet vielleicht auch noch ein oder 2 Jahre und bekommt dann im 1000-2000 € Segment etwas adäquates.

Und über den Mund fahren mit dem Hinweis mal die Dr. Arbeit zu lesen, sehe ich ein bischen anders. ich bin noch dabei und werde noch ein paar Tage dazu brauchen - und ich bin vorbelastet.

Vielleicht sollten die, die das Neue verdammen auch ein etwas toleranter sein.

Jo die 10000 € für die Kamera kenne ich natürlich - zuzüglich den Folgekosten für die Optiken, ich habe auch schon Probeaufnahmen damit gemacht, da ich Technik und Neuerungs affin bin.

Ich warte auch darauf eine von diesen Kameras in die Hände zu bekommen um mir meine eigenes Urteil bilden zu können.

Kaufen werde ich sie mir drezeit nicht weil ich keine Lust habe in eine Apple zu investieren. Ich warte damit, bis es entweder eine Open Source Lösung oder eine Windows Programm dafür gibt mit dem ich die Bilder bei mir auf meinem PC ablegen kann ohne in die Cloud oder auf eine Firmenwebsite zu müssen. Ich hoffe auch auf einen Viewer mit dem ich die Focusverlagerungsspielchen - welche ich für manche Aufnahmen sehr interessant finde, die aber nicht die Regel sein sollten -auf meinem PC ohne Netzverbindung PC machen kann. Interessiert bin ich an der Focusverlagerung um eine statisches Bild zu erzeugen, Focus-stacking und auch an den möglichen 3d Effekten.
 
Also d.h. der Fotograf muss jedes Bild erstmal "behandeln." :o

Die Schärfe muss man so oder so festlegen. Nach der Aufnahme ist besser, da zu dem Zeitpunkt der Ablauf der Ereignisse genau feststeht. Vor der Aufnahme weiß man nicht (genau) was passieren wird.

Autofokus-Systeme sind wie alle Meßgeräte nicht 100%tig genau. Meistens fällt das nicht auf, aber im Grenzbereich bekommt man das zu spüren. Bei DSLRs kommt der Zeitversatz zwischen AF-Messung und Aufnahme erschwerend dazu.

Selbst wenn der AF immer korrekt arbeiten würde, gibt es letzlich noch ein Problem: Wie entscheide ich mich in einer Situation mit mehreren Menschen, alle in schneller Bewegung, welches Auge von welcher Person scharf sein soll? Wie teile ich das der Kamera mit? Es ist völlig klar, dass die Entscheidung gefällt und der Kamera mitgeteilt werden muss, bevor die besagte Situation überhaupt eintritt.

Das derzeitige AF-Konzept funktioniert nur in Situationen, die man etwa 1/2 Sekunde vorhersehen kann. In der Zeit muss Fotograf und Kamera:
-den Schärfepunkt anvisieren
-halb drücken
-der AF muss die Messung beginnen
-der AF-Prozessor betätigt den AF-Motor

Schneller als in einer 1/2 Sekunde geht das nicht.

Im Elite-Bereich der Sportfotografie werden unglaublich viele Fotos geschossen. Bis zu 5.000 Fotos pro Stunde entstehen dabei. Der AF ist ein Grund und der Drang nach immer naheren Nahaufnahmen (==weniger Schärfentiefe) ist der andere Grund.
 
Ein Hacker konnte ein JPEG den "Living Pictures" von Lytro abringen.

http://marcansoft.com/transf/output.noframes-0.jpg
http://marcansoft.com/transf/output.noframes-1.jpg
http://marcansoft.com/transf/output.noframes-2.jpg
http://marcansoft.com/transf/output.noframes-3.jpg

Die Bildmaße betragen 831 x 831 Pixel. Mit einer angenommen 4 x 4 Matrix ergibt das 11048976 Pixel oder 11MegaRays. :D

Die HD-Auflösung ist also eine nette Umschreibung für 831 x 831 Pixel.

Ich stelle mal eine spekulative Matrix zur Diskussion:

G V V B
V V V V
V V V V
R V V G

In diesem Fall hätte man 12 Vektoren und die 4 Pixel in den Ecken wären für die Farbaufnahme übrig. Die V-Pixel wären unter einer Mikrolinse und die Eckpixel lägen in den rautenförmigen Zwischenräumen, die sich ergeben, wenn man vier Kreise aneinander legt.

.
 
Zuletzt bearbeitet:
Gegen die 4x4 Theorie spricht allerdings dieses Lichtfeld-Foto:

http://www.lytro.com/living-pictures/281/embed

Auf das untere Bilddrittel fokussieren und oben auf die Bokehform im oberen Drittel achten. Man sieht es nur im Vollbildmodus.

Auf diese Form achten: http://mandala.webmg.de/wp-content/uploads/2006/08/sieben-kreise.jpg

Man sieht im Bokeh deutlich einen Kreis der von sechs anderen Kreisen umringt wird. Das ergibt 7 Vektoren. Die 7 plus 2 Farbpixel (Rot+Blau) ergibt 9 Sensoren. Also eine 3 x 3 Matrix, wobei die Pixelreihen um 50% versetzt liegen.

Nachtrag:
..........................
...........O.............
......O........O........
...........O.............
......O........O........
...........O.............
......R.........B........
..........................


Fazit: Eine 3 x 3 Matrix würde 1105 x 1105 Pixel 2D-Auflösung ergeben.

(3 x 3 x 1.105 x 1.105 = 10.989.225)

.
 
Zuletzt bearbeitet:
die 7 Kreise sehe ich auch ... in der Praxis dürfte die Anordnung der Mikrolinsen und deren "mapping" auf die Sensel des Bildsensors aber nochmals deutlich komplexer sein.
Es spielen mehrere Faktoren mit, insbesondere:
* Mikrolinsen - Anordnung, spacing, Brennweite, Blende (auch in Relation zum Aufnahmeobjektiv)
* worauf sind die Mikrolinsen fokussiert (virtuelle Bildebene?)
* (welches spezifische) Bayer Muster & De-Mosaicing

Stichwort: "Lichtfeld plus Super-Resolution" ... Antworten könnten sich in diesem paper aus 03/2011 finden - leider finde ich es nicht gratis. -> http://spiedigitallibrary.org/proceedings/resource/2/psisdg/7873/1/78730X_1?isAuthorized=no
 
Zuletzt bearbeitet:
Ich liefere mal eine Grafik zu meiner 3 x 3 Matrix nach. Wie oben schon geschrieben, beruht die Annahme auf dem Aussehen das Bokehs mit den 7 Kreisen.

Die zweite Grafik zeigt das Beispielfoto mit dem Bokeh.
Edit rud: Anhang gelöscht - Urheberrecht beachten!
 
Zuletzt bearbeitet von einem Moderator:
die 7 Kreise sehe ich auch ... in der Praxis dürfte die Anordnung der Mikrolinsen und deren "mapping" auf die Sensel des Bildsensors aber nochmals deutlich komplexer sein.
Es spielen mehrere Faktoren mit, insbesondere:
* Mikrolinsen - Anordnung, spacing,
In der Dissertation wurde beim Prototyp eine rechteckige Anordnung der Mikrolinsen verwendet, es wurde aber explizit auch auf eine hexagonale Anordnung hingewiesen, welche bei einer runden Blende und den damit verbundenen runden Subbildern die Fläche des Sensors effizienter ausnutzen würde.
Die hexagonalen Muster im Bokeh könnten also schon darauf hindeuten.
Bei eine Richtungsauflösung/Subbildern von 5x5 und jeweils 1 Pixel Abstand könnte man so jeweils die 2x2 Kanten am Eck überlappen.

Brennweite, Blende (auch in Relation zum Aufnahmeobjektiv)
Im Prototyp wurde irgendwas um 500µm (0,5mm) verwendet, Die Blende der Mikrolinsen muss auf die "Blende" der Austrittspupille (wie auch immer man den Quotienten zwischen Durchmesser der Austrittspupille und Entfernung zur Bildebene nennt) abgestimmt sein - wahrscheinlich auch ein Grund für die konstante Blende der Optik.
Auf unendlich fokussiert könnte man dann f/2 auch für die Mikrolinsen vermuten - ich habe keine Ahnung ob man so weit geöffnete Mikrolinsen überhaupt erstellen kann.
Interessant wäre zu wissen, ob die Abbildungsfehler der f/2 Optik schon raus gerechnet werden.

* worauf sind die Mikrolinsen fokussiert (virtuelle Bildebene?)
Ich vermute es wird eine beta=1 Konfiguration verwendet, dann sind die Mikrolinsen auf die Austrittspupille der Optik fokusiert - bei der Größe der Mikrolinsen ist das praktisch Unendlich.
Damit entspricht der Abstand der Mikrolinsen zum Sensor der Brennweite jener.

* (welches spezifische) Bayer Muster & De-Mosaicing
Im Prototyp wurde ein normales Bayernpattern hinter den Mikrolinsen verwendet, da dies erfolgreich war, würde ich erstmal annehmen dass dies nicht geändert wurde.

criz.
 
...
Ich vermute es wird eine beta=1 Konfiguration verwendet, dann sind die Mikrolinsen auf die Austrittspupille der Optik fokusiert - bei der Größe der Mikrolinsen ist das praktisch Unendlich.
Damit entspricht der Abstand der Mikrolinsen zum Sensor der Brennweite jener.

hängt davon ab, ob die Lytro cam eine plenooptic oder eine plenoptic 2.0 ist. -> www.tgeorgiev.net/Superresolution.pdf
bzw. in der Ng. Diss - Abschnitt 6.1, S. 115. -> für Beta-Werte zwischen 1 und 0.

Bei den anderen Punkten bin ich bei Dir, bzw. auch was die offenen Fragen anbelangt. In der Diss von Ren Ng (Erfinder/Gründer von Lytro) ist bei den Mikrolinsen stets f/4 angegeben - ich weiß aber nicht, ob der Wert da nur beispielhaft bzw. als "Platzhalter" eingetragen ist oder ob das auch in der Lytro so ist.
 
Zuletzt bearbeitet:
habe jetzt Kapitel 6 der Diss durchgelesen. :-)

Ng demonstriert, dass man durch Variieren des Beta-Werts zwischen Ortsauflösung und Richtungs-Auflösung wählen kann ... die Kamera verhält sich zwischen "herkömmlich" (beta=0, Ortsauflösung hoch = annähernd Sensor, aber keine "refocusing-power") und "plenoptisch" (beta = 1, niedrige Ortsauflösung, entsprechend der Auflösung des Mikrolinsen-Arrays aber dafür volle "refocusing power") und alles dazwischen praktisch linear.

Aus dem was er in der Diss schreibt, könnte bei der Lytro cam Beta in etwa = 0,6 sein.
 
Interessant wäre zu wissen, ob die Abbildungsfehler der f/2 Optik schon raus gerechnet werden.

Mit an Sicherheit grenzender Wahrscheinlichkeit -> Kapitel 7 der Diss. :-)
Ich gehe davon aus, dass das objektiv der Lytro Cam spezifisch dafür entwickelt wurde - und zwar im Hinblick auf die Möglichkeiten und Erfordernisse dieser Lichtfeldkamera.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten