- Der Verschluss öffnet sich nun, die paar Pixel zeichnen auf.
- Der Verschluss schliesst, der Sensor wird verschwenkt, der Verschluss geht wieder auf...
Nein der Verschluss bleibt immer offen. Die Bewegung des Sensors ist kontinuirlich.
-> Immernoch setzt eine Software die Einzelbilder zusammen
Es gibt keine Einzelbilder (s.o.) Entweder werden nur die relevanten Pixel ausgelsen und dann "zusammengesetzt". Oder alle Pixel werden ausgelesen und dann werden die relevanten ausgefiltert und zum Bild "zusammengesetzt"
Zusatzproblem:
Wenn der Sensor verschwenkt wird, gerät sein Rand näher oder weiter zur Linsenebene hin oder weg.
D.h. das Objektiv muss nachfokussiert werden...
Wie erwähnt braucht man dafür spezielle Objektive. Die jedoch unkomplexer wären und damit billiger -> Vorteil.
Die Linsen ganz Rechts sehn mir sehr nach einer flachen Abbildungsebene aus. Bei einer gewölbten Abbildungsebene könnten derartige Linsen entfallen.
Dir ist schon klar, dass dein Sensor zwar eine Halbkugel "immitiert", dein Bild aber trotzdem nur 2D ist ?
Wenn ich mich noch recht an mein Mathe-Studium zurückerinnere, ist es mathematisch unmöglich, Kugel-/ bzw. Halbkugeloberflächen verlustfrei auf Ebenen zu projizieren

(). Das Problem haben nämlich auch die schon erwähnten Geografen.
Also entweder gibst du winkeltreue (d.h. dein Bild wird schief) oder längentreue
(d.h. Teile des Bildes werden verkleinert) auf. Somit wird die Korrektur der Verzeichnung bei Weitwinkelobjektiven durch eine Verzeichnungskorrektur bei der 2D Projektion getauscht



.
Oder sehe ich das falsch ?
Ich sehe das so: Angenommen das Bild wäre 3D. Also eine dreidimensionale Kugel die aus einzelnen Bildpunkten besteht.. Wird nun dieser dreideimensionaler Körper in die zweidimensionale Ebene "gedrückt", dann gibt es Bereiche in denen ein Bildinformationsüberschuss herrscht. Vergleichbar mit einer Kugel aus z.B. Papier aus der ein Rechteck ausgeschnitten wird und platt gedrückt wird -> das Papier wölbt sich weil an manchen Bereichen zu viel Material beisammen ist. Bei der Erfindung hieße das, dass es zu viele Bildinformationen in bestimmten Bereichen gibt. Diesen Überschuss an Bildinformationen müsste man weg lassen. Manche werden nun vermutlich denken, dass dadurch "Unschärfen" entstehen. Doch dadurch, dass die Pixeldichte des Sensors überall konstant ist (ja außer an den Randbereichen) ist auch die Bildinformationsdichte beim Scannen des Bildes überall konstant. D.h. es gibt keine Bereiche in denen mehr Bildinformationen vorhanden sind. Überall ist die Dichte an Bildinformationen gleich!
... Außerdem sehe ich nur eine Lösung für die Bildfeldkrümmung und nicht, wie angekündigt, für die Verzeichnung.
Und was beseitigt deiner Meinung nach diese Erfindung?
http://www.newscientist.com/article/dn14477-artificial-eyeball-does-away-with-distorted-images.html
@TO: was soll uns eigentlich das scheußliche Auto-Bild sagen? Wenn das ein Fisheye ist, wie schon vermutet (Exifs fehlen ja leider) dann frag ich mich, was das für normal konstruierte Objektive aussagen soll.
Mit diesem scheußlichen Auto-Bild möchte ich den Nachteil der Software-gestützte Korrektur aufzeigen. Natürlich ist die Korrektur eines Fisheyes ein Extremfall. Doch diese "Unschärfen" tauchen bei allen Korrekturen auf. Natürlich sind die "Unschärfen" bei einem 200 mm Teleobjektiv weitaus ungravierender wie bei einem Fisheye.
1. Das Problem der Nachführung vom Fokus - die Verzerrung kommt ja nicht von daher, dass die Ebene des Fokus mit zunehmendem Abstand von der Bildmitte nach vorne rutscht, sondern dass Längen und Winkel nicht überall korrekt abgebildet werden. Durch das Verdrehen des Sensors mag das kompensiert werden, aber dann schiebt man den Sensor dafür aus der Fokus-Ebene raus.
Siehe oben Zitat von Kry27
2. Das mag ja in 2D ganz gut funktionieren, aber welche Bewegung macht der Sensor in 3D? Ist das schon irgendwo beschrieben?
Siehe Patent:
"Dabei kann die Bewegung eine oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."
5. Wenn man das wirklich machen will, warum denn nicht einfach eine Linearbewegung? Wann man sich die Bildebene als Paraboloid vorstellt und eine Ebene (der Sensor) reinlegt, dann ergibt sich ein Ring als Schnittkurve der zwei Flächen. Wenn der Sensor also entlang der Achse des Paraboloids durchgezogen wird, dann werden die Schnitt-Kreise immer kleiner, und so kann das Ganze Bild aufgenommen werden. Allerdings ist die ganze Sache mathematisch nicht so einfach, weil auch die Menge an Licht, die auf die einzelnen Schnittkurven trifft von der Postion des Sensors abhängt etc. (das gilt für das Drehen und für das Schieben). Vermutlich bräuchte es also ohnehin eine Menge Rechnerei, auch bei einem solchen Vorgehen.
Siehe Patent:
"Dabei kann die Bewegung eine
oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."
6. [...] Was ist das Problem der softwarebasierten Korrektur?
Durch die Softwarebasierte Korrektur entstehen unschärfen und der Bildauschnitt muss verkleinert werden...Sofern ein rechteckiges Bildgewünscht ist.
Ziemlich kompliziert das ganze Verfahren, es geht auch bedeutend einfacher, es muss lediglich der Sensor in der z-Richtung bewegt werden und je nach Tiefe werden vom Zentrum aus ringförmig die Daten ausgelesen, bis schließlich der Rand, die Ecken erreicht wurden.
Kein Verschwenken etc. und das ließe sich z.B. mit Piezoverstellung auch relativ einfach realisieren.
abacus
Siehe Patent:
"Dabei kann die Bewegung eine
oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."
Die Schwenkbewegung hat dazu den Vorteil, dass Lichtstrahlen rechtwinkliger in die Vertiefungen der Pixeldioden eindringen. Zwecks Vignettierung. Die Linearbewegung ist mechanisch natürlich um einiges einfacher. (Siehe Kommentar Nr. 112 von "so nie!")
Für die Schwenkbewegung müssten (z.B.) an allen vier Seiten des Sensors mechanische Einrichtungen angebracht sein, die die jeweiligen Seiten in Sinusbewegungen nach oben und unten versetzten.
Die dafür notwendige Bewegung ist nicht ansteuerbar.
Der Sensor kann in der Sensorebene verschoben werden und um die optische Achse gedreht werden. Da ist nichts mit verkippen.
Warum?
entschuldige bitte, aber rechts im unteren Bereich bei den weissen Fenstern schauen die Bilder unterschiedlich aus. Zudem ist das zweite doch auch beschnitten, oder bin ich blöd?
Natürlich ist das zweite Beschnitten. Das is ja einer der Nachteiler der Software-Korrektur.

Bei allem Respekt für die Idee ... du hast es selbst nicht verstanden???
Weil ich mir einer Sache nicht sicher bin heißt es nicht, dass ich die ganze Idee nicht verstanden habe.
Ja - das fand ich auch sehr putzig. Auch die wiederholte Gleichsetzung von Verzerrung & Verzeichnung bestätigt diese Selbsteinschätzung...
Es ist aber offensichtlich, daß die Patentschrift von einem Fachmann formuliert wurde. Das heißt, wenigstens formal ist sie auf der sicheren Seite.
Manfred
"putzig." Soso. Die Patentschrift habt ihr noch überhaupt nicht gelesen. Das alles hab ich verfasst. Diese Verzerrung/Verzeichnung Sache ist Wortklauberei. Anstatt sich sachlich mit der Idee dahinter auseinander zu setzten hängt man sich an solchen Dingen auf. omg.
Die meisten anmerkungen zu den vermuteten technischen problemen zeugen von einem großen schatz an fremdwörtern..
..ich bin selbst amateur in sachen optik und physik und für mich ist das patent aus einem grund interessant:
- es regt dazu an über kugeln und flächen nachzudenken!
Und nach angestrengter amateur-grübelei meine ich, dass man aus einer kugel KEIN rechteck ausschneiden kann, das die realen geometrischen verhältnisse auf der kugel-oberfläche NICHT verändert.
Es ist ähnlich wie bei der angesprochen kartografie.
- Stellt euch vor, aus einem globus ein rechteck auszuschneiden, das ergibt immer noch ein gewölbtes rechteck (wie eine rechteckige scherbe der kugel).
Wenn bei diesem rechteck die kanten jeweils den kürzesten entfernungen zwischen zwei punkten der kugel entsprechen, ist die "rechteck-scherbe" geometrisch "richtig", sie verzerrt weder winkel noch längen/flächen der ausgeschnittenen oberfläche. Beim "glatt ziehen" dieser scherbe werden die geometrischen verhältnisse aber "falsch". Entweder bezüglich der längen/flächen oder der winkel, also: verzeichnung/verzerrung! Ich "zerre" die wölbung glatt...
- Wenn der rechteckige sensor auf der kugel-oberfläche verschwenkt wird, kommt dabei ebenfalls KEINE abbildung heraus, die den realen geometrischen verhältnissen der kugel entspricht.
Siehe oben, Zitat von "naunnu?"