• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Patent zur Korrektur von optischen Verzerrungen (published!)

Die meisten anmerkungen zu den vermuteten technischen problemen zeugen von einem großen schatz an fremdwörtern..
..ich bin selbst amateur in sachen optik und physik und für mich ist das patent aus einem grund interessant:

- es regt dazu an über kugeln und flächen nachzudenken!

Und nach angestrengter amateur-grübelei meine ich, dass man aus einer kugel KEIN rechteck ausschneiden kann, das die realen geometrischen verhältnisse auf der kugel-oberfläche NICHT verändert.
Es ist ähnlich wie bei der angesprochen kartografie.
- Stellt euch vor, aus einem globus ein rechteck auszuschneiden, das ergibt immer noch ein gewölbtes rechteck (wie eine rechteckige scherbe der kugel).
Wenn bei diesem rechteck die kanten jeweils den kürzesten entfernungen zwischen zwei punkten der kugel entsprechen, ist die "rechteck-scherbe" geometrisch "richtig", sie verzerrt weder winkel noch längen/flächen der ausgeschnittenen oberfläche. Beim "glatt ziehen" dieser scherbe werden die geometrischen verhältnisse aber "falsch". Entweder bezüglich der längen/flächen oder der winkel, also: verzeichnung/verzerrung! Ich "zerre" die wölbung glatt...
- Wenn der rechteckige sensor auf der kugel-oberfläche verschwenkt wird, kommt dabei ebenfalls KEINE abbildung heraus, die den realen geometrischen verhältnissen der kugel entspricht.

Und zu auge und gehirn: es ist ja nicht so (wie oft angenommen), dass im gehirn ein beobachter ist, der das kopf stehende, seitenverkehrte UND gewölbte netzhaut-bild "richtig stellt" (das ist nur eine hilfs-vorstellung) - sondern dass der mensch mit seinem gehirn aufgrund seiner gesamten orientierung die "pixel-daten" des auges zu einem bild macht, das aufrecht, seitenrichtig und unverzerrt wahr genommen wird. Es gibt da also durchaus analogien (und nur solche) zu kamera, linse und perspektiv-korrektur...
 
- Der Verschluss öffnet sich nun, die paar Pixel zeichnen auf.

- Der Verschluss schliesst, der Sensor wird verschwenkt, der Verschluss geht wieder auf...

Nein der Verschluss bleibt immer offen. Die Bewegung des Sensors ist kontinuirlich.

-> Immernoch setzt eine Software die Einzelbilder zusammen

Es gibt keine Einzelbilder (s.o.) Entweder werden nur die relevanten Pixel ausgelsen und dann "zusammengesetzt". Oder alle Pixel werden ausgelesen und dann werden die relevanten ausgefiltert und zum Bild "zusammengesetzt"

Zusatzproblem:

Wenn der Sensor verschwenkt wird, gerät sein Rand näher oder weiter zur Linsenebene hin oder weg.

D.h. das Objektiv muss nachfokussiert werden...

Wie erwähnt braucht man dafür spezielle Objektive. Die jedoch unkomplexer wären und damit billiger -> Vorteil.

Die Linsen ganz Rechts sehn mir sehr nach einer flachen Abbildungsebene aus. Bei einer gewölbten Abbildungsebene könnten derartige Linsen entfallen.
aufbauobjektiv1.png


Dir ist schon klar, dass dein Sensor zwar eine Halbkugel "immitiert", dein Bild aber trotzdem nur 2D ist ?:confused:

Wenn ich mich noch recht an mein Mathe-Studium zurückerinnere, ist es mathematisch unmöglich, Kugel-/ bzw. Halbkugeloberflächen verlustfrei auf Ebenen zu projizieren (:(). Das Problem haben nämlich auch die schon erwähnten Geografen.

Also entweder gibst du winkeltreue (d.h. dein Bild wird schief) oder längentreue
(d.h. Teile des Bildes werden verkleinert) auf. Somit wird die Korrektur der Verzeichnung bei Weitwinkelobjektiven durch eine Verzeichnungskorrektur bei der 2D Projektion getauscht:mad::mad::mad:.

Oder sehe ich das falsch ?

Ich sehe das so: Angenommen das Bild wäre 3D. Also eine dreidimensionale Kugel die aus einzelnen Bildpunkten besteht.. Wird nun dieser dreideimensionaler Körper in die zweidimensionale Ebene "gedrückt", dann gibt es Bereiche in denen ein Bildinformationsüberschuss herrscht. Vergleichbar mit einer Kugel aus z.B. Papier aus der ein Rechteck ausgeschnitten wird und platt gedrückt wird -> das Papier wölbt sich weil an manchen Bereichen zu viel Material beisammen ist. Bei der Erfindung hieße das, dass es zu viele Bildinformationen in bestimmten Bereichen gibt. Diesen Überschuss an Bildinformationen müsste man weg lassen. Manche werden nun vermutlich denken, dass dadurch "Unschärfen" entstehen. Doch dadurch, dass die Pixeldichte des Sensors überall konstant ist (ja außer an den Randbereichen) ist auch die Bildinformationsdichte beim Scannen des Bildes überall konstant. D.h. es gibt keine Bereiche in denen mehr Bildinformationen vorhanden sind. Überall ist die Dichte an Bildinformationen gleich!

... Außerdem sehe ich nur eine Lösung für die Bildfeldkrümmung und nicht, wie angekündigt, für die Verzeichnung.

Und was beseitigt deiner Meinung nach diese Erfindung?

http://www.newscientist.com/article/dn14477-artificial-eyeball-does-away-with-distorted-images.html

@TO: was soll uns eigentlich das scheußliche Auto-Bild sagen? Wenn das ein Fisheye ist, wie schon vermutet (Exifs fehlen ja leider) dann frag ich mich, was das für normal konstruierte Objektive aussagen soll.

Mit diesem scheußlichen Auto-Bild möchte ich den Nachteil der Software-gestützte Korrektur aufzeigen. Natürlich ist die Korrektur eines Fisheyes ein Extremfall. Doch diese "Unschärfen" tauchen bei allen Korrekturen auf. Natürlich sind die "Unschärfen" bei einem 200 mm Teleobjektiv weitaus ungravierender wie bei einem Fisheye.

1. Das Problem der Nachführung vom Fokus - die Verzerrung kommt ja nicht von daher, dass die Ebene des Fokus mit zunehmendem Abstand von der Bildmitte nach vorne rutscht, sondern dass Längen und Winkel nicht überall korrekt abgebildet werden. Durch das Verdrehen des Sensors mag das kompensiert werden, aber dann schiebt man den Sensor dafür aus der Fokus-Ebene raus.

Siehe oben Zitat von Kry27

2. Das mag ja in 2D ganz gut funktionieren, aber welche Bewegung macht der Sensor in 3D? Ist das schon irgendwo beschrieben?

Siehe Patent:
"Dabei kann die Bewegung eine oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."

5. Wenn man das wirklich machen will, warum denn nicht einfach eine Linearbewegung? Wann man sich die Bildebene als Paraboloid vorstellt und eine Ebene (der Sensor) reinlegt, dann ergibt sich ein Ring als Schnittkurve der zwei Flächen. Wenn der Sensor also entlang der Achse des Paraboloids durchgezogen wird, dann werden die Schnitt-Kreise immer kleiner, und so kann das Ganze Bild aufgenommen werden. Allerdings ist die ganze Sache mathematisch nicht so einfach, weil auch die Menge an Licht, die auf die einzelnen Schnittkurven trifft von der Postion des Sensors abhängt etc. (das gilt für das Drehen und für das Schieben). Vermutlich bräuchte es also ohnehin eine Menge Rechnerei, auch bei einem solchen Vorgehen.


Siehe Patent:
"Dabei kann die Bewegung eine oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."

6. [...] Was ist das Problem der softwarebasierten Korrektur?

Durch die Softwarebasierte Korrektur entstehen unschärfen und der Bildauschnitt muss verkleinert werden...Sofern ein rechteckiges Bildgewünscht ist.

Ziemlich kompliziert das ganze Verfahren, es geht auch bedeutend einfacher, es muss lediglich der Sensor in der z-Richtung bewegt werden und je nach Tiefe werden vom Zentrum aus ringförmig die Daten ausgelesen, bis schließlich der Rand, die Ecken erreicht wurden.
Kein Verschwenken etc. und das ließe sich z.B. mit Piezoverstellung auch relativ einfach realisieren.


abacus

Siehe Patent:
"Dabei kann die Bewegung eine oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."

Die Schwenkbewegung hat dazu den Vorteil, dass Lichtstrahlen rechtwinkliger in die Vertiefungen der Pixeldioden eindringen. Zwecks Vignettierung. Die Linearbewegung ist mechanisch natürlich um einiges einfacher. (Siehe Kommentar Nr. 112 von "so nie!")

Für die Schwenkbewegung müssten (z.B.) an allen vier Seiten des Sensors mechanische Einrichtungen angebracht sein, die die jeweiligen Seiten in Sinusbewegungen nach oben und unten versetzten.

Die dafür notwendige Bewegung ist nicht ansteuerbar.
Der Sensor kann in der Sensorebene verschoben werden und um die optische Achse gedreht werden. Da ist nichts mit verkippen.

Warum?

entschuldige bitte, aber rechts im unteren Bereich bei den weissen Fenstern schauen die Bilder unterschiedlich aus. Zudem ist das zweite doch auch beschnitten, oder bin ich blöd?

Natürlich ist das zweite Beschnitten. Das is ja einer der Nachteiler der Software-Korrektur.

:ugly: Bei allem Respekt für die Idee ... du hast es selbst nicht verstanden??? :confused:

Weil ich mir einer Sache nicht sicher bin heißt es nicht, dass ich die ganze Idee nicht verstanden habe.


Ja - das fand ich auch sehr putzig. Auch die wiederholte Gleichsetzung von Verzerrung & Verzeichnung bestätigt diese Selbsteinschätzung...

Es ist aber offensichtlich, daß die Patentschrift von einem Fachmann formuliert wurde. Das heißt, wenigstens formal ist sie auf der sicheren Seite.


Manfred

"putzig." Soso. Die Patentschrift habt ihr noch überhaupt nicht gelesen. Das alles hab ich verfasst. Diese Verzerrung/Verzeichnung Sache ist Wortklauberei. Anstatt sich sachlich mit der Idee dahinter auseinander zu setzten hängt man sich an solchen Dingen auf. omg.

Die meisten anmerkungen zu den vermuteten technischen problemen zeugen von einem großen schatz an fremdwörtern..
..ich bin selbst amateur in sachen optik und physik und für mich ist das patent aus einem grund interessant:

- es regt dazu an über kugeln und flächen nachzudenken!

Und nach angestrengter amateur-grübelei meine ich, dass man aus einer kugel KEIN rechteck ausschneiden kann, das die realen geometrischen verhältnisse auf der kugel-oberfläche NICHT verändert.
Es ist ähnlich wie bei der angesprochen kartografie.
- Stellt euch vor, aus einem globus ein rechteck auszuschneiden, das ergibt immer noch ein gewölbtes rechteck (wie eine rechteckige scherbe der kugel).
Wenn bei diesem rechteck die kanten jeweils den kürzesten entfernungen zwischen zwei punkten der kugel entsprechen, ist die "rechteck-scherbe" geometrisch "richtig", sie verzerrt weder winkel noch längen/flächen der ausgeschnittenen oberfläche. Beim "glatt ziehen" dieser scherbe werden die geometrischen verhältnisse aber "falsch". Entweder bezüglich der längen/flächen oder der winkel, also: verzeichnung/verzerrung! Ich "zerre" die wölbung glatt...
- Wenn der rechteckige sensor auf der kugel-oberfläche verschwenkt wird, kommt dabei ebenfalls KEINE abbildung heraus, die den realen geometrischen verhältnissen der kugel entspricht.

Siehe oben, Zitat von "naunnu?"
 
Deine anmerkung zum problem der wandlung von 3d in 2d (antwort auf nannu) ist mE nicht überzeugend ... es geht hier nicht um "informationsüberschuss", es geht darum dass entweder linien oder flächen geometrisch notwendigerweise verändert (gebogen oder gestaucht) werden müssen.

Ich hab aber inzwischen den verdacht dass deine erfindung tatsächlich nur die sogenannte "bildfeldwölbung" korrigiert (antwort auf lochkamera).
Im von dir dazu zitierten link ist zu lesen:
"Mimicking the curves of a human retina has enabled a digital image sensor to take wide-angle pictures without distortion. This is possible thanks to an improved method of transferring silicon sensors onto a curved surface."
Das ist mE falsch.
Weitwinkel ohne verzeichnung/verzerrung gibts lange vor der digitalisierung, und zwar durch aufwendige linsenkonstruktion, die eben nicht nur fischaugen-objektive ermöglicht sondern auch die "verzeichnungsfreien" weitwinkel. Die machen das oben angesprochene, sie projizieren das kugelbild auf ein rechteck. Dabei bleiben gerade linien gerade, flächen aber werden verzerrt (das porträt als eierkopf).
Beides - also unverbogene linien UND unverzerrte flächen - ist im weitwinkel nicht möglich. Und zwar wegen unveränderlicher geometrischer gesetze bei der projektion von kugel-flächen auf ebene flächen.

Was durch "Mimicking the curves of a human retina" erreicht werden kann, ist mE nur die vermeidung der rand-unschärfe durch die bildfeldwölbung, aber das können alle guten objektive seit jahrzehnten, sonst hätten wir nämlich nur rand-unscharfe fotos.
Bleibt in meinen augen als einziger eventueller vorteil des kugelsensors: man könnte die randschärfe durch sehr einfache linsen (ohne korrektur der bildfeldwölbung) hinbekommen. Den kugelsensor gibts noch nicht, deine erfindung imitiert ihn, und zwar vermutlich sehr viel aufwendiger als ein gut korrigiertes objektiv.
 
Ich glaube ich verstehe das Konzept noch nicht so ganz. Wenn ich so eine Kamera und passendes Objektiv habe und ein Foto mit ausgeschalteter "Wackeltechnik" mache das 1/100s Belichtungszeit braucht, wie lange benötigt die Kamera dann bei eingeschalteter Technik?

Ich meine im Idealfall bleibt der Sensor für 1/100s stehen, belichtet die betreffenden Pixel und bewegt sich dann unendlich schnell zur nächsten Aufnahmeposition usw.

Wenn man das für nur 20 Winkelschritten horizontal und vertikal macht, muss ich 400 Positionen anfahren. Das heißt ich benötige 4 Sekunden also über 8 Blendstufen mehr (und das nur bei unendlich schneller Positioniereng)?
 
Wie sagt man einem lichtempfindlichen Sensor, der bei dauernd geöffnetem Verschluss stets dem Licht ausgesetzt ist, dass man zackpeng von genau A) jetzt bis genau B) dann "auslesen" will?

(Keine Ahnung, geht sowas überhaupt?)
 
... Wenn ich so eine Kamera und passendes Objektiv habe und ein Foto mit ausgeschalteter "Wackeltechnik" mache das 1/100s Belichtungszeit braucht, wie lange benötigt die Kamera dann bei eingeschalteter Technik?

Genauso lange. Das Bild wäre aber dunkeler weil jedes Pixel nicht 1/100s dem Licht ausgesetzt wäre sondern nur einem Bruchteil.
 
ich frage mich, woher und wie dieser Schwenksensor wissen wird, wie viel/weit er schwenken muss? Der muss ja sämtliche Objektiv-Paramete
er erhalten, und zwar nicht irgendwelche Standard-Sets, sondern individuelle Daten für jedes einzelne Teil, sonst kann das ja niemals genau genug funktionieren?!??

Die Frage von anathbush ist auch sehr interessant.

Grundsätzlich finde ich neue Idee immer gut, oft erkennt man den Nutzen nicht gleich, hätte aber noch nie jemand solche Schritte gewagt, hätten wir alle miteinander noch gar keine Kamera oder geschweige denn ein Forum, wo man drüber schreiben kann ;)

Genauso lange. Das Bild wäre aber dunkeler weil jedes Pixel nicht 1/100s dem Licht ausgesetzt wäre sondern nur einem Bruchteil.
ok, und welchen Bruchteil? Wenn das Bild also um x-Blenden dünkler wird, dann ensteht ja ein gänzlich anderes Problem....
 
ich frage mich, woher und wie dieser Schwenksensor wissen wird, wie viel/weit er schwenken muss? Der muss ja sämtliche Objektiv-Paramete
er erhalten, und zwar nicht irgendwelche Standard-Sets, sondern individuelle Daten für jedes einzelne Teil, sonst kann das ja niemals genau genug funktionieren?!??

Die Frage von anathbush ist auch sehr interessant.

Grundsätzlich finde ich neue Idee immer gut, oft erkennt man den Nutzen nicht gleich, hätte aber noch nie jemand solche Schritte gewagt, hätten wir alle miteinander noch gar keine Kamera oder geschweige denn ein Forum, wo man drüber schreiben kann ;)


ok, und welchen Bruchteil? Wenn das Bild also um x-Blenden dünkler wird, dann ensteht ja ein gänzlich anderes Problem....

Das Problem, dass die Belichtung/Bild länger sein muss bzw. die Lichtempfindlichkeit höher sein muss. Oder, dass man sein Motiv (ähnlich we bei Highspeedaufnahmen) heller beleuchten muss.
 
Genauso lange. Das Bild wäre aber dunkeler weil jedes Pixel nicht 1/100s dem Licht ausgesetzt wäre sondern nur einem Bruchteil.

Das Problem, dass die Belichtung/Bild länger sein muss bzw. die Lichtempfindlichkeit höher sein muss. Oder, dass man sein Motiv (ähnlich we bei Highspeedaufnahmen) heller beleuchten muss.

Ok, ich habe also nichts falsch verstanden und meine 20 Winkelschritte pro Achse sind wohl auch nicht gerade viel, wenn man ein Bild mit mehreren Megapixeln mit der Methode auch scharf bekommen möchte.

Das heißt, ich erhalte einfacher zu korrigierende Objektive und zahle mit etlichen Blendstufen Lichtempfindlichkeit. Damit ist das ganze also eher nicht für normale Kameras, sondern für spezielle technische Anwendungen.
 
Das Problem, dass die Belichtung/Bild länger sein muss bzw. die Lichtempfindlichkeit höher sein muss. Oder, dass man sein Motiv (ähnlich we bei Highspeedaufnahmen) heller beleuchten muss.

ja, aber mal eben um 3-4 Blenden mehr Licht machen ist schon ein erheblich Nachteil in meinen Augen, oder nicht?

Meine eigentliche Frage hier war aber eh eine andere:

ich frage mich, woher und wie dieser Schwenksensor wissen wird, wie viel/weit er schwenken muss? Der muss ja sämtliche Objektiv-Paramete
er erhalten, und zwar nicht irgendwelche Standard-Sets, sondern individuelle Daten für jedes einzelne Teil, sonst kann das ja niemals genau genug funktionieren?!??
 
Mal zum Nachdenken: Wer die Pixel sequentiell belichten will, z.B. mir 'ner 125stel, der erntet folglich 125 Pixel pro Sekunde, bzw. 12,5Mpix in 100.000 Sekunden = 27,78 -öhm- Stunden. :cool:

--> Also für Sport ist das nix! ;)
 
Zur Geometrie äussert er sich gar nicht bislang...

Ist aber auch nicht nötig. Das so fotografierte Bild wird einfach auf die Innenseite einer Kugel gedruckt und im Betrachtungshelm aufgehängt. So entfällt die verlustefrei nicht zu meisternde Umrechnung von Kugelfläche auf flache Bildebene völlig.

Und wer's fertig angeschaut hat, gibt einfach den Helm weiter. :ugly::angel:
 
Mal zum Nachdenken: Wer die Pixel sequentiell belichten will, z.B. mir 'ner 125stel, der erntet folglich 125 Pixel pro Sekunde, bzw. 12,5Mpix in 100.000 Sekunden = 27,78 -öhm- Stunden. :cool:

--> Also für Sport ist das nix! ;)

Warum erntet man 125 Pixel/s ?

Ich seh die Anwendung auch eigenltich nicht in der üblichen (Amateur-) Fotografie. Die meisten Leute wissen ja nichtmal, dass es diesen Effekt gibt. Also warum sollte er sie dann stören?! Ich denke an szenische Fotografie oder sogar an digitalen Film bei dem zusätzliches Licht nicht sonderlich aufwendig ist.
 
Zur Geometrie äussert er sich gar nicht bislang...

Ist aber auch nicht nötig. Das so fotografierte Bild wird einfach auf die Innenseite einer Kugel gedruckt und im Betrachtungshelm aufgehängt. So entfällt die verlustefrei nicht zu meisternde Umrechnung von Kugelfläche auf flache Bildebene völlig.

Und wer's fertig angeschaut hat, gibt einfach den Helm weiter. :ugly::angel:

Vielen Dank für deinen fast witzigen Beitrag. Stell eine Glasscheibe vor dich. Pause die Konturen des Hintergrunds auf diese Glasscheibe (ggf. musst du ein Auge schließen). Resultat: Alle Linien sind gerade und alles andere ist so groß wie es sein sollte. Das Bild auf der Glasscheibe entspricht dem wahrgenommenen Bild des Betrachters und befindet sich auf einem 2 dimensionalen Medium.
 
Vielen Dank für deinen fast witzigen Beitrag. Stell eine Glasscheibe vor dich. Pause die Konturen des Hintergrunds auf diese Glasscheibe (ggf. musst du ein Auge schließen). Resultat: Alle Linien sind gerade und alles andere ist so groß wie es sein sollte. Das Bild auf der Glasscheibe entspricht dem wahrgenommenen Bild des Betrachters und befindet sich auf einem 2 dimensionalen Medium.

Ich verstehe dein Beispiel nicht... spätestens wenn der Mensch das 2. Auge schließt hast du damit jetzt grade einmal bewiesen das man eine 2 dimensionale Darstellung auf eine 2 dimensionale Glasplatte übertragen kann.

Ich meine - ich fand den Grundgedanken eines rotierenden Sensors sehr interessant, ich fürchte nur spätestens in deiner Erklärung das bei der Übertragung von 3d in 2d ein reiner Bildinformationsüberschuß entsteht hast du mich endgültig verloren. Das ist kein "Bildinformationsüberschuß" wie etwa ein relativ zu stark belichteter Bereich was sich unter Umständen kompensiere ließe, sondern zu viel Fläche (oder besser gesagt zuviel Bildinhalt pro Sensorfläche) - und wie reduzierst du diese auf ein "Normalmaß"? Genau - durch Stauchung/Verzerrung was das ganze meiner Meinung nach ad absurdum führt.

Korrigiere mich jemand wenn ich falsch liege..

EDIT: Noch einmal zu deinem Beispiel: Ich hoffe du meinst mit "alle Linien gerade und alles so groß wie es sein soll": "So wie es der Mensch wahrnimmt". Denn ansonsten hast du natürlich all die perspektivischen Verzerrungen aufgezeichnet die der Mensch auch wahrnimmt.
 
Zuletzt bearbeitet:
Vielen Dank für deinen fast witzigen Beitrag. Stell eine Glasscheibe vor dich. Pause die Konturen des Hintergrunds auf diese Glasscheibe (ggf. musst du ein Auge schließen). Resultat: Alle Linien sind gerade und alles andere ist so groß wie es sein sollte. Das Bild auf der Glasscheibe entspricht dem wahrgenommenen Bild des Betrachters und befindet sich auf einem 2 dimensionalen Medium.
Interessanter versuch, hat schon albrecht dürer gemacht, und der könnte vermutlich sogar frei hand gerade linien ziehen...
Aber im ernst: das ist natürlich einfach deshalb unverzerrt, weil es nicht einem weitwinkel entspricht, sondern einem 50er "normal-objektiv" mit normalem bildwinkel. Also ca. 45 grad blickwinkel
Ein weiter winkel entsteht erst, wenn du den blick, mindestens deine pupillen, kreisen lassen würdest.
Dabei entsteht für uns der verzerrungsfreie weitwinkel von weit über 45grad, den tatsächlich keine kamera schafft, durch die zusammenarbeit von auge und gehirn.
Eine kamera genauso wie ein zeichner müsste dafür mehrere normal aufgenommene bilder zusammenfügen (oder stitchen). Und für die ansicht eines solchen fotos müsste man dieses "panorama in allen richtungen" wohl auch hohl gewölbt präsentieren...

PS: ich merke gerade .. deine erfindung stitcht ja sozusagen beim fotografieren. Das ergebnis kommt aber mE trotzdem nicht um das faktum der 3d-geometrie herum. Man müsste das foto mit derselben krümmung wiedergeben, wie beim aufnehmen. Kry27 könnte recht haben, du brauchst eine 3d-wiedergabe.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten