• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Patent zur Korrektur von optischen Verzerrungen (published!)

Und was genau hat das mit deinen Fisheye-bildern zu tun?

Einfach mal lesen was ich geschrieben habe.

Ich verstehe dein Beispiel nicht... spätestens wenn der Mensch das 2. Auge schließt hast du damit jetzt grade einmal bewiesen das man eine 2 dimensionale Darstellung auf eine 2 dimensionale Glasplatte übertragen kann.

Dann machs halt mit beiden Augen. Fakt ist, wenn du das was du siehst auf eine Glasscheibe paust das ist, was du wahrnimmst. Das Bild auf der Scheibe weist keine Verzerrungen auf.
 
Zuletzt bearbeitet:
...
Aber im ernst: das ist natürlich einfach deshalb unverzerrt, weil es nicht einem weitwinkel entspricht, sondern einem 50er "normal-objektiv" mit normalem bildwinkel. Also ca. 45 grad blickwinkel

Wenn ein Auge nur 45° sieht, dann Frage ich mich wie der Mensch einen Sichtbereich (beide Augen) von fast 180° hat? Stell dich gerade hin und schaue nach vorne. Nimm eine Handfläche an die Nase, die andere rechtwinklig zur anderen an die Schläfe. Dann hast du ein Sichtwinkel von 90°. Jetz halbier ihn mal auf 45°! Bei 45° Blickwinkel würdest du im warsten Sinne des Wortes dumm schauen ;)
 
Wenn ein Auge nur 45° sieht, dann Frage ich mich wie der Mensch einen Sichtbereich (beide Augen) von fast 180° hat? Stell dich gerade hin und schaue nach vorne. Nimm eine Handfläche an die Nase, die andere rechtwinklig zur anderen an die Schläfe. Dann hast du ein Sichtwinkel von 90°. Jetz halbier ihn mal auf 45°! Bei 45° Blickwinkel würdest du im warsten Sinne des Wortes dumm schauen ;)
Ohne den kopf zu drehen, allerdings MIT drehung der pupillen, hast du ca. 90grad - was schon ein extremer weitwinkel ist.
OHNE drehung der pupillen erfasst du nur einen kleinen mittleren teil, das sind die 45grad.
Das 90grad-bild bleibt für uns auch beim drehen der pupillen unverzerrt, weil auge und gehirn bei der "inneren projektion" zusammenarbeiten.

Hast du mein PS gelesen? Ich vermute, das problem der 3d-geometrie bleibt bei der ansicht/projektion deiner fotos bestehen... eventuell musst du deine erfindung auf einen 3d-projektor mit hohl gekrümmter leinwand erweitern...:confused:
 
nachdem der TO mich nun 2x ignoriert hat, ein dritter und letzer Versuch, eine Antwort auf meine Frage zu bekommen - alle guten Dinge sind ja 3 :D

ich frage mich, woher und wie dieser Schwenksensor wissen wird, wie viel/weit er schwenken muss? Der muss ja sämtliche Objektiv-Parameter erhalten, und zwar nicht irgendwelche Standard-Sets, sondern individuelle Daten für jedes einzelne Teil, sonst kann das ja niemals genau genug funktionieren?!??
 
Die Parameter für die jeweiligen Objektive müssen in der Kamera eingespeichert sein. Wie gesagt ich sehe die Anwendung weniger bei der Amateurfotografie.
 
...


abacus schrieb:
Ziemlich kompliziert das ganze Verfahren, es geht auch bedeutend einfacher, es muss lediglich der Sensor in der z-Richtung bewegt werden und je nach Tiefe werden vom Zentrum aus ringförmig die Daten ausgelesen, bis schließlich der Rand, die Ecken erreicht wurden.
Kein Verschwenken etc. und das ließe sich z.B. mit Piezoverstellung auch relativ einfach realisieren.


abacus


Siehe Patent:
"Dabei kann die Bewegung eine oszillierende Translationsbewegung, eine oszillierende Schwenkbewegung oder eine Rotationsbewegung sein, wobei bei der Rotationsbewegung die Rotationsachse schräg zur Flächennormalen der Bildaufnahmeflächen angeordnet ist."


Die Schwenkbewegung hat dazu den Vorteil, dass Lichtstrahlen rechtwinkliger in die Vertiefungen der Pixeldioden eindringen. Zwecks Vignettierung. Die Linearbewegung ist mechanisch natürlich um einiges einfacher. (Siehe Kommentar Nr. 112 von "so nie!")

...


Hier werden zwei Einzelphänomene in einen Zusammenhang gebracht...

Der vom Zentrum, der optischen Achse aus zunehmende Lichtstärkeverlust ist physikalisch bedingt und radiusbezogen brennweitenabhängig.

Der Infomationsverlust des Bildwandler ist lichteinfallswinkel- sowie pixelgrößenbezogen und auch aufbauspezifisch. Gerade in diesem Bezug werden weitere entwicklungs- sowie fertigungstechnische Schritte folgen, die ein tangentialebenenweises Nachführen entbehrlich machen.

Optiken stellen immer eine Kompromiss in Bezug auf die Variablen der Abbildungserfordernisse dar, wobei zumeist bei preiswerten Optiken die Bildgeometrie empfindlich leidet, weil für die Masse nicht kritisch. Das erklärt auch die enormen Preise für ponderiert ausgeglichene optische Systeme, die das vom Menschen wahrgenommene Spektrum umfassen.

Eine intensive Beschäftigung mit der Darstellenden Geometrie brächte einige Klarheit bzw. Relevanz in Bezug auf die Grundlagen der praktischen Anwendung sowie den Praxisbezug auf die tatsächliche Marktchancen in dieser Sache.


abacus
 
Du hast ja auf diesen link zum kugelsensor verwiesen:
http://www.newscientist.com/article/dn14477-artificial-eyeball-does-away-with-distorted-images.html
(Ich hatte die vermutung, da würde nur die bildfeldwölbung=randunschärfe korrigiert..muss mich korrigieren..)
Die erfinder wollen offenbar das weitwinkel-system des menschlichen auges imitieren (ich weiß soweit waren wie längst, die netzhaut und das gehirn..).
Die anwendungsbereiche sind dabei sehr kleine und weitwinklige überwachungs-kameras oder solche die man an tieren befestigen kann.
In der zugehörigen abbildung ist der sensor hinter einer einzelnen linse, das ganze ist ein modul, das wie ein auge mit gekrümmter netzhaut arbeitet.
Der clou dabei ist offenbar die miniaturisierung.

Dein schwenk-sensor imitiert den kugelsensor.
Er ist deshalb mE ähnlich wie dieser nur für eine angepasste linse sinnvoll...?

Denn wie gesagt, verzeichnungsfreie weitwinkel-optiken gibts schon.
- das fischauge (winkel bis zu 180grad): es bildet einen kreis ab, das bild erhält die wahre größe der flächen, es verbiegt aber die geraden linien.
- das "verzeichnungsfreie" weitwinkel (winkel bis zu 90grad): es bildet ein rechteck ab, das bild verzerrt die flächen, gerade linien bleiben gerade.
Beide bilden übrigens scharf ab!
Beim letzteren streben die flächenmaße am rand auseinander, weil das nicht anders projizierbar ist.
Außer eben man nimmt ein rundes fischaugen-bild...

Und ich vermute stark, das "unverzerrte" weitwinkel-bild, was bei dir hinten rauskommt, ist enweder ein rundes fischaugen-bild oder ein ins rechteck projiziertes "unverzeichnetes", bei dem die flächen am rand auseinander streben. Ohne gekrümmte präsentation ist das mE nicht anders möglich.

..fühl ich mich selbst leicht gewölbt..
 
Warum erntet man 125 Pixel/s ?

:confused:

Patent zur Korrektur von optischer Verzerrung/Verzeichnung

Die unten stehende Figur zeigt eine Prinzipdarstellung (hier in 2D) der Erfindung. Die benötigte Halbkugel (2) wird durch ein Verschwenken des Sensors (1) imitiert. Zur Bildaufnahme sind nur die Pixel relevant die an einem bestimmten Zeitpunkt am Schnittpunkt von Sensor und imaginärer Halbkugel liegen (3).

An diesen Schnittpunkt liegt nun mal zu einem gegeben Zeitpunkt/ einer gegebenen Sensorstellung nur genau ein einziges Pixel (Photo-Diode). Wenn du dies mit z.B. 1/125s belichten willst, dann kannst du maximal 125 davon in einer Sekunde belichten, Positionierzeiten einmal unberücksichtigt, da jedes einzelne davon nun mal diese Zeitspanne benötigt.
Statt eines einzigen kannst du natürlich auch mehrere belichten und anstatt den Sensor während der Belichtung stillzusetzen, kannst du auch während einer kontinuierlichen Verfahrbewegung alles belichten, was in einem bestimmten Toleranzkreis um diesen Schnittpunkt herumliegt, aber damit entfernst du dich erstens von deinem Ideal und die technische Umsetzung wird zweitens immer schwieriger.
 
Falsch geraten! Der erste Computer von Konrad Zuse wurde erfunden & gebaut, um ihm lagweilige Tabellenberechnungen zu ersparen. Der Zweck war somit von Anfang an da...

Daß man eine Rechenmaschine baut, um damit zu rechnen, ist nicht weiter verwunderlich. Während wir gerne Konrad Zuse auf den Thron heben, sieht man international meist die ENIAC als den ersten Computer an. Die Z3 war zwar zuerst da und konnte auch mehr, aber sie funktionierte mechanisch über Relais.
Die ENIAC war hingegen das erste "Elektronenhirn" (Röhrentechnik). Zuse selbst nannte seine Z3 übrigens "Rechenautomat". Wenn wir auf solche Spitzfindigkeiten (elektronisch oder nicht) verzichten wollen und beides gleichsetzen, dann kommen wir aber an den historischen Rechenmaschinen nicht vorbei - und die haben eine lange Geschichte.

Obwohl die technischen Fertigungsmöglichkeiten zu dieser Zeit eine begrenzte Produktion dieser Maschinen zugelassen hätten und zumindest die Rechenmaschinen von Hahn brauchbar waren, wurde keine Maschine der oben genannten Erfinder in Serie gebaut. Dies mag darin begründet sein, dass die Rechenmaschinen am Beginn ihrer Entwicklung standen, infolgedessen für die praktische Anwendung noch nicht ausgereift genug und zu teuer in der Herstellung waren. Der wesentliche Grund war jedoch, dass es noch keinen Markt für solche Maschinen gab. Staatliche Verwaltungen, das Militär oder Kaufleute litten nicht unter Zeitdruck oder Arbeitskräftemangel.

(Fotografiebezug: Zuse verwendete 35mm Film als Lochstreifen)
 
Meine sichtweise der Dinge:

unbestritten ist denke ich, dass der Erfinder nach der Aufnahme das "Problem" der Projektion auf ein flaches Medium hat. Ich denke, dass ist durch den Vergleich Globus->Landkarte offensichtlich.

Ich postuliere mal, dass die Erfindung insofern Sinn macht, dass es einchfacher ist/besser möglich ist ein Objektiv zu designen, dass winkeltreu auf eine Kugelinnenfläche abbildet, als auf unsere bisherigen ebenen Sensorflächen. Meinem bescheidenen Weltbild nach mit einer Kugelförmigen Schärfen"ebene" ("ebene Ebene" ist sicher auch möglich, hört sich aber für mich als Laie aber aufwendiger und dadurch abbildungsfehlererzeugender an).

Nun haben wir eine Art Kugelpanorama in toller Qualität. Letzt können wir uns entscheiden, wie wir dies auf ein Papierbild/den Bildschirm abbilden - dadurch kommt es mMn zwangläufig zur Interpolationen - also kein Fortschritt zur Softwarelösung.

Es könnte natürlich sein, dass es eine Abbildung auf die Kugelinnenfläche gibt, die einfach durch plattdrücken des Bildes gerade Linien auf gerade Linien abbildet - ich kann mir aber nicht vorstellen, dass dieses Objektiv so einfach zu entwerfen ist, dass es Vorteile gegenüber dem bekannten System hat.

Was mich aber am meisten an der Erfindung zweifeln lässt:
Meine Erfahrung mit solchen Systemen ist, dass zusätzliche Mechanik meist sehr wenig, zusätzliche Elektronik meist dehr gute Zukunftchancen hat (Ausnahme im Fotoberich: Wackelschutz).
Wenn ich mir Überlege, dass Nikon jetzt eine 36MPix Kamera verkauft, frage ich mich, ob das Problem wirklich die geringere Pixeldichte im Software-Entzerrungsfall ist.

Wiedemauchsei.... interessanter Ansatz, hat teilweise tolle Diskussion entfacht, danke an den TO.
 
Ich vermute auch das kein Hersteller das jemals umsetzen wird. Die notwendige mechanik und Steuerung ist viel zu teuer oder empfindlich.
Die Belichtungszeit wird katastrophal da sie abhängig von der Pixelzahl wird.
Softwareseitige Umrechnung einer Kugel in eine Zweidimensionale Fläche ist eine schwierige Aufgabe.

Im Consumer Bereich absolut abwegig. Die Hersteller bauen nicht umsonst von der 1000D bis zur 7D identische Sensoren ein und ändern nur die Software, das Gehäuse und andere einfache Komponenten.

Spezialbereich könnte von Bedeutung sein wenn sich eine Anwendung findet bei der die Eventuell erreichbaren Vorteile im Randbereich ein Geldwerten Vorteil bringen und der Nachteil der Belichtungszeit nicht ins Gewicht fällt.
Ich muss jedoch gestehen das ich keinen Bereich sehe in dem das der Fall ist. Ich vermute die 3k€ für die Patentanmeldung werden sich nie auszahlen wenn du kein Unternehmen überzeugen kannst das zu bauen.
Wie willst du das machen?
Wenn jemand eine Idee hat was man damit anfangen könnte wäre das sicher interessant zu wissen. Aber ich sehe schwarz. Ein Gewölbter Sensor ist auch bisher Wunschdenken. Man schafft es einfach nicht einkristallines Material in zwei Dimmensionen zu biegen.

Zuletzt kommt leider noch etwas das der ganzen Geschichte das Genick bricht. eine Optik die die Wandlung von einer Kugelschale in eine Fläche durchführt ist billiger als eine Mechanik am Sensor zusammen mit einer Software zur Nachbearbeitung der Daten.
 
Kann mich irren aber ist die Photogrammetrie nicht ein Sammlung von Fernerkundungsverfahren.
Ich dachte das Verzerrungen bei Teleobjektiven nur sehr gering sind.
Aber vielleicht gibt es in dem Bereich wirklich jemand den das Interessiert. Sollte in dem Bereich so etwas auf den Markt kommen kriegt der Patentbesitzer das aber mit Sicherheit nicht einmal mit. Folglich kann er seine Ansprüche auch nicht geltend machen. Macht bei den Stückzahlen aber auch kein Sinn.
 
Kann mich irren aber ist die Photogrammetrie nicht ein Sammlung von Fernerkundungsverfahren.
Ich bin auch kein Spezialist, aber ich denke es gibt beides: Fotogrammetrie von großen und von kleinen Sachen.

Nennt sich nicht die Vermessung/Kartografie aus dem Flugzeug Fotogrammetrie? Gegen diese Anwendung zumindest spricht die buchstäblich stundenlange Belichtungszeit.
 
Ich bin auch kein Spezialist, aber ich denke es gibt beides: Fotogrammetrie von großen und von kleinen Sachen.

Nennt sich nicht die Vermessung/Kartografie aus dem Flugzeug Fotogrammetrie? Gegen diese Anwendung zumindest spricht die buchstäblich stundenlange Belichtungszeit.

Fotogrammetrie is eigentlich das Verfahren, dass du aus mehreren Bildern irgendeine Art 3D Modell erstellt. Des kann halt im Falle der Geographie eine Landschaft sein oder ein z.B. ein Raum wie beim Film Fightclub.
 
Aus Wikipedia: "Die Fernerkundung (englisch: Remote Sensing) ist die Gesamtheit der Verfahren zur Gewinnung von Informationen über die Erdoberfläche oder anderer nicht direkt zugänglicher Objekte durch Messung und Interpretation der von ihr ausgehenden (Energie-)Felder. Als Informationsträger dient dabei die reflektierte oder emittierte elektromagnetische Strahlung. [DIN 18716/3]". Sie ist nicht auf "weite" Entfernungen im herkömmlichen Sinne beschränkt. Aber wo die Einsatzzwecke des Patentes später sein werden, können wir hier am allerwenigsten einschätzen.
 
WERBUNG
Zurück
Oben Unten