• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Objektiv vs. Auge

Und wird das jemals durch Technik umsetzbar sein?

Klar doch. Wenn die "künstliche Intelligenz" soweit ist :evil:
 
Und wird das jemals durch Technik umsetzbar sein?

Warum sollte man die Unzulänglichkeiten der Biologie mit technischen Mitteln nachstellen, nur um dann die beeindruckenden Workarounds der Natur nachzustellen?

Die Technik hat die optischen Möglichkeiten unseres Sehapparates schon längst überflügelt. Lichtfeldkameras, HDR-Kameras, Highspeedkameras, Spektralkameras ... sogar Fokus und Dunkeladaption kann die Technik schneller als jedes Lebewesen.

Einzig Mustererkennung, Bewertung, Einordnung in einen größeren Zusammenhang oder gar emotionelle Variationen stehen noch am Anfang bzw. in weiter Ferne. KI halt, wie Manni schon schrieb.
 
Und wird das jemals durch Technik umsetzbar sein?

"gewaltiger Dynamikumfang durch zwei "Pixeltypen"":
Kameras mit verschiedenen Pixeltypen zur Dynamikverbesserung gibts bereits.

"Echtzeit-Fokus-Stacking":
Das ist kein Fokusstacking wie man es vom Fotografieren her kennt. Hier gehts im Prinzip nur darum, ein Panorama zu machen, bei dem die nur die scharfen Bereiche benutzt werden. Falls es das nicht eh schon gibt stell ich mir das nicht so schwierig vor.

"automatische Korrektur von Abbildungsfehlern durch Abgleich mit Datenbank":
Will man das wirklich haben? Das würde ja bedeuten, dass zB das Auto auf dem Foto unscharf ist und die Kamera schaut in ihren Speicher welche ähnlichen Objekte sie in den letzten 10 Minuten gesehen hat und wenn da ein ähnliches Objekt scharf dabei war, dann malt sie dieses Objekt darüber. Wie beim Menschen kann das natürlich auch schief gehen und das Objekt ist nur ähnlich, nicht gleich und schwupps, wird aus dem BMW ein Mercedes.

"sowie perspektivische Entzerrung durch Nutzung von 3D-Technik":
Stereokameras wurden schon erfunden. Das Problem ist, wenn man bei einem solchen 3D-Bild die Perspektive ändert, dann sieht man die verdeckten Bereiche. Das stört im Gehirn nicht, aber auf einem Foto ist das unmöglich.
 
".

"sowie perspektivische Entzerrung durch Nutzung von 3D-Technik":
Stereokameras wurden schon erfunden. Das Problem ist, wenn man bei einem solchen 3D-Bild die Perspektive ändert, dann sieht man die verdeckten Bereiche. Das stört im Gehirn nicht, aber auf einem Foto ist das unmöglich.

Auf einem Foto wird soetwas wohl nicht so bald realisierbar sein ( obwohl, es gibt da schon solche Sticker, die aus unterschiedlichen Blickwinkeln andere Motive zeigen ).

Ein geeignetes Medium für die Präsentation von 3D Aufnahmen ist zur Zeit nur der Bildschirm. Es gibt bereits Systeme, da ist im Monitor eine Kamera eingebaut, die die Augenposition ermitteln und dementsprechend ein 3D Bild erzeugt.

D.h bei Bewegung werden verdeckte Bereiche sichtbar....

Das alles steht noch recht am Anfang der Entwicklung, aber ich denke, dass sich das in den nächsten Jahren so weiter entwickelt, dass 3D - Darstellungen zum Alltag werden.
 
Hallo,
3D Laser-Projektionen im Raum sind ja heute schon möglich.
Nur zum Holodeck ist es wohl noch ein weiter Weg....:evil:

Zumal das Auge ja kein 3D Bild erzeugt, sondern der Rechner (Hirn) hinten dran, was allerdings durch optische Täuschungen auch nicht immer perfekt ist.
Es gibt ja auch Software die versucht aus zweidimensionalen Fotos oder Filmen 3D zu machen.
Nach dem was ich bisher gesehen habe mit recht bescheidenen Ergebnissen..

Gruß
Wolfram
 
Auf einem Foto wird soetwas wohl nicht so bald realisierbar sein ( obwohl, es gibt da schon solche Sticker, die aus unterschiedlichen Blickwinkeln andere Motive zeigen ).

Ich meinte eigentlich 2D-Fotos. Hätte ich dazuschreiben sollen.
Ich versuchs noch mal: Wenn man zB beim Fotografieren zu nahe an ein Gesicht herangeht, dann wird das Gesicht verzerrt und die Nase erscheint zu groß. Das ist einfach die perspektivische Verzerrung. Als Mensch nimmt man das oft nicht bewußt wahr, denn man weiß ja wie die Nase "richtig" aussieht.

Das kann man in einem einzelnen 2D-Bild nicht beheben. Wenn man aber 3D-Informationen hat, dann kann man das per Software perspektivisch korrigieren (bzw. gleich das komplettes 2D Bild generieren). Allerdings werden dann verdeckte Bereiche sichtbar und man hat keine Bildinformation dazu. Jedenfalls nicht aus einem einzelnen Stereo-Bilderpaar. Dem Gehirn ist das egal, aber ein korrigiertes 2D-Foto das Lücken enthält ist doof.
 
...

Mein Fazit:
Das Auge als System ist eigentlich nicht mit einem Objektiv\Kamera vergleichbar.

...


Doch, das ist es.

Weiter geht es mit der Informationsverarbeitung. Unser Gehirn setzt da Limits
und verfeinert wird das durch die Steuerung der Augen- bis hin zur Kopfbewe-
gung zwecks Scannen des Ambientes.

Womit wir zur Stereoaufnahmetechnik weiter gehen können und der Analyse
zwecks Generierung von 3d-Modellen im Bewusstsein sowie in der Erinnerung
für die Orientierung im Raum. Die "Erde" ist da eine Scheibe und zwar stets
mit dem Mittelpunkt der Tangentialebene des Geoides im Lotpunkt des Punk-
tes, der durch die Symmetrieebene zu den beiden Augachsen, geschnitten
mit der Ebene die durch die Hauptachsen aufgespannt wird sowie der in der
sich die beiden Hauptpunkte der beiden Linsen befinden.

Das 3d-Modell wird verfeinert im Hauptsehbereich in unserem Gehirn in der Er-
innerung hinterlegt lässt sich je nach dem ob wir gehen bzw. in Bewegung
sind beschrieben. Je schneller wir uns bewegen, desto enger wird der Erfas-
sungswinkel dem unsere Aufmerksamkeit gilt, wenn wir uns autonom bewe-
gen (Gehen, Laufen, Radfahren, Motorrad, Auto bzw. im Raum dann Flugzeug
bzw. Hubschrauber - wer hat der hat).
Für alle die Wien kennen, Testfrage, wer hat schon beim gehen auf der Kärnt-
nerstraße bei Hausnummer 16 das Mosaik im 1. & 2. Stockwerk selbst bemerkt
und nicht erst auf Grund von Hinweisen entdeckt?


Unsere gesamte Existenz baut auf der Wahrnehmung unserer Umwelt auf in
der wir unseren Weg zu finden haben und unsere selektiv gestalteter adapti-
ve Sehapparat schützt uns vor einer zu großen Datenflut.

Mit Kamerasystemen können wird weit vordringen, siehe die Möglichkeiten der
Photogrammetrie, die Generierung von 3d-Welten etc.

Für mich baut sich das eigentliche Thema erst hinter der primären Frage auf,
denn erst die Auswertung der Information macht aus den Daten etwas was
sinnvoll ist. Aus diesem Grund erweitert sich die Frage wie zuvor beschrieben.


abacus
 
Ich versuchs noch mal: Wenn man zB beim Fotografieren zu nahe an ein Gesicht herangeht, dann wird das Gesicht verzerrt und die Nase erscheint zu groß. Das ist einfach die perspektivische Verzerrung. Als Mensch nimmt man das oft nicht bewußt wahr, denn man weiß ja wie die Nase "richtig" aussieht.

Solange man nicht durch die Kamera oder mit nur einem Auge von nahem auf das Gesicht sieht, erscheint die Nase nicht größer, man sieht es mit beiden Augen dreidimensional. Mit nur einem Auge sieht man es bewusst so, wie es auf dem Foto erscheint.
Übrigens funktioniert das wegen des geringen Abstands der Augen zueinander auf größere Entfernungen kaum noch, in der Ferne sieht man nur noch "2D" - Architekten und Baumeistern war das bekannt (wahrscheinlich eher aus Erfahrung denn durch Wissen um die Hintergründe), weshalb z.B. die Kolonnaden des Petersplatzes oder die äußeren Säulen des Taj Mahal entsprechend "korrigiert" sind.
Wegen dieser natürlichen Begrenzung des dreidimensionalen Sehens wirken auch komplett entzerrte (sei es per Software oder Shift-Objektiv/Fachkamera) Architekturaufnahmen auf viele Betrachter unnatürlich: es kann realistischer wirken, nur unvollständig zu entzerren. Das Extrembeispiel sind die stürzenden Linien beim Blick von unten nach oben am Hochhaus entlang.
 
Zuletzt bearbeitet:
interessant, interessant ! danke


Kleine Anmerkung noch, nicht alle Leute sehen tatsächlich echt 3d. Viele haben
Sehfehler und merken das nicht einmal. Da ersetzt die Empirie des Erlebten
das reale 3d-Erkennen.

So war es für manche eine böse Überraschung an 3d-Auswertgeräte zu sitzen
und nicht erkennen zu können was Voraussetzung für derartige Arbeiten ist.


abacus
 
Wegen dieser natürlichen Begrenzung des dreidimensionalen Sehens wirken auch komplett entzerrte (sei es per Software oder Shift-Objektiv/Fachkamera) Architekturaufnahmen auf viele Betrachter unnatürlich: es kann realistischer wirken, nur unvollständig zu entzerren. Das Extrembeispiel sind die stürzenden Linien beim Blick von unten nach oben am Hochhaus entlang.

Ich ergänze das mal noch um einen alternativen, ebenfalls schlüssigen Erklärungsansatz: sieht man das entzerrte und korrigierte Bild eines von unten aufgenommenen Gebäudes, entsteht zunächst der Eindruck, man stünde auf halber Höhe davor (da man die Standortinformation "unten" dem Bild erstmal nicht entnehmen kann) - das steht aber oft im Widerspruch zu weiteren im Bild enthaltenen Details, z.B. sieht man die abgebildete Umgebung oder niedrigere Nebengebäude nicht von oben, das passt nicht zusammen. Steht man in natura vor dem Gebäude und schaut nach oben, weiß man (auch wenn man durch 3D-Sehen, Erfahrung und Korrektur des Gehirns rechte Winkel zu sehen meint), daß man unten steht: es passt alles zusammen.
 
AW: Objektiv vs Auge

Bevor wieder etwas passiert:

Was soll passieren? :confused:

Das Auge sieht keine Farbe. Absolut keine Farbe.

Es gibt gar keine Farben... ;)

Es gibt nur elektromagnetische Strahlung unterschiedlicher Wellenlänge, und es gibt auf der Netzhaut drei Typen von Rezeptoren ("Zapfen"), die auf verschiedene Wellenlängenbereiche empfindlich sind: damit sehen wir "Farben"(funktionell nachgebildet von Farbfilm, Foveon-Sensor oder Bayer-Muster). Dazu kommen noch "Stäbchen" mit höherer Empfindlichkeit, aber ohne Wellenlängendifferenzierung (deshalb sind nachts alle Katzen grau), dieses Prinzip ist im Fuji-SR- Sensor nachgebildet.
 
Wenn Farbe die Empfindung oder Wahrnehmung ist, die durch Licht bestimmter Wellenlänge(n) hervorgerufen wird, und es außerhalb von uns keine Farben gibt (s. a. Rudid90), wie nenne ich dann im Alltag den Reiz (Farbreiz), aufgrund dessen ich einen Apfel als rot beschreibe?

Wiki u.a. passiert dann folgendes: Eine Spektralfarbe ist die Farbempfindung, die durch monochromatische Strahlung ausgelöst wird. Alle Farben des Regenbogens sind Spektralfarben.

Alle Farben des Regenbogens… unter Beachtung des entsprechenden Wissens ist diese vereinfachende Ausdrucksweise statthaft?
 
Wenn Farbe die Empfindung oder Wahrnehmung ist, die durch Licht bestimmter Wellenlänge(n) hervorgerufen wird, und es außerhalb von uns keine Farben gibt (s. a. Rudid90), wie nenne ich dann im Alltag den Reiz (Farbreiz), aufgrund dessen ich einen Apfel als rot beschreibe?

Wiki u.a. passiert dann folgendes: Eine Spektralfarbe ist die Farbempfindung, die durch monochromatische Strahlung ausgelöst wird. Alle Farben des Regenbogens sind Spektralfarben.

Alle Farben des Regenbogens… unter Beachtung des entsprechenden Wissens ist diese vereinfachende Ausdrucksweise statthaft?

Du hattest doch gesagt, das Auge sehe keine Farben... ;) (Was nicht stimmt, die "Signalverarbeitung" beginnt bereits in der Retina (die man durchaus korrekt auch als Teil des Gehirns bezeichnen kann.)

Lies einfach weiter:

"Farbe oder besser das „Farbig-Sehen“ ist ein Ergebnis der Nerventätigkeit, ein Konstrukt des Gehirns. Tiere haben nicht zwangsläufig eine Farbvorstellung wie der Mensch. »Farbe im hier behandelten Sinne« ist das Wahrnehmen unterschiedlicher Reize bei Licht unterschiedlicher Wellenlänge. Die Wahrnehmungen der Tierarten unterscheiden sich dabei beträchtlich. Die Ursachen liegen vorwiegend in der Evolutionsgeschichte, in welcher sich das Sehen mehrfach und unabhängig voneinander entwickelt hat. Die optischen Wahrnehmungsapparate besitzen mitunter sehr ähnliche Fähigkeiten.
[...]
Eine Aussage über den subjektiven Farbeindruck der Tiere (oder anderer Menschen) ist bisher nicht möglich. Experimentell nachweisbar ist die Reaktion auf Reize verschiedener Wellenlängenbereiche."
 
Ich werd’ mirs überlegen…
Mich störte nur, erst zu schreiben, es gä be keine Farben, und gleich darauf ‚…alle Farben des Regenbogens…’

ist ohnehin mehr eine akademische Spitzfindigkeit, meine.

cu!
 
"Farbe oder besser das „Farbig-Sehen“ ist ein Ergebnis der Nerventätigkeit, ein Konstrukt des Gehirns"
Im, Endeffekt ja.
Aber das Auge hat ja Rezeptoren für die Farben.
Zumal man je eigentlich ein Objektiv nur mit der Linse des Auges vergleichen kann.
Das Auge an Sich ist ja schon ein Objektiv mit Gehäuse. "AF-Motoren" und Sensor.
Es halt nur keine (digitale) Bildverarbeitung und keine eigene Energieversorgung..

Gruß
Wolfram
 
Im, Endeffekt ja.
Aber das Auge hat ja Rezeptoren für die Farben.
Zumal man je eigentlich ein Objektiv nur mit der Linse des Auges vergleichen kann.
Das Auge an Sich ist ja schon ein Objektiv mit Gehäuse. "AF-Motoren" und Sensor.
Es halt nur keine (digitale) Bildverarbeitung und keine eigene Energieversorgung..

Das Auge hat Rezeptoren für verschiedenen Wellenlängen, nicht für Farben (Auge und Hirn könne nicht zwischen Spektralfarbe und Mischfarbe unterscheiden).
Die Bildverarbeitung fängt schon in der Netzhaut an (diese entsteht aus einer Ausstülpung des Zwischenhirns).
"Farbe" lässt sich imho am besten als ein Konzept zur Beschreibung von Sinneseindrücken verstehen, sie ist keine messbare Größe.
 
Das Auge hat Rezeptoren für verschiedenen Wellenlängen, nicht für Farben (Auge und Hirn könne nicht zwischen Spektralfarbe und Mischfarbe unterscheiden).
Die Bildverarbeitung fängt schon in der Netzhaut an (diese entsteht aus einer Ausstülpung des Zwischenhirns).
"Farbe" lässt sich imho am besten als ein Konzept zur Beschreibung von Sinneseindrücken verstehen, sie ist keine messbare Größe.
Die Wellenlängen entsprechen verschiedenen Farben.
Wo ist das Problem?
 
WERBUNG
Zurück
Oben Unten