• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Layer und 3D Effekte

Ich verstehe es auch nicht. Für Räumliches Sehen benötige ich zwei Aufnahmen, die um einen gewissen Abstand zueinander verschoben sind, wie beim Mensche mit den Augen. https://de.wikipedia.org/wiki/Stereoskopie.
 
@Faas: Na haben DSLM doch, das Ergebnis direkt vom Sensor und die separate Auswertung für den Sucher.
Zwei Datensätze miteinander kombiniert ergeben das neue (bessere) Ergebnis.
 
...
Nun ist es so, das ein Handy Sensor quasi der Blick durch das Schlüsselloch ist und ein Vollformat quasi der Blick
durch das Panoramafenster.
...
Schlüsselloch oder Panoramafenster werden nicht durch den Sensor definiert, das macht das Objektiv.

Ansonsten: Fotografie = malen mit Licht. Da kommen die "3D-Effekte" von ganz allein.
 
Na haben DSLM doch, das Ergebnis direkt vom Sensor und die separate Auswertung für den Sucher.
...
Siehe Beitrag #2. 🤨
 
@Nicolas1965 :
Ich denke die meisten Fotografen wollen eine exakte Darstellung dessen was sie fotografieren.
Ich vermute, dies ist nur sehr bedingt der Fall. Fotografen wollen eher ein gefälliges Bild zaubern, welches sie selbst und das Publikum begeistert.

@Nicolas1965 :
Von daher wäre der Effekt, den Bildinhalt präziser darstellen zu können im Vordergrund.
Nach meiner Einschätzung steht soetwas in wissenschaftlichen Themen vorn, weniger bei kreativer Fotografie. Ich kann mich natürlich auch irren.
 
@CH3NO2 :
Fast. Der Sensor bekommt das Licht so störungsfrei wie irgend möglich direkt.
Verschiebt man die Achse für den Sucher minimal, erhält man aus dem selben Licht zwei Datensätze.
Kontrolliert.
siehe #3, #5, #17, #20
 
@CH3NO2 :
Fast. Der Sensor bekommt das Licht so störungsfrei wie irgend möglich direkt.
Verschiebt man die Achse für den Sucher minimal, erhält man aus dem selben Licht zwei Datensätze.
Kontrolliert.
siehe #3, #5, #17, #20
Das ist heute bei DSLM im Standard aber nicht der Fall.
Und ich denke über eine VErschiebung des Sensors ginge das "einfacher", weil die Technik schon vorhanden ist. Siehe in der Kamera aus mehreren Aufnehmen errechnete hochauflösende Bilder.

Edit: Evtl. ist ja das ein Ansatz für Dich.
 
@Holly-Foto Es gibt Möglichkeiten mit den "Unzulänglichkeiten" des menschlichen Auges und des angeschlossenen Gehirns zu tricksen - beispielsweise mit starken Helligkeitsunterschieden oder künstlichen Schatten. Außerdem sind unsere Augen mit einer chromatischen Aberration behaftet, also einem wellenlängenabhängigen Abbildungsfehler. Die Ursache dieses Fehlers besteht darin, dass das Auge kurzwelliges Licht stärker bricht als langwelliges. Dadurch fokussieren sich zum Beispiel rote und blaue Lichtflecken nicht in einem Punkt. Unser Gehirn interpretiert dies so, als befänden sich die zwei Lichtquellen in unterschiedlicher Entfernung. Diesen Umstand nutzt das ChromaDepth-Verfahren, um Bilder dreidimensional zu präsentieren. Und es gibt KI-Programme, die aus einem einzelnen 2D-Foto die Tiefe ermitteln (zu ermitteln versuchen) und dann eine ChromaDepth-Map anlegen, die über das eigentliche Foto gelegt werden kann. In all diesen Fällen muss berücksichtigt werden, dass längst nicht jeder Mensch sich auf diese Weise ein 3D-Bild vorgaukeln lässt - das hängt zum Teil auch von den verwendeten Sehhilfen ab.

btw: es gibt ja inzwischen auch Programme, die künstliche Bokehs errechnen.

Gleichwohl: Die einzige Möglichkeit fotografisch wirklich ein Stereo-Bild zu erzeugen, ist mindestens ZWEI Fotos zu knipsen - im Idealfall mit einer Stereokamera. Dabei spielt der Abstand zum Motiv eine wichtige Rolle - so lassen sich z.B. mit einem iPhone15 Pro schon ansehnliche Stereo-Fotos von Table-Top-Szenarien erstellen. Die Fujifilm Finepix Real 3D W1 oder W3 wiederum hat einen menschähnlichen Augenabstand und kann sehr gut Räume und übliche Außenaufnahmen erfassen. Für größere Entfernungen empfehlen sich noch größere Basen (Abstand, mit dem die beiden Bilder geknipst werden) - siehe z.B. https://stereoimage.de/tutorial/was-sind-gute-3d-fotos
Auch gibt es die Möglichkeit mit einem Fokusstacking 3D-Effekte zu erzielen - siehe https://www.picolay.de/stj_135_Cypionka.pdf

Wer sich mit dem Thema Stereofotografie befasst, wird feststellen, dass es für gute(!) 3D-Fotos mehr braucht als ein paar Algorithmen. Hinzu kommt, dass die Verbraucher das Thema nicht angenommen haben, als die Industrie massiv Stereofernseher angeboten haben. Heute gibt es keine mehr (oder nur noch selten?). Auch die Fujifilm Finepix Real 3D W1 und W3 sind Alteisen.
Vielleicht gibt es mit den VR-Brillen einen neuen Anlauf. Aber das Standbild könnte bei all den vielen Filmchen hinten runter fallen.

Großes Problem insgesamt: Mit der starken Konzentration auf (Stereo-)Effekte geht schnell die gute Inszenierung des Motivs hops.
 
@alfons60 Danke für die Links.
Du hast einen wichtigen Aspekt gebracht: Die Akzeptanz durch den Markt. Ich fange ja gerade erst an, mich mit dem Thema zu befassen - mit einem kommerziellen Hintergrund, der Darstellung von Räumlichkeiten. Die Frage ist eben: Machen die Konsumenten mit? Haben /kaufen die das erforderliche Equipment? Die Vision Pro ist derzeit nur eine absolute Randerscheing, was sicherlich am Preis liegt.
 
Die Verschiebung eines normalen Kamerasensors macht aus meiner Sicht keinen Sinn, weil immer noch durch das selbe Objektiv geschaut wird. Man bekommt nur ein 2D-Bild mit mehr Pixeln. Man müsste schon einen Sensor haben, bei dem nach einem bestimmten Muster die Pixel bzw. Sensels auf 2 Ebenen liegen - sozusagen Bayer-Pattern für 3D. Aber auch damit wird man kaum eine relevante Stereobasis für ernsthafte Stereo-Bilder erhalten.
 
@alfons60 :
Ich würde sogar vermuten das man mit einer RAW durch die Abtrennung der reinen Graustufen ohne Farbinformation genug Daten hätte.
Aber das ist ein ziemlicher Schuss in den blauen Himmel.
Um das wirklich zu beurteilen müsste man da viel genauer hinschauen.
Ich würde es ja nur gerne genauer verstehen, warum das so wenig praktikabel ist.
"Der Markt will das nicht" wäre ja schon ein guter Grund .....
 
@Faas: Na haben DSLM doch, das Ergebnis direkt vom Sensor und die separate Auswertung für den Sucher.
Zwei Datensätze miteinander kombiniert ergeben das neue (bessere) Ergebnis.
Welche seperaten Auswertung für den Sucher? Da findet keine Verschiebung der Bildebene statt. Weder bei der DSLM noch bei der DSLR. Zumal der Abstand wen dann vertikal ist, besser wäre eine horizontale Verschiebung.
 
@Faas :
Der Sucher ist ein Bildschirm. Es muss also eine Erfassung, Auswertung und Ausgabe geben, also Daten.
Um ein Bild zu präzisieren benötigt man nur einen zweiten Datensatz.
Je kontrollierter die Unterschiede der Datensätze sind desto besser wird das Ergebnis.
Es hat (wahrscheinlich) wenig Relevanz ob ich die Achse horizontal oder vertikal verschiebe.
Horizontal wäre es nur eben leichter die Entfernung zum jeweiligen Objekt abzuschätzen.
Und wenn da keine Verschiebung ist, kann man die künstlich erzeugen, da ist ja nur die Frage der Wahrnehmbarkeit.

Edit: Zwei Ausgabeeinheiten machen keine zwei Datensätze. Zu einfach, habe ich nicht gesehen bzw verstanden. Der Sucher ist immer eine Teilmenge vom Sensor.
Also ist es nicht so einfach und darum gab es da auch aufwendigere technische Ansätze.
Entschuldigung, habe ich wirklich jetzt erst wirklich verstanden.
Damit reduziert sich der Unterschied auf die unterschiedlichen Störungen wie Rauschen usw. weil es ja zwei Ergebnisse sind also Sensor zu RAW und Ausgabe Sucher.
 
Zuletzt bearbeitet:
Dann sag's doch einfach auf deutsch.
Tu ich doch die ganze Zeit
Du redest zwar viel, und das in deutscher Sprache – aber sagst nix. Es ist alles inhaltsleer. Ich habe jedenfalls bisher nicht im geringsten verstanden, was du tun und erreichen willst. Du faselst von Dingen, die in modernen Kameras angeblich vorhanden, aber nicht genutzt würden ... so als ob alle Hersteller und Anwender von Digitalkameras blind seien und du hier der einzige wärst, der da ein geheimnisvolles "ungenutztes Potential" zu erkennen vermag.

Und allen anderen, die bisher hier geantwortet haben, geht's genauso. Sie schießen mit ihren Antworten orientierungslos in den Nebel in der Hoffnung, dein Ziel zu treffen. Du merkst doch selber, daß keiner der bisherigen Beiträge deine Frage befriedigend beantwortet hat, oder? Jetzt rate einmal, woran das wohl liegen mag ...
 
Du merkst doch selber, daß keiner der bisherigen Beiträge deine Frage befriedigend beantwortet hat, oder? Jetzt rate einmal, woran das wohl liegen mag ...

Na das hat Holly-Foto doch selbst schon auf den Punkt gebracht...

ich bin neu im Forum und Neueinsteiger mit einer APS-C Kamera.
Mein aktuelles Problem ist das Grundwissen.

Ich denke, es ist wenig zielführend so weiter zu machen. Wenn es um konkrete Beispiele geht, warum ein Bild nicht die Wirkung entfaltet, die der Fotografierende erzielen wollte ist das in einem anderen Bereich hier im Forum sicher besser aufgehoben, gleiches gilt auch für "Problembilder"...
 
Die einzige Möglichkeit, fotografisch wirklich ein Stereo-Bild zu erzeugen, ist mindestens zwei Fotos zu knipsen ...
Das ist richtig. Aber wenn es Holly-Foto um Stereobilder ginge, dann hätte er das doch schon längst gesagt.

Im übrigen gab es die ersten Bemühungen, das zweidimensionale Steh- oder Kinobild mit 3-D-Information "aufzuladen" – also ein Stereobild zu erzeugen – schon vor hundert Jahren, und es ist bis heute nichts ernstzunehmendes daraus geworden. Es gibt zig Verfahren, und keines davon hat sich durchgesetzt. Weil der Aufwand sowohl bei der Herstellung als auch bei der Betrachtung von Stereobildern viel zu hoch und der Mühe nicht wert ist. Denn die künstliche Dreidimensionalität gilt immer nur für einen Standpunkt (genauer: für ein Paar von Standpunkten – also einen zweiäugigen Standpunkt). Man kann nicht um das Foto herumgehen – es also einmal mehr von links und einmal mehr von rechts betrachten – und daraufhin verschiedene Stereo-Ansichten erhalten, wie es bei einer wirklich dreidimensionalen Szene der Fall wäre. Damit ist das Betrachtungserlebnis entäuschend, und ein simples zweidimensionales Bild, das nichts vortäuscht, was gar nicht da ist, wirkt letztlich visuell befriedigender.
 
Zuletzt bearbeitet:
Und deswegen bedient man sich aus der Kiste der fotografischen Handwerkskunst und wählt Brennweite, Blende, Perspektive, Licht, ... genau so, dass das Bild bestenfalls eine visuelle Tiefe bekommt und nicht "platt" wirkt.
 
WERBUNG
Zurück
Oben Unten