• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Layer und 3D Effekte

Holly-Foto

Themenersteller
Hallo,
ich bin neu im Forum und Neueinsteiger mit einer APS-C Kamera.
Mein aktuelles Problem ist das Grundwissen.
Wer selbst lernt kann hier also quasi zu lesen aufhören :-) sry.

Also. Ich habe das mit den Formaten der Sensoren so weit verstanden, denke ich.
Nun ist es so, das ein Handy Sensor quasi der Blick durch das Schlüsselloch ist und ein Vollformat quasi der Blick
durch das Panoramafenster.
Sehen kann man immer etwas, das ist klar.
Mit einem APS-C stehe ich irgendwo dazwischen.

Nun würde ich gerne aus meinen RAW Dateien Layer und 3D Effekte raus ziehen.
Optimal wäre es ein Zweites Bild zu haben mit (fast) identischem Inhalt.
Anbieten würde sich der Sucher.
Die meisten Sucher bieten so 10% Auflösung und minimale Verschiebung der Aufnahmeachse zum Sensor.
Ein Gitter mit 10% über das RAW vom Sensor legen zu können würde locker reichen, um Kanten zu schärfen,
Farbübergänge zu präzisieren oder sogar Layer zu berechnen, um Objekte im Bild nach vorne oder hinten zu schieben.

Gibt es so etwas?
Kann ich bei den APS-C oder Vollformat ähnlich wie beim Handy diese Zweitinformation bekommen?
Sry wenn die Frage doof ist, aber ich fange je gerade erst wieder an.
Danke für Eure Mühe
 
Zuletzt bearbeitet:
Hallo,
Die meisten Sucher bieten so 10% Auflösung und minimale Verschiebung der Aufnahmeachse zum Sensor.
Ich meine, da liegt ein Missverständnis vor. Ausser bei Messucherkameras entstehen Sensor- und Sucherbild durch das selbe Objektiv (gibt ja nur eins). Bei DSLR wird das Bild halt über eine Spiegelkonstruktion in den Sucher gebracht, bei den DSLM ist es das aufbereitete Sensorsignal.
Da gibt es keine unterschiedlichen Aufnahmeachsen. Nur bei Messucherkameras (und zweiäugigen Systemen) gibt es eine separate Optik für den Sucher mit einer gewissen Paralaxe, das sind aber rein optische Systeme, da kann man kein Signal abgreifen.
Es gibt wohl spezialisierte 3D-Kameras, aber damit kenne ich mich nicht aus.
Bei einigen Canon-Kameras gibt/gab es die Möglichkeit, ein Dual-Pixel RAW aufzunehmen, um die Fokuslage leicht verschieben zu können, das funktioniert aber wohl nur mit dem Canon-eigenen Bildbearbeitungsprogramm und hat sich auch nicht so richtig durchgesetzt.

Freundliche Grüße
Thomas
 
@Knipskiste :
Danke für Deine Antwort.
Ein Spiegelsystem wäre natürlich quasi ein dead end.
Aber wenn bei DSLM das Signal direkt vom Kamerasensor kommt wäre das ja quasi die beste aller Welten.
Es muss also eine Bilderfassung geben, eine Bildverarbeitung und eine Bildausgabe für den Sucher.
Die wäre auch noch komplett fehlerfrei.
Die Quelle (Sensor) ist die gleiche.
Der Weg (Unterschied) zwischen beiden Datensätzen (RAW Bild und RAW Sucher) wäre komplett unter Kontrolle
und ohne jeden Störeinfluss.
Das Licht ist ja ständig auf dem Sensor und das Foto greift ja nur die (Licht) Info aus den Datenstrom (Licht) den man sich wünscht.
Der zweite Datensatz (Sucher) könnte also alle technischen Möglichkeiten ausschöpfen (pre,past,beides,Fehlerkorrektur usw usf).
Wieso zum Geier wird das nicht benutzt?
Man könnte quasi ohne Fehlerrisiko die RAW auf Faktor 4 skalieren und gleichzeitig alle Fehler wie Farbrauschen usw usf rausziehen.
DAS macht wirklich niemand???
Kann ich mir überhaupt nicht vorstellen.
 
Der zweite Datensatz (Sucher)...
ist das gleiche JPEG-Bild, das auf Deiner Speicherkarte landet (eingebettet im RAW).
(RAW Bild und RAW Sucher
Es gibt kein RAW im Sucher. Ein RAW ist im Prinzip ein unentwickeltes digitales Dia, das kann man nicht ansehen.

Freundliche Grüße
Thomas
 
@Knipskiste :
Das klingt jetzt wahrscheinlich blöder als es gemeint ist:
Der Datensatz den man ausliest ist NIE gleich.
Wenn man zusätzlich noch die Möglichkeit hat, den zweiten (Referenz-) Datensatz kontrolliert
zu verändern, ist das optimal.
Genau darum mein Unverständnis bzw mein Erstaunen, das das keiner einsetzen soll.
DAS ist doch ein Killerargument FÜR Digitalkamera und DSLM.
Mal sehen, iwo muss ich einen ganz doofen Verständnisfehler haben.
 
Keine Ahnung, was du erreichen willst, aber mir fallen zwei Features ein, die für dich von Interesse sein könnten.

Pre-capture: Hier werden kontinuierlich Einzelbilder im Buffer der Kamera gespeichert, und sobald du den Auslöser drückst, werden die Bilder der letzten ca. 0.5 Sekunden auf der Speicherkarte "richtig" gespeichert. Gibt es soweit ich weiß bei Canon, Nikon und Sony.

Dual-pixel raw: Dabei werden die Daten der einzelnen Sub-Pixel des Sensors seperat gespeichert, was es im post processing erlaubt, die Fokusebene leicht zu verschieben. Gibt es soweit ich weiß nur bei Canon, oder es heißt bei anderen Herstellern einfach völlig anders.
 
Zuletzt bearbeitet:
Wenn ich dich richtig verstanden habe, dann gibt es schon ein paar Kamerahersteller, die anfangen, in diese Richtung zu entwickeln. In vielen Fällen ist aber noch manuelle Bearbeitung im Nachgang erforderlich - was für dich vermutlich tatsächlich von Vorteil wäre, da du dann Zugriff auf die RAWs hast.

(Handheld) High Resolution: Verschiebt den Sensor um ein paar Pixel und macht das gleiche Bild mehrfach. Je nach Hersteller werden die 4-16 Einzelbilder dann in der Kamera zu einem extrem hochaufgelösten Bild mit besserer Farbwiedergabe, mehr Details (geeignetes Objektiv vorausgesetzt) und weniger Rauschen zusammengefügt oder man muss es selbst am PC mit Herstellersoftware zusammenfügen. OM System macht die Verrechnung in der Kamera, Panasonic mWn auch. Sony muss extern gemacht werden. Bei OM System / Panasonic habe ich von Leuten gelesen, die dieses Feature nutzen, um bei schlechtem Licht dennoch kurze Verschlusszeiten, hohe Farbtreue und wenig Rauschen zu erzielen oder es für Langzeitbelichtungen nutzen.

Fokus verschieben: Panasonic hatte(?) bei irgendeiner ihrer m43-Kameras mal das Feature eingeführt, dass man im Nachhinein, jedoch noch in der Kamera, den Fokuspunkt nach vorne oder hinten verschieben konnte. Ich bin mir jedoch nicht mehr sicher, ob das nur mit 6k Filmen (und Einzelbildern daraus) ging oder auch mit regulären RAWs. Müsste ab der GH5 / G9 verfügbar sein, meine ich.

Weniger Rauschen: Sony bietet bei der A9 III und der A1 II die Möglichkeit, mit sehr hoher Bildrate das gleiche Bild mehrfach zu machen und im Nachhinein die Einzelbilder zusammenzuführen. Keine Verschiebung vom Sensor und keine Auflösungssteigerung, aber weniger Rauschen und bessere Farben.


Die Berechnung von 3D-Effekten / Tiefeninformationen gibt es aber mWn nichts.
 
@Holly-Foto Ich habe vermutlich überhaupt nicht verstanden, was Du erreichen willst. In jedem Fall solltest Du bedenken, das bei einer Systemkamera und ihren auswechselbaren(!) Objektiven von vornherein ganz andere Bedingungen aufgrund der großen Sensoren herrschen. So verfügt die Kamera bspw. über kein Lidar, mit dem eine Tiefenbild erstellt werden kann.
 
@Nicolas1965 : Ja, das macht Nikon auch. Aber das ist ja dann eingeschränkt, wenn man bewegte Objekte hat. Zeitgleich ist wichtig. Auch der Datensatz lebt in der Berechnung davon.
Aber Danke für den Hinweis.
lg

@alfons60 : Ich kann das leider nicht so wirklich richtig formulieren, das es in Foto-Sprech verständlich wird. Ich arbeite aber daran :)
Danke lg

@Perturabo :
Genau so etwas meine ich. Bei Nikon kann ich zB Serien machen und die aufeinander legen.
Aber warum benutzt das keiner zur Präzisierung der Ergebnisse?
Ich habe einen Bericht zu Satellitenbildern gesehen, ist Jahre her. Die hatten 2 Linsen (ähnlich Handy) mir Spiegelsystemen.
Heute benutzen die für die Präzision eine Linse und das Bild davor und das Bild danach als Referenz.
Die kommen aus 36km Höhe und Umlaufgeschwindigkeit auf Objekte 4mx4m ziemlich scharf abgebildet.

Wieso machen Kamerahersteller nicht etwas ähnliches in der Kamera, wenn doch die Daten vorhanden sind?
Das ginge IN der Kamera ja noch viel präziser, weil die selbe Quelle ja in der DSLM für den Sensor zeitgleich bearbeitet wird.
Da gäbe es ja nicht einmal Einschränkungen bei bewegten Objekten.
Die Ansätze die Du beschreibst zeigen ja, das da Potential wäre.
Mir ist klar das interpolieren ein heikles Thema ist.
Aber einen zB 20MP durch geschickte Software auf 80MP Qualität zu bringen,
ohne das das Farbrauschen zunimmt, die Objektivqualität oder die Kameraeinstellungen nachgeführt werden müssen?
Das müsste doch quasi der "Hammer" sein.
Und wenn das so einfach wäre, würde das ja auch jeder machen, nicht nur Handyhersteller.
Ich möchte halt meinen inhaltlichen Fehler verstehen, denn das wird mir beim Gesamtkontext "fotografieren" wahrscheinlich helfen ;-)
Danke Dir und lg

Edit: Also immer alles betrachtet mit einem gleichen Abstand und gleichem Bildausschnitt. Es geht immer nur um Ergebnisverbesserung,
nicht um eine geschickte Änderung von Licht, Position und Abstand,
 
Zuletzt bearbeitet:
Bewegte Motive sollten doch mit dem Dual Fisheye möglich sein.
Ich beschäftige mich einstiegsweise mit dem Thema 3D (sehr einstiegsweise)).
Dabei stelle ich mir die Frage, wie eine consumergerechte (handhabungs- und preismäßig) Wiedergabe aussehen kann.
Die Darstellung mit Hilfe einer Apple Vision Pro braucht zB Auflösung, die selbst mit einer R5 und Dual Fish nicht zu liefern ist, wenn ich das richtig verstanden habe.

Welche Anwendung hast Du im Sinn?
 
@Nicolas1965 :
Also ganz und gar unprof:
Ich zocke seit 19 Jahren WoW.
Daher habe ich die Entwicklung, was man auf einem 2D Screen an Tiefeneffekten, Layern (vor, hinten) und relativer 3D
Darstellung so alles zaubern kann, quasi live verfolgt.
Nun fange ich nach über 30 Jahren wieder mit fotografieren an.
Und in dem Bereich scheint es diese Entwicklung gar nicht zu geben.
Die Technik ist vorhanden.
Die Software ist ausgereift.
Das Potential ist (Handys zeigen, was man aus wenig Infos so alles zaubern kann) vorhanden.
Im Vollformat, dem absoluten Flaggschiff, finde ich - nix - .
Es ist aber selten das einer daher kommt und aus dem Stand die Welt neu erfindet.
Wahrscheinlicher ist es eben, das ich etwas wichtiges übersehe.
Aber was ist das? Ich check es nicht.
Es ist echt ALLES vorhanden und es gibt KEINE Anwendung, die das Potential hebt?
unfassbar
Stell Dir mal vor, was man mit einer RAW machen könnte, wo 120MP oder 200MP für Vollformat drin stecken?
OHNE erhöhtes Rauschen, weniger Tiefenschärfe usw usf, nur pure Bildinfo.
 
Zuletzt bearbeitet:
@alfons60 :
Ok, das relative 3D ergibt sich daraus, das ingame der Bildausschnitt ständig bewegt wird und die Bewegung mit der Distanz abnimmt.
Das ist ein perspektivisch billiger aber guter Trick.
Das Foto sollte aber zeigen, das die verschiedenen Abstände relativ gut zu erkennen sind und das ist eine
lächerliche Auflösung von knapp unter 1080p und weniger als 24bit Tarbtiefe.
Ja da ist zu viel Gamma drin, aber das brauche ich fürs spielen, sry:
 

Anhänge

  • WoWScrnShot_042325_084602.jpg
    Exif-Daten
    WoWScrnShot_042325_084602.jpg
    366,2 KB · Aufrufe: 29
@Holly-Foto Ist Dein Beispiel wirklich vergleichbar mit der Fotografie? Computerspiele nutzen ein 3D-Modell und können durch Bewegung und Rendering-Verfahren - wie z.B. die dunstige Darstellung von entfernten Teilen der Szenerie - einen räumlichen Eindruck berechnen. Eine Fotoapparat kann dagegen nur mit Standbildern arbeiten, hat aber das Werkzeug Schärfentiefe bzw. Bokeh zu Verfügung, womit sich sehr wirkungsvoll die Tiefe eine Szene darstellen lässt.
 
@alfons60 :
Exakt. Dahinter ist eine engine die das Spiel einbettet. Das ist unfair im direkten Vergleich.
Aber.
Gerade das ist es doch.
Die DSLM stellen alle Informationen bereit.
Man könnte mit einer Auswertung von einer Referenz das Alles und noch viel mehr tun.
Wenn nicht in der Kamera, dann als Info in der RAW.
Man könnte Farbübergänge präzisieren.
Helligkeitsverläufe, Übergänge (Farbe, Gamma, Kontrast), Kanten und ja wenn man die Achsen der beiden zeitgleich
aufgenommenen Bilder etwas variiert sogar 3D Effekte berechnen und in ein Endergebnis einbauen.
Alles das ohne die Bildinfo wirklich zu verändern.
Das Ergebnis näher an das sehen mit ZWEI Augen heranzuführen war mal ein Aspekt beim Fotografieren.
Also ist der Vergleich schmerzhaft aber eben notwendig.
DAS was die game engine da macht, könnte jede DSLM anbieten und noch viel mehr.
 
Zuletzt bearbeitet:
@Holly-Foto Erstmal Danke, dass wir jetzt wissen "wo Du herkommst" bzw. Deine Idee.
Das Wesen der Fotografie ist wohl ein zweidimensionales und die Kunst ist es Tiefe durch Gestaltung zu erreichen. Zumindest was den Amateur anbelangt.

Hinsichtlich eines Computerspiels kann ich mir gut vorstellen, dass das Gehirn aufgrund der wechselnden Darstellungen und Schattierungen eine 3D-Illusion schafft. Aber das ist jetzt nur eine spontane Idee.
Auseinandergesetzt habe ich mich damit nicht.

Ich lese gerade Deine Antwort #17 an alfons60. Da kommt mir eine Idee. HDR-Darstellungen der frühen Jahre waren ja gerne etwas übertrieben, hatten für mich wahrnehmbar aber so eine Art 3D-Effekt. Da gab es Schattierungen an einigen Kanten.

Möglicherweise ist das (wie auch immer entstandene) 3D-Bild mit einer 2D-Ausgabe ohne Hilfsmittel (wie Brille oder Apple Vision Pro oder vergleichbare) einfach zu wenig, als dass sich eine kommerzielle Anwendung ergeben könnte.
 
@Nicolas1965 :
3D wäre wahrscheinlich nur eine Nische. Quasi eine Nebenwirkung die man machen kann.
Ich denke die meisten Fotografen wollen eine exakte Darstellung dessen was sie fotografieren.
Natürlich mit allen Stilmitteln, aber immer um das eigentliche Objekt zu betonen.
Von daher wäre der Effekt, den Bildinhalt präziser darstellen zu können im Vordergrund.
@01af : tu ich doch die ganze Zeit :)
 
WERBUNG
Zurück
Oben Unten