• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Juli 2025.
    Thema: "Unscharf"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juli-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Z Pixel Shift - Workflow + Ergebnis?

saarpfälzer

Themenersteller
Meine Frage zu Aufnahmen mit dem Pixel-Shift:

- welchen Workflow nutzt ihr hierfür? NX Studio braucht man ja zum Verrechnen, wie geht es dann bei euch weiter?

- Ich denke, Ziel sollte es sein eine "bessere" 45MP Datei zu bekommen?! In den Youtube-Videos die ich mir heute angeschaut habe wird immer die 45MP Datei auf 180 MP zum Vergleich hochskaliert. Meiner Meinung nach ist dies sinnfrei, lasse mich aber gerne belehren.
 
Ich denke, Ziel sollte es sein eine "bessere" 45MP Datei zu bekommen?! In den Youtube-Videos die ich mir heute angeschaut habe wird immer die 45MP Datei auf 180 MP zum Vergleich hochskaliert. Meiner Meinung nach ist dies sinnfrei, lasse mich aber gerne belehren.
Ich habe jetzt die genauen Optionen von Nikon nicht im Kopf (kenne das Thema Pixelshift mehr von Sony und Panasonic), aber grundsätzlich sinnfrei ist es nicht.

Das Prinzip ist ja, den IBIS dazu zu „missbrauchen“, die Sensorauflösung zu erhöhen. Dazu wird der Sensor für die Teilbilder in zwei Achsen verschoben.
Die einfache Variante mit vier Teilbildern verschiebt ihn um jeweils genau 1 Pixelbreite und eliminiert dadurch die Nachteile der Bayer-Interpolation (d. h. dank Pixelshift bekommt man für jeden Pixel die volle RGB-Information und muss nichts interpolieren – so ähnlich, wie man das von Foveon-Sensoren kannte). Das Ergebnis bleibt eine 45-MP-Datei, aber mit etwas höherer Detailschärfe bzw. weniger Unsauberkeiten an Farbkanten.
Für die bessere Variante mit 8 oder 16 Teilbildern wird der Sensor zusätzlich um je 1/2 Pixelbreite verschoben, sodass Pixel zwischen den regulären Sensorpixeln aufgenommen werden können und eine Datei mit 4-facher Gesamtauflösung entsteht. Je nach Füllfaktor des Sensors kommt es dabei sicher zu Überlappungen, aber dennoch wird zusätzliche Detailinformation gewonnen. Das ist also nicht einfach nur eine Hochskalierung.

Konkret zum Workflow mit Nikon kann ich leider nichts beitragen.
 
In den Youtube-Videos die ich mir heute angeschaut habe wird immer die 45MP Datei auf 180 MP zum Vergleich hochskaliert. Meiner Meinung nach ist dies sinnfrei

Das sehe ich genauso - komplett sinnloser Vergleich :)

Ich denke, Ziel sollte es sein eine "bessere" 45MP Datei zu bekommen?!

Ich denke eher, dass man mit dem gewonnenen 180MP-File anschließend mehr Möglichkeiten zum schneiden hat.
Ich kann jetzt nur von Olympus reden, hier gibt es ebenfalls den HR-Mode (native 20MP mittels Pixel-Shift -> ~50MP und mehr)
Meines Erachtens ist das Ergebnis mehr als bescheiden (zumindest outdoor, wo sich jeder Grashalm/jedes Blatt während der Sequenz-Aufnahme bewegen kann)
Vergleiche ich die nativen 20MP mit der 50MP-HR-Variante welche auf 20MP runterskaliert wurden, gewinnt stets die native Aufnahme.
Für Produktfotografie mag das recht gut funktionieren, aber für alles andere sehe ich das mehr als Marketing-Feature :)
Netter Nebeneffekt ist aber, dass man selbst mit bescheidenem Glas, riesen Auflösungen schafft.
 
Habe heute morgen einige Probeaufnahmen geschossen. Die 180 auf 45 reduziert, sehen (etwas) besser aus. Allerdings ohne Bewegungen im Motiv.
 
Ich nutze es eigentlich recht oft in der Foodfotografie, hier nutz ich 32 Bilder.
NX Verrechnen und dann in LR Importieren bzw. den Ordner Syncronisieren da ich die verrechungen im gleichen Ordner Abspeicher.
Für den Druck, liebe ich es genug Pixel zu haben.
 
Pixelshift-Funktionen mit Steigerung der Auflösung sind toll für Produkt- und Reprofotografie, evtl. auch für Architektur ohne Pflanzen, kurz: alles, was viele Details enthält und sich nicht bewegt. Man muss natürlich für Wackelfreiheit sorgen und wirklich gute Objektive verwenden. Auch die Wahl der richtigen Blende darf man nicht vernachlässigen. Diese hohen Auflösungen machen alle Objektivfehler gnadenlos sichtbar.

Hier ein etwas älteres Repro-Beispiel aus der Panasonic G9 (8 Aufnahmen, Steigerung der Auflösung von 20 auf 80 MP):
Ohne Pixelshift
Mit Pixelshift
 
und wirklich gute Objektive verwenden. Auch die Wahl der richtigen Blende darf man nicht vernachlässigen. Diese hohen Auflösungen machen alle Objektivfehler gnadenlos sichtbar

Das ist eine Aussage die ich immer wieder lese, aber nie verstanden hab.
Im Grunde genommen macht doch die Kamera einfach mehrere Aufnahmen mit 40MP - anstatt einer einzigen mit 180MP
Warum also sollte das Objektiv für diese Art an HiRes-Aufnahmen mehr Qualität aufweisen, als für einen Single-Shot?
Es wird doch bloß der Sensor bewegt und erneut aufgenommen!?
 
Diese Aussage macht für mich absolut keinen Sinn.
Warum sollte überhaupt das Objektiv bewegt werden?
Es geht doch um den Lichtdurchsatz zu einem Zeitpunkt. Kann ich 180MP zu einem Zeitpunkt versorgen, oder 40MP.
Bei HiRes reichen 40MP - zu einem Zeitpunkt. Aber dafür gibt es mehrere "Zeitpunkte" hintereinander.
 
Es benötigt keine höhere Auflösung.
Es werden nacheinander 40MP-Aufnahmen getätigt.
Das Objektiv leistet bei jeder Aufnahme das gleiche.
Aber der Sensor bewegt sich dazwischen um ein halbes Pixel.
Warum also, sollte das Objektiv bei einer HiRes-Aufnahme mehr leisten müssen, als bei einer Einzelaufnahme!?

Für mich ist dein Hinweis auf "wirklich gute Objektive verwenden" nichts dass aus eigener Erfahrung und Praxis kommt, sondern reines "Copy&Paste-Wissen".
Meist gut gemeint - logisch, aber halt stets zu hinterfragen.
Lasse mich aber dennoch gerne eines besseren belehren!
 
Warum also, sollte das Objektiv bei einer HiRes-Aufnahme mehr leisten müssen, als bei einer Einzelaufnahme!?
Ganz einfach: würde die Auflösung des Objektivs nicht ausreichen weil es eben "matschig" abbildet, dann würdest du beim Verschieben des Sensor's um einen halben Pixel keine neuen Informationen dazu gewinnen, weil durch die Unschärfe nebeneinanderliege Pixel miteinander "verschwimmen". Du hättest zwar mit einem nicht ausreichend scharf abbildenden Objektiv hinterher auch statt 20MP 80MP, die aber durch die nicht ausreichende Schärfe des Objektivs nahezu keine zusätzlichen Details enthalten.

Ein weiterer Punkt der hier glaub ich noch nicht angesprochen wurde, ist Licht:
Nicht nur Bewegungen können zu Artefakt-Bildung in der HiRes-Aufnahme führen, sondern auch Lichtschwankungen. Problematisch sind die insbesondere dann, wenn man sie bei der Aufnahme nicht sieht, beispielsweise durch LED-Kunstlichtquellen. Daher sollte man bei Produktfotografie auch Augenmerk auf die Beleuchtung legen.

lg
 
Zuletzt bearbeitet:
Ich geb´s auf! ^^
Was mir nicht schwer fällt als jemand, der mit dieser Technik ohnehin nur miese Ergebnisse erzielt hat (aber das lag nicht am Objektiv) ^^
 
Ganz einfach: würde die Auflösung des Objektivs nicht ausreichen weil es eben "matschig" abbildet, dann würdest du beim Verschieben des Sensor's um einen halben Pixel keine neuen Informationen dazu gewinnen, weil durch die Unschärfe nebeneinanderliege Pixel miteinander "verschwimmen". Du hättest zwar mit einem nicht ausreichend scharf abbildenden Objektiv hinterher auch statt 20MP 80MP, die aber durch die nicht ausreichende Schärfe des Objektivs nahezu keine zusätzlichen Details enthalten.

Das ist eigentlich umgekehrt. Wenn Du ein Spitzenobjektiv hast, brauchts den Pixelshift nicht so sehr, weil ja nicht mehr Informationen dazukommen können, die durch einen spitzenmäßigen Singleshot sowieso schon da sind. Aber bei einem nicht ganz so starken Objektiv können die Abbildungsschwächen durch die Anzahl der Mehraufnahmen gemindert werden, da durch das Verrechnen der Aufnahmen die im SingelShot fast unkenntlichen Details nach und nach zum Vorschein kommen können.
Beim Stacking der Astroaufnahmen ist ja das Prinzip das gleiche. Da gehts halt nicht um Abbildungsschwächen des Objektivs sondern um Abbildungsschwächen des Sensors. Aber auch da gilt, wenn der Sensor nicht rauscht, brauchst nicht stacken. Und den im Verhältnis gesehen größten Gewinn hat man daher mit den am meisten rauschenden Sensoren.
 
Wenn Du ein Spitzenobjektiv hast, brauchts den Pixelshift nicht so sehr, weil ja nicht mehr Informationen dazukommen können, die durch einen spitzenmäßigen Singleshot sowieso schon da sind.

Keine Ahnung, wie du da drauf kommst. Schon die Logik, aber noch mehr die Praxis zeigt, dass das eben nicht so ist. Um überhaupt einen nennenswerten Detailgewinn beim HiRes-Shot zu erreichen, brauchst du schon ein hoch auflösendes Objektiv, mit einem matschig abbildenden kannst du dir den Aufwand gleich sparen. Die Frage könnte bei einem 45MP- oder 60MP-Sensor eher eine "Sinn-Frage" sein:: brauch ich da überhaupt einen HiRes-Shot , oder reicht die native Auflösung hier nicht völlig aus ?

Wenn die Theorie von @Hawelka
Es benötigt keine höhere Auflösung.
Es werden nacheinander 40MP-Aufnahmen getätigt.
Das Objektiv leistet bei jeder Aufnahme das gleiche.
Aber der Sensor bewegt sich dazwischen um ein halbes Pixel.
Warum also, sollte das Objektiv bei einer HiRes-Aufnahme mehr leisten müssen, als bei einer Einzelaufnahme!?

stimmen würde, dann würde man auch für eine Aufnahme mit einem entsprechend hoch aulösenden Sensor kein schärferes Objektiv benötigen, man könnte die Aufnahme splitten und einfach immer nur jeden zeiten Pixel auslesen und im 2. Frame die zuvor nicht ausgelesenen, und schwupps ist das Objektiv mit mal höher auflösender. Wird aber nicht funktionieren. Dem Objektiv ist der dahinter sitzende Sensor egal, entweder kann es fein aufgelöste Kontraste auf der Sensorebene abbilden oder nicht.

Um zusätzliche Informationen durch die um einen halben Pixel versetzten Aufnahmen zu bekommen, muss das Objektiv auch entsprechend fein aufgelöste Kontraste liefern. Wo sollen die Informationen sonst her kommen. Anders gesagt, wenn das Objektiv nicht enstpechend fein auflöst, entspricht das Pixelshift-Ergebnis eher einem hochskalierten Bild, bei dem die Zwischenwerte einfach rechnerisch ermittelt werden. Dass dies aber bei ausreichend auflösenden Objektiven nicht so ist habe ich schon in etlichen HiRes-Aufnahmen in der Praxis gesehen. Durch hochskalieren kannst du vorhandene Informationen Strecken, aber du kannst nicht zusätzliche feine Details dazugewinnen.

Der Vergleich mit Astro hinkt ein wenig, da hier kein PixelShift verwendet wird, sondern einfach deckungsgleiche Frames miteinander verrechnet werden, um das Rauschen zu reduzieren. Den Effekt der Rauschminderung hast du zwar beim HiRes-Bild auch, aber dass ist hier nur ein willkommener Nebeneffekt.

lg Peter
 
Der Vergleich mit Astro hinkt ein wenig, da hier kein PixelShift verwendet wird, sondern einfach deckungsgleiche Frames miteinander verrechnet werden, um das Rauschen zu reduzieren. Den Effekt der Rauschminderung hast du zwar beim HiRes-Bild auch, aber dass ist hier nur ein willkommener Nebeneffekt.

Der Himmel steht nicht still...
 
WERBUNG
Zurück
Oben Unten