• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

HighRes-Modus auch mit bewegten Motiven machbar?

Lotsawa

Themenersteller
Hallo, nun kommen ja immer mehr Kameras mit diesem Feature, mehrere leicht versetzte Aufnahmen zu einem zusammenzusetzen und damit eine höhere Auflösung zu erreichen, so jetzt auch bei der Lumix G9, die acht Aufnahmen zusammenrechnet.

Bei statischen Motiven beeindruckend, aber bewegte Anteile (z.B. Blätter) bleiben verwischt.

Mich bewegt die Frage, ob das Problem grundsätzlich technisch gelöst werden kann; ob wir also demnächst erwarten können, dass die Technik sich verbessert, was ich als einen ziemlich "revolutionären" Schritt in der Kameratechnik betrachten würde.

Sorry, falls das Thema hier schon behandelt wurde, habe auf die Schnelle nichts dazu gefunden.
 
Ohne mich mit der Technik auszukennen:

Werden mehrere Bilder verrechnet, so müssen ja aus jedem Bild Informationen entnommen werden, sonst wäre das Ganze sinnlos.
Dass diese Bildinformationen nicht identisch sein müssen, ist logisch, sonst würde ja ein Bild ausreichen. Wenn also auch nichtidentische Bildinformationen miteinander verrechnet werden, stelle ich mir die Frage, woher die Kamera wissen soll, sie ist ja nur ein dummer Computer, welche nichtidentischen Informationen ein gutes Bild geben und verrechnet werden sollen und welche nicht.

Also aus meiner Laiensicht dauert das etwa noch so lange, bis ein Computer in der Lage ist, ein Bild aufgrund von Erfahrungen zu analysieren und selbstständig Entscheidungen über das weitere Vorgehen treffen kann.

Ergo, det dauert noch was. Würde also den Kauf einer neuen Kamera jetzt nicht von der Hoffnung auf das besagte Feature abhängig machen, bzw. aufgrunde dessen verschieben...
 
Mich bewegt die Frage, ob das Problem grundsätzlich technisch gelöst werden kann

Stell Dir ein sich drehendes DIN-A4-Blatt vor, einmal frontal fotografiert und einmal von der Seite. Dann hat man eine DIN-A4-Seite und einen schmalen Strich. Oder ein Auto mit hoher Geschwindigkeit, einmal rechts und einmal links im Bild. Oder ein fallender Regentropfen, ein fliegender Vogel ...

Fotografie ist die punktuelle Momentaufnahme eines Augenblickes, und der läßt sich nicht aus vielen Einzelmomenten einer Zeitspanne berechnen.
 
Fotografie ist die punktuelle Momentaufnahme eines Augenblickes, und der läßt sich nicht aus vielen Einzelmomenten einer Zeitspanne berechnen.

Na ja, vielleicht nicht mit 100%iger Sicherheit, aber wenn eine KI in der Lage ist, die Lage im Kontext zu identifizieren (und genügend Daten aus ähnlichen Kontexten vorliegen), könnte ja aus den Daten eine Annäherung an die Daten Augenblicks vorgenommen werden. So habe ich den vorherigen Beitrag auch verstanden.

Auch unser Gehirn braucht vielleicht nur 10-20% tatsächliche Sinnesdaten, um daraus mit Hilfe des Erfahrungsschatzes eine detaillreichere Wahrnehmung zu generieren, wobei es dann manchmal falsch liegt, aber in den meisten Fällen funktioniert es (und ist somit erheblich effizienter als alle Einzelheiten der Wahrnehmung tatsächlich aus den Daten entnehmen zu müssen).

Oder die Technik könnte vielleicht so entwickelt werden, dass sie die Bewegung erkennt und nur für die bewegten Teile des Bildes die niedrigere Auflösung einer einzigen der acht Momentaufnahmen belässt. Dann hätten wir unterschiedliche Auflösungen in bewegten und unbewegten Bildteilen, was ja auch schon ein erheblicher Fortschritt je nach Motiv sein könnte.

Ich dachte auch zuerst, das kann prinzipiell nicht gehen, bin dann aber in Zweifel gekommen. Habe neulich gelesen, dass Adobe eine ähnliche Technik bei der Restauration bzw. Interpolation von fehlenden Bildteilen entwickelt (hat), die auf großen Datenmengen zurückgreifen kann und daher aus dem Kontext "erschließt", wie die fehlenden Bildteile "üblicherweise" zu interpretieren sind. Oder so ähnlich ...
 
Oder die Technik könnte vielleicht so entwickelt werden, dass sie die Bewegung erkennt und nur für die bewegten Teile des Bildes die niedrigere Auflösung einer einzigen der acht Momentaufnahmen belässt. Dann hätten wir unterschiedliche Auflösungen in bewegten und unbewegten Bildteilen, was ja auch schon ein erheblicher Fortschritt je nach Motiv sein könnte.

Das funktioniert in der Pixelshift-Variante von RawTherapee schon seit einiger Zeit recht gut. Bedingung ist allerdings, dass wie bei Pentax die Raw-Daten der Einzelaufnahmen vorliegen. Olympus verrechnet die Einzelbilder intern zu einem einzigen Raw, da klappt das nicht. Mal sehen, wie es bei Pana gelöst ist.
 
In der Pana G9 kann man eine RAW und / oder JPEG erstellen lassen, die einzelnen Dateien stehen aber nicht zur Verfügung, so zumindest verstehe ich das nach diesem Review: https://www.lumixgexperience.panaso...t-features-with-sample-pictures/#.WgdhlGj9Sbj

Darin auch ein Beispielbild mit 100%-Ausschnitt: https://www.lumixgexperience.panasonic.co.uk/app/uploads/2017/11/P1001480-HDJM-crop.jpg

Da werden die Verwischungen sehr deutlich. Wenn eine gewöhnliche JPEG-Engine solche Verwischungen erzeugen würde, würden alle über das "Geschmiere" herfallen. Hier aber lautet der Kommentar des Reviewers: "Subjects that move don’t always work for obvious reasons, but nice moving water, clouds and shaking leaf effects can be had that look really nice." Schönheit liegt immer im Auge des Betrachters. :rolleyes:

Damit kein falscher Eindruck entsteht: Ich bin selbst mFT-Nutzer (Panasonic & Olympus). Aber in dieser Form vermisse ich die Funktion noch nicht wirklich. Deshalb auch meine Frage, was wir da wohl in nächster Zeit erwarten können.
 
WERBUNG
Zurück
Oben Unten