• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Deconvolution statt IS?

sb1

Themenersteller
Hallo Zusammen,

bei DPReview bin ich im Oly-DSLR-Forum auf diese Diskussion gestossen:
http://forums.dpreview.com/forums/read.asp?forum=1022&message=16908984

Die Technik der Deconvolution wurde von der NASA zum schärfen der Bilder des Hubble-Teleskops entwickelt und wird auch von Zahlreichen Fototools eingesetzt, um aus total verwackelten Bildern noch scharfe Aufnahmen zu bekommen. Allerdings ist die manuelle Nachbearbeitung mit solchen Programmen sehr mühsam.

Mit Hilfe eines sog. "Gyro Sensors" könnte die Bewegung (=Verwacklung) der Kamera während der Aufnahme erfasst werden. Mit dieser Information könnte das verwackelte Bild dann automatisch wieder geschärft werden. Das kostet natürlich ordentlich Rechenpower, könnte aber eine sehr effektive Alternative zu IS/AS darstellen, da kein beweglicher Sensor und auch keine beweglichen Optiken benötigt werden.

Edit: Die Technik werden zunächst in der Olympus Stylus 810 bestaunen können. Sorry Daniel...

Was meint Ihr dazu?

Schöne Grüße

Stefan
 
Zuletzt bearbeitet:
Hier mal ein link zur Thematik:

http://www.quarktet.com/BlindDecon.html

(edit: link ist eher ein Schmarrn)

Wäre also vielleicht eher interessant, diese Bewgeungsinformation aufzuzeichnen und dann in der RAW Datei mit zu speichern und sie dann beim Konvertieren auswerten zu können.
 
Zuletzt bearbeitet:
so schön wie das klingt - aber Details, die einfach durch die Verwacklung in der Aufnahme weggewischt oder "verschluckt" werden, rechnet doch so eine Software nicht mehr wirklich zurück.

Ich denke, das ist ein gutes *zusätzliches* Hilfsmittel, aber einen echten IS ersetzen kann ich mir nicht wirklich vorstellen.

Auch beim Hubble-Teleskop wird sicher alles menschenmögliche daran gesetzt, daß das Bild bei der Aufnahme schon so unverwackelt und scharf ist wie nur irgend möglich.
 
Carsten Bürgel schrieb:
Mensch Leute, postet bitte auch mal deutsche Artikel. Wäre wirklich angenehm. :top:

???

wenn man nunmal das auf englisch findet und nicht auf deutsch, wie willste denn dann einen deutschen Link posten.

Und wenn s Dich stört - dann SUCHE es doch auf deutsch und poste selbst! Die Suchmaschinen stehen jedem frei zur Verfügung :)
 
Wenn sich hier schon die Leute um Informationen kümmern, muss ich ja nicht auch noch losrennen. Ich lese auch einfach mal gerne nur mit, aber wenn es geht auf deutsch, so brauche ich meinen internen Übersetzer nicht anzuschmeissen... denn so dolle iss der nicht. :ugly:
 
argus-c3 schrieb:
so schön wie das klingt - aber Details, die einfach durch die Verwacklung in der Aufnahme weggewischt oder "verschluckt" werden, rechnet doch so eine Software nicht mehr wirklich zurück.

Keine Ahnung.

Weißt DU es ?

Vielleicht bringts ja nur eine Belichtungsstufe extra, das wäre auch schon deutlich besser als garnichts.

Auch beim Hubble-Teleskop wird sicher alles menschenmögliche daran gesetzt, daß das Bild bei der Aufnahme schon so unverwackelt und scharf ist wie nur irgend möglich.

Das gilt doch für jeden Stabilisator.
 
argus-c3 schrieb:
s
....
Auch beim Hubble-Teleskop wird sicher alles menschenmögliche daran gesetzt, daß das Bild bei der Aufnahme schon so unverwackelt und scharf ist wie nur irgend möglich.
...

Hallo Thomas,
also das mit dem Hubble Hauptspiegel ist ja damals ziemlich in die Hose gegangen, der wurde nämlich falsch geschliffen. War eine ganz schöne Blamage, da das Ding zu zu dem Zeitpunkt als der Fehler erkannt wurde schon im Weltall war....
Aber die Korrekturtechniken für die Abbildungsfehler haben sie dann ganz gut hinbekommen und dann hat es eine Menge schöner Bilder gemacht.

LG
Horstl
 
Ich schätze mal, daß die Belichtungszeiten in der Astrofotografie fast immer in ganz anderen Dimensionen liegen als bei der normalen Fotografie. Ergon wird man auch über einen sehr langen Zeitraum Bewegungsveränderungen aufzeichnen müssen, die dann zur Korrektur benutzt werden.
Bei viel kürzeren Zeiten werden die von den Wackelsensoren aufgezeichneten Daten viel weniger umfangreich sein, so daß es im günstigsten Fall auf eine Art Punktmatrixtransformation hinausläuft.
Man kennt dies ja z.B. vom Aufhellblitzen bei zu langen Verschlußzeiten, es entstehen dabei Doppelkonturen. Wenn ich weiß, wie lange mit welcher Geschindigkeit eine Bewegung erfolgte (Kreiselsensoren), müßte man die Doppelkontur auf die Ausgangslinie zurückführen können.
In jedem Fall ist der Ansatz bestechend gut, man wird sehen, wie es praktisch funktioniert. Auch der bautechnische Aufwand wird gering sein, nur Rechenpower ist gefragt.
Rechentechnisch sind solche Verfahren ja auch in großem Stil im Einsatz bei Grafikkarten z.B. beim Rendering, nur eben nicht um auf den Ausgangswert zu kommen sondern gerade, um die Bewegung einer Struktur zu berechnen.
 
Cephalotus schrieb:
Keine Ahnung.

Weißt DU es ?

Da behaupte ich: ja. Was einmal wirklich verwischt und unscharf ist, also nicht mehr in der Bildinformation enthalten ist, rechnet keine Software der Welt zurück. Du kannst ja auch aus einem 1 MP Bild eine Menge "rauskitzeln", aber ein 10 MP Bild hat einfach trotzdem mehr Bildinformationen.

Genauso denke ich, kitzelt diese Gyrotechnik auch noch eine Menge raus, aber einen echten IS, der das Bild gar nicht erst verwackeln läßt, ersetzt sie mit an Sicherheit grenzender Wahrscheinlichkeit nicht.

Für ne Kompakte wird s vielleicht langen, keine Frage.

Cephalotus schrieb:
Vielleicht bringts ja nur eine Belichtungsstufe extra, das wäre auch schon deutlich besser als garnichts.

Klar, wie gesagt - sicher interessant, aber kein echter IS-Ersatz, eher noch eine zusätzliche Ergänzung.

@ Horstl

Stimmt, ich erinnere mich noch an die Berichte in Sterne und Weltraum usw. Erst haben sie beim Hubble mit der fehlerhaften Optik eine Menge softwaremäßig rausgekitzelt und später mit dem Space Shuttle dem Ding noch eine spezielle Korrekturlinse verpaßt. Danach waren die Bilder nochmals sehr viel deutlich besser als die vorher softwaremäßig korrigierten.

@ Carsten Bürgel

Die meisten englischen Quellen sind nunmal aktueller als deutsche. Da kann man nunmal nichts ändern. Ich hab auch lieber chinesische Links hier als gar keine, wenn da irgendwas zu sehen ist, was es auf englisch eben nicht zu lesen gibt. Also weiter Übersetzungsprogramm anwerfen :)
 
argus-c3 schrieb:
Da behaupte ich: ja. Was einmal wirklich verwischt und unscharf ist, also nicht mehr in der Bildinformation enthalten ist, rechnet keine Software der Welt zurück.

Abwarten, die "Verwischung" (also die Unschärfe) wird ja genau durch die Information aus dem Gyro-Sensor wieder zurückgerechnet. Die Information, die durch die "Verwischung" überschrieben wurde ist ja auch noch da, es muss nur der Ausgangswert abgezogen werden.
 
Hallo Thomas,
ja genau, das Teleskop hat damals sogar einen eigenen Spitznamen bekommen, ist mir aber entfallen. Die Korrekturoptik wurde treffend mit "Brille" bezeichnet. Und rein softwaremäßig ließ sich nicht viel rausholen, ist eben kein wirklicher Ersatz...

LG
Horstl
 
In einer CT waren ja mal ein paar Deconvolution-Programme, musste man mal ausprobieren. Einerseits grenzt es an ein Wunder, was die Programme aus einem unscharfen Bild rausholen, andererseits erzeugt das auch auffällige Artefakte und keine wirklich "schönen" Bilder. Wenn's nur ein bisschen unscharf oder verwackelt ist geht's aber ganz gut, besonders, wenn man es dann mit dem Original in der EBV zum fertigen Bild zusammenbaut.
 
Hoogo schrieb:
In einer CT waren ja mal ein paar Deconvolution-Programme, musste man mal ausprobieren. Einerseits grenzt es an ein Wunder, was die Programme aus einem unscharfen Bild rausholen, andererseits erzeugt das auch auffällige Artefakte und keine wirklich "schönen" Bilder. Wenn's nur ein bisschen unscharf oder verwackelt ist geht's aber ganz gut, besonders, wenn man es dann mit dem Original in der EBV zum fertigen Bild zusammenbaut.

naja, das ist halt alles "blind deconvolution", während die Software in der mju 810 hingegen die genauen "Verwacklungsdaten" dank Gyrosensoren kennen sollte.

Wie das zurückrechnen anhand dieser Daten nun funktionieren kann ist mir zwar auch nicht klar, aber auf die Tests der mju 810 diesbezüglich bin ich gespannt.

Bei vielen verwackelten Bilder hat man ja oft Doppelkonturen, vielleicht kann man z.B. sowas damit rausbekommen...
 
Für diese Doppelkonturen ist die Deconvolution-Kiste sicher hilfreich.

Wenn z.B. aber man eine Reihe von vielen kleinen Schrauben nebeneinander fotografiert und durch das Verwackeln wird das verwischt, dann rechnet da keine Software der Welt wieder die vielen kleinen Schrauben zurück, weil eben da einfach die Bildinformation verlorengegangen ist.

Wobei ich auch für das Problem schon mal ne Idee hatte.

Anstatt daß ein Bild mit z.B. 1 Sekunde aufgenommen wird, wird es wie bei einer Videokamera in z.B. 25 Bildern a 1/25 Sekunde aufgezeichnet. (also Sensor immer schubweise auslesen)

Dann hat man 25 stark unterbelichtete Einzelbilder. In der Kamera ist jetzt ein Imagestacker-Programm, was die Einzelbilder analysiert und paßgenau übereinanderlegt und daraus ein richtig belichtetes und scharfes Bild zusammenrechnet.

In der Praxis wird man das vielleicht so nicht lösen können, sondern eher halt 25 Bilder mit 1/50 Sekunde, so daß sich insgesamt die Belichtungszeit für das Bild halt verlängert. Aber so vom Prinzip her halt.
 
argus-c3 schrieb:
...

Anstatt daß ein Bild mit z.B. 1 Sekunde aufgenommen wird, wird es wie bei einer Videokamera in z.B. 25 Bildern a 1/25 Sekunde aufgezeichnet. (also Sensor immer schubweise auslesen)

Dann hat man 25 stark unterbelichtete Einzelbilder. In der Kamera ist jetzt ein Imagestacker-Programm, was die Einzelbilder analysiert und paßgenau übereinanderlegt und daraus ein richtig belichtetes und scharfes Bild zusammenrechnet.

In der Praxis wird man das vielleicht so nicht lösen können, sondern eher halt 25 Bilder mit 1/50 Sekunde, so daß sich insgesamt die Belichtungszeit für das Bild halt verlängert. Aber so vom Prinzip her halt.


... genauso machen es die Astronomen und nennen das Speckle-Interferometrie. Zusätzlich brauchen die aber einen Leitstern, dessen "Punkte" auf allen Bildern genutzt werden, um diese passgenau übereinanderzulegen. Bei der Fotografie bräuchte man wahrscheinlich 2 Punkte um Translation und evtl. Drehung zu korrigieren. Ob das einfacher ist als einen beweglichen, von Gyrosensoren gesteuerten Sensor zu bauen ...
 
Moin,

stimmt... auf das Speckle-Interferometer hätte ich kommen können, das hatte ich jetzt irgendwie total verdrängt.

Ich hätte jetzt halt gesagt, daß die Software so ähnlich wie eine Panoramasoftware es ja mittlerweile auch leistet, ganz ohne "Leitpunkte" arbeitet und einfach die Einzelbilder komplett analysiert, sich da Bezugspunkte raussucht nach Belieben und dann korrekt übereinanderlegt.

Das Panoramaprogramm Autostitch "frißt" ja auch wahllos zusammenfotografierte Einzelbilder und analysiert sie vollautomatisch und baut ein Panorama daraus zusammen.

Wenn man nun 25 Einzelbilder hat (natürlich darf sich das Objektiv - wie bei jedem Bildstabi - in der Zeit nicht groß bewegen) dann sind die doch trotz aller Verwackelung wenigstens im Ansatz einigermaßen deckungsgleich und die Software kann die dann solange verschieben und verdrehen, bis es paßt.
 
WERBUNG
Zurück
Oben Unten