• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Mehr Details mit Hilfe multipler Bilder berechnen

13pixelchen

Themenersteller
Hallo,

Ich meine mal irgendwo so etwas gelesen zu haben: Man hat mehrere Aufnahmen eines identischen Objektes (zum Beispiel mehrere Frames eines Films) und eine Software/ein Algorythmus berechnet eine Detailreichere Variante.

Schon gehört?
 
Wenn man das Motiv mehrmals minimalst verschoben fotografiert hat, kann man die Bilder nachträglich vergrößern, in verschiedenen Ebenen passend übereinanderlegen und dann die Ebenen mit 50%, 33%, 25... Deckkraft anzeigen lassen.
 
In der Astronomie wird so das Signal (der Stern, etc.) vom Rauschen der Kamera getrennt. Es gab hier im Forum mal einen Link zu Bildern der ISS. Diese Bilder waren aus etlichen Einzelbildern zusammengesetzt.
 
Man hat mehrere Aufnahmen eines identischen Objektes (zum Beispiel mehrere Frames eines Films) und eine Software/ein Algorythmus berechnet eine Detailreichere Variante.
Eine Detail-reichere Bildauflösung bekommst Du nur dann, wenn der Sensor
a) nicht mit starkem Antialiasing-Filter ausgestattet ist und
b) zwischen Einzelpixeln auftreffendes Licht nicht per Mikrolinsen in die aktive Fläche des Pixel projeziert werden konnte

Es gibt/gab solche Kameras, die insbesondere als Mittelformat-Digitalrückteile am Sensor einen physikalischen Pixel-shift machten und dann das endgültige Bild aus 2x2 (also vier Einzelframes) oder 3x3 (also 9 Frames) einzelnen Belichtungen bei jeweils leicht verschobenem Sensor (z.B. Piezo-gesteuert) zusammensetzten. Im Jargon hiess das dann "single shot" für einen deaktivierten Pixel-shift und "multi-shot" für die Übereinanderlagerungs-Technik.

Vorbedingung ist dann natürlich, dass das Motiv unbeweglich ist, also z.B. bei Produktaufnahmen unter Studiobedingungen, bei Reproduktionen, bei Innenarchitektur- oder reinen Gebäudeaufnahmen.

Die Technik ist heute aus der Mode gekommen, da
a) Pixelzahlen ohnehin schon mächtig gestiegen sind
b) zur Erhöhung der Empfindlichkeit i.d.R. Mikrolinsen eingesetzt werden, die den "fill factor" gen 100% treiben und
c) zur Vermeidung von ALiasing-Artefakten Lowpassfilter eingesetzt werden, die eine "Zwischenpixel-Auflösung" komplett eliminieren sollen.
 
Da kam mir so der Gedanke, daß ein Pixel-Shift von genau einem Pixel vielleicht was gutes für Kameras mit Bayer-Pattern wäre? Vorhandene Raw-Importer könnte man dann natürlich vergessen, aber im Prinzip dürfte so die Unschärfe durch Farbinterpolation verschwinden.

Ob das Sub-Pixelshiften nicht doch was bringt, darüber bin ich mir noch nicht im klaren. Ein vereinfachtes Gedankenspiel:
Auf den Sensor fällt eine schwarze Linie von 1/2 Pixel Breite, woanders eine 50% graue Linie von 1 Pixel Breite, die auch den Sensor genau trifft. Beide sehen gleich aus. Nun verschiebe ich die Kamera um 1/2 Pixel. Die schwarze Linie trifft immer noch einen Sensor und sieht wie 50% Grau aus. Die graue Linie verteilst sich nun auf 2 Sensoren und sieht wie eine breite 25% graue Linie aus.
Man kann die beiden Linien also unterscheiden, die Information ist also da. Nach dem Vergrößern auf 200% und dem Zusammensetzen dürfte man's auch sehen.
Müsste imho auch für die weichgezeichneten Linien des Aliasing-Filters gelten.
 
Ein Sensor mit Staubschüttler wäre eigentlich perfekt geeignet, solche Zwischenpixel hervorzurechnen. Man braucht den Sensor nur einen Pixel weit verschieben und kann innerhalb kürzester Zeit (1/50 s?) zwei Fotos machen. Eine entsprechende Routine in der Kamera muss die zwei Bilder dann halt noch in ein höher aufgelöstes Bild verrechnen. Die Zahl der möglichen Bilder, die in den Pufferspeicher passen, halbiert sich in den Fall halt.
 
Ich habe von diesem Verfahren gehört ,-allerdings nur im Zusammenhang der Vergrösserung der Farbtiefe bei Digitalfotos. Ob es zur Verbesserung des Detailreichtums eines Bildes beitragen kann , vermag ich nicht zu beurteilen ,-klingt aber für mich dann eher nach Interpolation .Mit freundlichen Grüssen,-kumgang! :)
 
WERBUNG
Zurück
Oben Unten