• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Makro-Fokus-Stacking per 4k-Video?

Mi67

Themenersteller
Bei der Erstellung von Makroaufnahmen mit erweiterter Schärfentiefe aus Bildstapeln mit verschobener Fokuslage (https://de.wikipedia.org/wiki/Focus_stacking) gibt es Probleme bei Verwacklungen oder bei Motivbewegungen. Der Spiegelschlag selber kann Vibrationen erzeugen und auch die Verstellschlitten arbeiten nicht immer 100%ig exakt. Was läge also näher, als die mittlerweile bei 4k-Auflösung angelangte Videofunktion als Vereinfachung zu nutzen, um innerhalb einer Sekunde 25-30 Fokuslagen zu durchschwenken und daraus eine erweiterte Schärfentiefe rechnen zu lassen!?

Nun zu meiner Frage:
Das Erstellen dieser Kurzvideos ist ja nicht das Problem, ich frage mich aber, welche Software den Zusammenbau der Bilder aus einem 4k-Videoclip direkt oder zumindest automatisiert bewerkstelligt, ohne dass ich zuvor mühsam aus dem Video die Einzelbilder extrahieren muss? Falls ja, welche Codecs (MP4/AVCHD, HEVC H.265, ...) werden dabei unterstützt?
 
Nach meiner Kenntnis scheitert es spätestens an der Stacking-Software.

Es gibt derzeit keine, die einen Videostream automatisiert in Einzelbilder zerlegen und dann stacken konnte.

Selbst wenn man den Umweg nimmt, einen Videostream per Software in Einzelframes zu zerlegen, bleibt die Bildqualität der Frames hinter der Qualität von einzelnen Aufnahmen nach herkömmlicher Methode zurück.

Heise hat das wohl auch schon getestet:
http://www.heise-gruppe.de/presse/c...t-Foto-Export-aus-4K-Videostream-2498856.html

"Die Bildästhetik von 4K-Videos ist in diesem Fall identisch mit Fotoaufnahmen, für die Bildqualität gilt das aber nicht. Im Test zeigte sich, dass die acht Megapixel großen Video-Frames bei der Bildqualität mit gleich großen Fotoaufnahmen noch nicht ganz mithalten können. "

Ich hatte das mal mit einem Full-HD-Video ausprobiert und war nicht zufrieden mit dem Ergebnis.
 
Naja, es gibt ja auch Einzelserienbild RAW Codecs wie Cinema DNG. Damit würds gehen, ist nur ein Ordner mit DNG "Fotos".

Preislich allerdings in der 4K Region völlig uninteressant wenn man damit "nur fotografieren" will. Das macht jede Spiegellose besser, die hat auch keinen Spiegel der schlägt. :rolleyes:
 
Zuletzt bearbeitet:
Kennst du die Focus- Bracketing/ Stacking- Funktion der neuen OM-Ds? Nur falls du eine Kamera suchst, die das kann...
 
Vielen Dank für die ersten Inputs, so ganz die perfekte Lösung ist noch nicht dabei, aber zumindest einige Anregungen.

Nach meiner Kenntnis scheitert es spätestens an der Stacking-Software.
...
Selbst wenn man den Umweg nimmt, einen Videostream per Software in Einzelframes zu zerlegen, bleibt die Bildqualität der Frames hinter der Qualität von einzelnen Aufnahmen nach herkömmlicher Methode zurück.
Genau auf eine solche Software (die auch ich noch nicht fand), zielte meine Frage.
Was die Abbildungsqualität angeht, sehe ich das Problem im Ultramakro-Bereich (Abbildungsmaßstab > 4:1) ab 4k-Auflösung eigentlich weniger, denn: welche Optik kann denn da überhaupt noch mehr an Auflösung bringen!? Zudem könnte man beim Berechnen auch gleichzeitig ein subpixel-Rendering betreiben, was zumindest das Verhältnis aus Nutzsignal und Rauschen und damit auch die nutzbare Auflösung optimiert.

Naja, es gibt ja auch Einzelserienbild RAW Codecs wie Cinema DNG. Damit würds gehen, ist nur ein Ordner mit DNG "Fotos".
Preislich allerdings in der 4K Region völlig uninteressant wenn man damit "nur fotografieren" will. Das macht jede Spiegellose besser, die hat auch keinen Spiegel der schlägt. :rolleyes:
Cinema DNG - danke, das werde ich mir mal ansehen, was damit möglich ist. Auf den ersten Blick müsste ich aus einer Kamera, die selber kein Einzelfile-Cinema-DNG schreibt (und ich kenne keine, die das täte), die Kurzclips erst mal in Einzelbild-Cinema-DNG konvertieren und speichern, um dann eine Focus-Stitching-Software zu finden, die diese DNG-Bildstabel ebenfalls (semi)automatisch als Fokusstack einliest.

Was das P/L-Verhältnis angeht, wird das in Bälde überholt sein, da dann jede 2. Consumer-Knipse 4k macht.

Kennst du die Focus- Bracketing/ Stacking- Funktion der neuen OM-Ds? Nur falls du eine Kamera suchst, die das kann...
Ja, die kenne ich. Für meine Anwendungen (Mikroskop oder Stereomikroskop) geht das leider nicht, da kein AF-Objektiv genutzt werden kann.
 
Cinema DNG - danke, das werde ich mir mal ansehen, was damit möglich ist. Auf den ersten Blick müsste ich aus einer Kamera, die selber kein Einzelfile-Cinema-DNG schreibt (und ich kenne keine, die das täte), die Kurzclips erst mal in Einzelbild-Cinema-DNG konvertieren und speichern, um dann eine Focus-Stitching-Software zu finden, die diese DNG-Bildstabel ebenfalls (semi)automatisch als Fokusstack einliest.

Da gibts viele.

Blackmagics, Kinefinity, Vision Research Flex, Silicon Imaging - auch einige Recorder wie der Odyssey 7Q. Aber nichts, was in die Kategore Fotoapparat fällt.

Du kriegst da schon richtige einzel DNGs in einem Ordner. Sequenziell gelesen wird das nur von der Schnittsoftware, es sind einfach 24/25/30/60/... /12000 einzelne DNG-Fotos (für jede Sekunde Aufnahmezeit) in einem Ordner.

Das was du suchst geht schon in die Richtung, wenn es halbwegs praxistauglich sein soll. Gleichzeitig glaube ich nicht, dass du eine digitale "Kinokamera" suchst. Und die Kategorie fallen die meisten Kameras, die das können...
 
Da gibts viele.
...
Das was du suchst geht schon in die Richtung, wenn es halbwegs praxistauglich sein soll. Gleichzeitig glaube ich nicht, dass du eine digitale "Kinokamera" suchst. Und die Kategorie fallen die meisten Kameras, die das können...
Hab´ verstanden. Jawohl, du vermutest richtig, dass ich nicht plante, eine "Kinokamera" an eines meiner Mikroskope zu schnallen. Aktuell ginge es mir um eine Ergänzung mit spiegellosen Farb-Systemkameras am C-Mount. Momentan haben wir dort Sonys (a6000, a5100) implementiert, was auch recht manierlich klappt. Für bestimmte Arbeiten wäre aber eine semi-automatisierte "extended DOF"-Technik wünschenswert.
 
Nach meiner Kenntnis scheitert es spätestens an der Stacking-Software.

Es gibt derzeit keine, die einen Videostream automatisiert in Einzelbilder zerlegen und dann stacken konnte.

Selbst wenn man den Umweg nimmt, einen Videostream per Software in Einzelframes zu zerlegen, bleibt die Bildqualität der Frames hinter der Qualität von einzelnen Aufnahmen nach herkömmlicher Methode zurück.

Heise hat das wohl auch schon getestet:
http://www.heise-gruppe.de/presse/c...t-Foto-Export-aus-4K-Videostream-2498856.html

"Die Bildästhetik von 4K-Videos ist in diesem Fall identisch mit Fotoaufnahmen, für die Bildqualität gilt das aber nicht. Im Test zeigte sich, dass die acht Megapixel großen Video-Frames bei der Bildqualität mit gleich großen Fotoaufnahmen noch nicht ganz mithalten können. "

Ich hatte das mal mit einem Full-HD-Video ausprobiert und war nicht zufrieden mit dem Ergebnis.

Die 8MP eines 4K Photos reichen für das Stacking durchaus aus. Mit Full HD wird es wirklich eng,
 
Die 8MP eines 4K Photos reichen für das Stacking durchaus aus. Mit Full HD wird es wirklich eng,
Das nette in der Mikroskopie ist, dass man seinen Auflösungsbedarf nicht auspröbeln muss, sondern vorab berechnen kann.

Die Abbe-Formeln bzw. Rayleigh-Kriterium ergeben die zur NA des Mikroskopobjektivs gehörige Auflösungsgrenze, die dann mit 2,3-3-facher Abtastrate (Nyquist-Threorem) die "Pixelgröße im Objekt" definiert. Wenn man dies mit der Maßstabszahl des Objektivs (und eines verkleinernden/vergrößernden Fototubus) multipliziert, kommt man auf die Pixelgröße, die an der Kamera vorliegen sollte. Für die Kompensation des Bayer-Pattern kann man noch 30% engere Pixelabstände ansetzen - fertig ist die Kalkulation.

Beispiel: Durchlicht in Mikroskopobjektiv 40x/0.6 mit gutem Kondensor und 1x-Fototubus (= Rohr ohne Linsen)
Das Abbe-Limit liegt dann bei ca. 460 nm, was mit 150-200 nm-Abtastung ausgeschöpft wird. Aufgrund der Maßstabszahl von 40x kommt man in der Bildebene auf 6-8 µm-Pixel bei einer monochromen Kamera bzw. ca. 4,3-5,6 µm-Pixel bei einer Bayer-Farbkamera. Enger stehende Pixel würden lediglich leere Vergrößerung erzeugen.

Bei 3840 nativen Horizontalpixeln für 4k würde man für eine saturierende Abtastung bei einer Sensorbreite von 3840 x 4,3(5,6) µm, also 16,5 mm landen. I.a.W.: 4k aus einer (µ)FT-Kamera genügt den Abtastungs-Anforderungen eines 40x/0.6-Objektivs vollauf und passen gerade zum Bildkreis üblicher Mikroskopobjektive von 20-25 mm. Ein full-HD-Video würde dann tatsächlich eine entsprechende Unterabtastung ergeben bzw. es müsste sich auf einen kleineren Teil des Gesichtsfeldes beschränken.

Wenn man noch höhere Detailansprüche hat, dann muss man ohnehin ein anderes Grundobjektiv nehmen. Beim Kalkulieren des "Pixelbedarfs" kommt es dabei nicht auf die absolute Grenzauflösung des Objektivs an, sondern auf den Quatienten der NA und der Maßstabszahl.

Mit meinem absolut am höchsten auflösenden Objektiv (einem Plan-Apochromat 100x/1.46) benötige ich z.B. keine höhere Kameraauflösung als 4k. Mit einem gut auskorrigierten 40x/1.3, 20x/0.8, 10x/0.5 aber sehr wohl. Dort können im gesamten 23-mm-Bildfeld Details aufgelöst werden, die mit den 8MP von 4k nicht mehr komplett ausgeschöpft werden.
 
Zuletzt bearbeitet:
Das Problem ist eher, dass ein einzelnes Frame aus einem 4K Video durchaus sichtlich schlechtere Qualität (also niedrigere Auflösung (nicht Pixel!)) als ein 8mp Foto mit genau den gleichen Einstellungen haben kann.
Das liegt unter anderem an Lineskipping/Binning (beim Auslesen des Sensors werden Zeilen ausgelassen/mehrere Pixel zusammengefasst) und einem verlustbehafteten Codec (8bit h264). zB ein RAW Foto einer Canon DSLR herunter gerechnet auf 1920x1080px hat eine sichtbar (!) höhere Auflösung als ein Frame aus einem Video. Canon hat da mit Abstand auch das "schlechteste HD", andere Hersteller sind da schon besser. Ein Qualitätsunterschied zwischen Foto und Video bleibt aber eigentlich immer (abgesehen vielleicht von Filmkameras, die RAW aufzeichnen).
 
Das Problem ist eher, dass ein einzelnes Frame aus einem 4K Video durchaus sichtlich schlechtere Qualität (also niedrigere Auflösung (nicht Pixel!)) als ein 8mp Foto mit genau den gleichen Einstellungen haben kann.
Das ist korrekt. Ein Tradeoff zu konventionell aufgezeichneten Bildstapeln besteht - zumindest auf den ersten Blick. Die schlechtere Qualität muss dabei noch nicht einmal in einer geringeren Auflösung bestehen (diese kann als Resultat des Herunterrechnens sogar höher sein, als native Aufnahmen aus einem 8MP-Bayer-Sensor!), aber bei Skipping steigt selbst mit AA-Filter das Risiko von Aliasing-Artefakten erheblich an. Kameras, die zur Generierung ihrer 4k-Videos auch den gesamten Sensor auslesen, könnten das unterbinden, sind aber noch die absolute Minderheit. Somit kommt auch noch hinzu, dass der Signal-Rausch-Abstand nicht in gleicher Weise von der Herunterrechnung profitiert, wie das bei einer Serie von Einzelbildern der Fall wäre. Wenn die Stacking-Algorithmen allerdings gut arbeiten, kann durch die enorme Datenrate in 4k auch einiges wieder gewonnen werden. So könnte das Signal-Rausch-Verhalten davon profitieren, dass noch mehr Frames mit überlappendem Schärfebereich zusammengerechnet werden. Ein subpixel-Rendering wäre eine weitere Möglichkeit, die eine mangelhafte Positionierungs-Stabilität in den Aufnahmestapeln nicht nur kompensieren, sondern daraus evtl. sogar Profit schlagen kann.
 
WERBUNG
Zurück
Oben Unten