• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

E 3 ist Da

Genau an so etwas arbeitet panasonic laut aussage von vor etwa 1/2 jahr. :confused:

Soll so eine art billigstabi zusätzlich zum objektiv werden.
Naja, die L10 hat sowas ja offenbar nicht und braucht es auch nicht. Was spräche also dagegen, ein paar der überflüssigen Pixel für's Bild zu nutzen?
 
Vielleicht ist ja was geplant bei panasonic was noch kommt . ;)
Möglich... aber dafür verzichten sie auf die marketingträchtige Möglichkeit, bei der L10 11! Megapixel draufzuschreiben statt 10? Sie werden schon irgendwelche Gründe haben, warten wir's ab.
 
Naja, die L10 hat sowas ja offenbar nicht und braucht es auch nicht. Was spräche also dagegen, ein paar der überflüssigen Pixel für's Bild zu nutzen?

weil die vermutlich außerhalb des bildkreises liegen, bzw. außerhalb der für dieses format definierten größe. ein solcher elektronischer stabi wär vermutlich wesentlich kostengünstiger als ein mechanischer. möglicherweise sogar schneller und weniger defektanfällig... evtl. könnte man sowas sogar mit dem optischen stabi kombinieren - zumidest beim 25/1.4 und fremdoptiken bringt er aber vorteile...
 
weil die vermutlich außerhalb des bildkreises liegen, bzw. außerhalb der für dieses format definierten größe.
Der Sensor der L10 hat exakt dieselbe Größe wie der der E-410/510. Wenn mehr Pixel drauf sind, sind sie kleiner, aber nicht irgendwo außerhalb. Quelle: Olympus und Panasonic HPs.
Außerdem haben sowohl die E-410/510 als auch die L10 exakt dieselbe Pixelauflösung, nämlich 3648x2736.

ein solcher elektronischer stabi wär vermutlich wesentlich kostengünstiger als ein mechanischer. möglicherweise sogar schneller und weniger defektanfällig... evtl. könnte man sowas sogar mit dem optischen stabi kombinieren - zumidest beim 25/1.4 und fremdoptiken bringt er aber vorteile...
Das mag ja sein... aber wozu bauen sie dann noch stabilisierte Objektive, wenn sie eine billigere Lösung in der Pipeline haben? Warum verbauen sie einen fast 12Mpix Sensor in einer Kamera, die keine Sensorstabilisierung kann, anstatt auf den 10Mpix Sensor der E-410/510 zurückzugreifen, oder alternativ gut 1Mpix mehr für Auflösung zu nutzen? Das macht doch keinen Sinn. Wenn sie dann mit einer Billigkamera soweit sind, ist der aktuelle Sensor eh wieder veraltet.
 
ein solcher elektronischer stabi wär vermutlich wesentlich kostengünstiger als ein mechanischer. möglicherweise sogar schneller und weniger defektanfällig... evtl. könnte man sowas sogar mit dem optischen stabi kombinieren - zumidest beim 25/1.4 und fremdoptiken bringt er aber vorteile...

aber nicht genau genug, Videos haben bei weiten nicht die Schärfe wie ein Foto, daher reicht das bei denen. Davon mal abgesehen kann auch da die Verwacklung während der Einzelbildbelichtung nicht korrigiert werden und ist Somit auch unscharf. Was aber in der Bildfolge nicht weiter auffällt. Ein CCD/Linsenstabi kann aber sehr wohl auch während der Belichtung ausgleichen.

Edit: Schreibfehler beseitigt: die nicht wie :)
 
Zuletzt bearbeitet:
aber nicht genau genug, Videos haben bei weiten nicht die Schärfe wie ein Foto, daher reicht das bei denen. Davon mal abgesehen kann auch da wie Verwacklung während der Einzelbildbelichtung nicht korrigiert werden und ist Somit auch unscharf. Was aber in der Bildfolge nicht weiter auffällt. Ein CCD/Linsenstabi kann aber sehr wohl auch während der Belichtung ausgleichen.

Aber panasonic hat genau von soetwas gesprochen bei einer pressekonferenz vor etwa 1/2 jahr.

Der link war sogar mal hier im forum dazu.

LG franz
 
Die frage wie hat es auch vor der sensorstabi gegeben usw..

Wenn sie davon reden werden sie wohl schon was testen.
Es war ja auch die rede davon das es alleine und mit dem objektivstabi zusammenarbeiten soll.

Warum liest hier eigentlich nie jemand links wenn sie nicht oly betreffen. :rolleyes:

LG franz
 
wie soll denn eine Verwacklung während der Belichtung beseitigt werden? Die kann nur durch geschicktes Rechnen erfolgen, was aber immer ein Kompromiss darstellen wird.

Als ich letztens wieder über eine Veröffentlichung gestolpert bin in der es um genau solch ein Rechenverfahren ging (Deconvolution with known kernel functions) war ich doch erstaunt was da machbar ist. Gerade wenn es dann auch noch Mehrfachaufnahmen sind.
Zwar ist es einer richtigen Bildstabilisierung unterlegen, keine Frage, aber beeindruchend fand ich es trotzdem.

criz.
 
Als ich letztens wieder über eine Veröffentlichung gestolpert bin in der es um genau solch ein Rechenverfahren ging (Deconvolution with known kernel functions) war ich doch erstaunt was da machbar ist. Gerade wenn es dann auch noch Mehrfachaufnahmen sind.
Zwar ist es einer richtigen Bildstabilisierung unterlegen, keine Frage, aber beeindruchend fand ich es trotzdem.

criz.

ja klar wenn man zB eine Aufnahme die mit 1/30 gemacht würde, in 3 1/125 mache und diese dann zusammenrechne, dann habe ich andere Schärfenvorausetzungen. Nur ob das mit einer guten 1/20 mithalten kann, steht noch in den Sternen.
Aber eine Pixelverschiebung einer einzigen Aufnahme geht nicht.
 
Wow, das ist stramm. Wenn Du dabei 8 Stunden konstant durchgearbeitet hast ohne Pause, dann war das ein Protrait alle 24 Sekunden. Hut ab. :eek:

Es waren 12-13 Stunden und teilweise wurden die Bilder im 5-Sekunden-Takt gemacht.

Es ging auch nicht um die fotografische Qualität, war schon froh, dass nix verwackelt war :)
 

das eine Hat ein Wissenschaftler geschrieben :D für uns somit kaum Lesbar :(
und bei dem zweiten reicht mein Englisch eben doch nicht aus :mad:

Aber es gibt auch noch den Lösungsansatz in dem man ein Bild richtig Belichtet, aber unscharf. Das Zweite wird dann stark unterbelichtet aber scharf. So können aus dem einen die Farben und Helligkeit verwendet werden. Während das andere die Schärfe liefert. Ein Hersteller macht das schon so, nur weis es gerade nicht welcher.

Aber ganz eine andere Überlegung warum es zu Verzögerungen kommt. Olympus hat versprochen den schnellsten AF zu bringen. Wenn ich sehe was ein erfahrener Hersteller wie Canon für Schwierigkeiten mit einem neuen System hat (1DMKIII), dann könnte das durchaus auch bei Olympus der Fall sein.
 
ja klar wenn man zB eine Aufnahme die mit 1/30 gemacht würde, in 3 1/125 mache und diese dann zusammenrechne, dann habe ich andere Schärfenvorausetzungen. Nur ob das mit einer guten 1/20 mithalten kann, steht noch in den Sternen.
Aber eine Pixelverschiebung einer einzigen Aufnahme geht nicht.

Jupp, die ganzen Verfahren haben ordentliche Nachteile. Bei Kanten kann es zu Problemen kommen genauso wie feine Strukturen im Bild oder Struckturen die der Kernfunktion von der Form her entsprechen. Ist ja auch irgendwo klar, eine Aufnahme ist - im einfachen Sinne - eine Aufsummierung über die Zeit und später dann die Summe wieder in ihre Summanden zu zerlegen ist eben nicht (exakt) möglich.
Deswegen behilft man sich ja mit mehreren Aufnahmen - so wie dass von dir ja oben schon erwähnte Hybridverfahren.

Alles nicht so das Gelbe vom Ei, aber ich war doch beeindruckt und so manches - eben gerade ein bisschen Verwackeltes Bild könnte man damit schon retten.

criz.
 

Das verfahren hatte die kleine oly mju 730 vom letzten jahr schon.
Ein gyrosensor zeichnet die bewegung auf und die kamera rechnet es bei bedarf vom bild raus.
Das hat ganz gut funktioniert ist aber sehr rechenintensiv und nicht in echtzeit zu gebrauchen gewesen.
Wobei die rechenleistung jetzt oder in nächster zeit ja kein thema mehr sein sollte.

LG franz
 
WERBUNG
Zurück
Oben Unten