Der Sensor wird live ausgelesen und die Daten zum Bild verarbeitet.
Genau. Aber mit dem Spiegel hat das überhaupt nichts zu tun bzw. dessen Abwesenheit.
Nur was passiert da?
a) Er wird periodisch komplett ausgelesen, die Zwischenbilder zeigts auf dem Bildschirm an bzw. werden diese ebenfalls periodisch addiert
---> das Ausleserauschen addiert sich dadurch ebenfalls, außer die E-M5 subtrahiert jeweils ein Masterbias, das vor der Langzeitbelichtung gemacht wird.
Dafür würde sich dann ein anderer Teil des Rauschens rausmitteln - je nach Verfahren.
b) Nur jedes 10te Pixel wird periodisch ausgelesen und wie oben beschrieben verarbeitet - was für die Sucheranzeige ausreichen würde.
c) die Pixel ewrden ausgelesen, aber nach dem Auslesen nicht resettet --> ebenfalls Addition des ausleserauschens.
Das Problem ist eben, dass jedes Auslesen Auswirkungen auf das Finale Bild hat; vergleichbar mit sensiblen Messungen.
Und da wäre es eben schon interessant, wie Oly die Probleme angegangen ist und vor allem wie sich das aufs fertige Bild auswirkt. Es könnte sogar durchaus sein, dass durch diese Technologie die sonst üblichen Probleme bei Langzeitbelichtugen verhindert werden. Ferner könnte sie die Basis für 'echte' HDR-Aufnahmen darstellen - aber dazu müsste man wissen, was da überhaupt gemacht wird. Ein erster Ansatz dahinter zu kommen wäre eben, normale Langzeitbelichtungen und Life-Bulb Langzeitbelichtungen zu vergleichen.
Bis jetzt konnte ich jedoch keinen Vergleich finden. Trotz einiger Tests, die diesen neuen Modus begeistert aufgenommen haben - ohne ihn jedoch mitsamt seinen Möglichkeiten ernsthaft zu hinterfragen.
edit:
Moment: Bei c) addiert sich das Ausleserauschen nicht. Nur wäre es interessant, ob das überhaupt geht und falls ja, welchen Einfluss das aufs Bild hätte. Falls es tatsächlich c) ist, dann stellt diese 'Live-Bulb' nur den fast schon unbedeutenden Anfang einer mächtigen Technologie mit enormem Potential dar. Spannend wirds aber in jedem Fall.