dmkdmkdmk
Themenersteller
Mal was ganz neues: Ich habe weder eine Frage noch wesentliche Informationen weiterzugeben. Ich würde schlicht und einfach mal gerne über das Thema "Signal-zu-Rausch-Abstand" oder kurz SNR (Signal to Noise Ratio) diskutieren - ist es doch das, was bei fast allen Fotografen der wichtigste Qualitätsfaktor einer Digitalkamera ist.
Ich möchte dabei aber keineswegs einfach auf die aktuelle High-ISO-Fähigkeit von D3s und co zu sprechen kommen, sondern mal ganz auf technischer Ebene diskutieren, wie man den SNR erhöhen kann. Zwei Faktoren sind dabei (wie es der Name schon sagt) entscheidend:
Das Signal
Das hereinkommende Signal ist es ja, was wir aufzeichnen wollen mit unseren Kameras. Je stärker das Signal, umso besser kann es aufgezeichnet werden. Wer sich im Bereich Amateurfunk ein wenig auskennt, kann sich das auch ausgezeichnet vorstellen: Je höher ich die Sendeleistung stelle, umso besser kann mich der Empfänger der Nachricht hören. Bei der Optik sind es einfach statt Radiowellen Photonen. Je mehr Photonen meine Quelle aussendet, umso einfacher kann ich davon ein Foto machen. Auch Photonen haben ein natürliches Rauschen. Kaum ein "Signalgeber" sendet seine Photonen kontinuerlich und immer im gleichen Winkel. In fast allen Fällen ist dieser Faktor so gering, dass man ihm keine Beachtung schenken muss. Zumal am Schluss sowieso immer irgendwo alles ausgemittelt wird. Der natürliche SNR ist also quasi unendlich gross. Es herrschen perfekte Ausgangsbedingungen. Selbst wenn das Signal sehr schwach wird, stellt das noch kein prinzipielles Problem dar, da es das natürliche Rauschen immer noch um ein vielfaches schwächer ist.
Ein anderes Thema ist aber, wieviel Prozent dieses Signal wir überhaupt einfangen können. Der Signalgeber strahlt ja sein Signal in den meisten Fällen kugelförmig ab. Um 100% des Signals einzufangen, müssten wir also quasi ein kugelförmiges Objektiv um den Signalgeber herum bauen und das eingesammelte Licht wieder auf einen Brennpunkt fokussieren. Das ist natürlich vollkommen unmöglich. In der Realität können wir nur immer einen winzigen Bruchteil des Signals mit unseren Objektiven einsammeln. Und gerade weil das Signal so gering ist, spielen auch "kleine" Verbesserungen eine gewaltige Rolle. Wenn wir die Diagonale der Öffnung eines Objektives um den Faktor 1.4 vergrössern, können wir die Signalstärke bereits verdoppeln!!! Das enspricht einer Blendenstufe. Jede weitere Vergrösserung bringt wieder doppelt so viel Licht. Nach nur schon 4 Blendenstufen haben wir schon 16x so viel Signal eingesammelt - unglaublich!!!
Und das ist der einfache Grund wieso lichtstarke Objektive so wichtig sind. Mit einem 50mm f/1.4 kann man demzufolge 16x mehr Licht einsammeln als mit einem typischen Kitzoom, das bei 50mm nur noch Blende 5.6 hat.
Das Rauschen
Leider kratzt man bei der Optik schon seit Jahrzehnten an den gleichen physikalischen Grenzen, darum hat es im Bezug auf Lichtstärke keinerlei Fortschritte mehr gegeben. Der Signalanteil lässt sich also nicht weiter erhöhen. Wenn man aber trotzdem einen höheren SNR (= eine bessere Bildqualität) haben will, muss man logischerweise den Rauschanteil reduzieren. Da das für uns relevante Rauschen noch nicht im eingesammelten Licht vorhanden ist, kann man das Signal logisch vom Rauschen trennen. Die Ursache für das Rauschen, dass wir in vielen unserer Fotos wahrnehmen können, sind mannigfaltig:
1. Hitze. Dadurch, dass immer wieder Strom durch die Leiterbahnen des Sensors (bzw. der dazugehörigen Elektronik) fliesst, wärmt sich das Teil kontinuierlich auf. Die Wärme strahlt im Infraroten aus und diese Elektromagnetische Strahlung kann dann wiederum den Ladezustand irgendwo verändern.
2. Zu nahe beieinanderliegende Leiterbahnen können auch mal Elektronen austauschen, so dass ein ursprünglich zu Pixel A gehöriger Signalanteil plötzlich zu Pixel B wechselt.
3. Ungleichmässig empfindliche Photonen-Detektoren. Nicht alle Pixel sind gleich empfindlich (auch innerhalb der gleichen Farbe). Die Empfindlichkeit kann so stark variieren, dass es von völlig unempfindlichen Pixeln bis "maximal" empfindlichen wohl alles gibt. Diese Differenz wird zwar dann Software/Verstärkerseitig schon korrigiert (bei der Herstellung). Die Varianz kann sich aber im Verlauf der Zeit wieder ändern, so dass niemals alle Pixel bei gleicher Bestrahlung auch das gleiche Signal herausgeben würden.
4. Ungleichmässige weitere Elektronik-Kette. Auch bei der Verstärkung des Signals kann es unterschiedlich starke Bauteile geben. Im Prinzip ist sämtliche elektronischen Bauteile bis nach der Analog/Digitalwandlung willkürlichen Schwankungen in der Herstellung unterlegen.
Leider ist auch hier nicht mehr viel zu machen. Ohne Helium-Kühlung lässt sich die Temparatur des Sensors nicht auf wenige hundertstel über dem absoluten Nullpunkt kühlen. Und eine Helium-Kühlung wäre nur schon rein wirtschaftlich betrachtet unmöglich zu realisieren für den Massenmarkt. Das ist nach wie vor nur etwas für die grossen Weltraum-Teleskope. Die nahe beieinanderliegenden Leiterbahnen kommen von der stetig wachsenden Pixeldichte. Je kleiner die Pixel werden, umso näher liegen sie beieinander und umso weniger Abstand haben natürlich auch die Leiterbahnen. Das einzige, was man wahrscheinlich verbessern kann ist die Herstellungsbedingte Schwankung in den Elektronikbauteilen. Vermutlich steckt hier aber am wenigsten Potential und ein sehr grosser finanzieller Aufwand.
Aber: je grösser der Sensor ist, umso grösser sind auch die Pixel. Zumindest damit lässt sich das Rauschen durch die Leiterbahnen verringern. Und da die Verstärkung auf einer grösseren Fläche stattfindet, verteilt sich die thermische Strahlung besser.
Will man den SNR Sensorseitig trotzdem verbessern, muss man versuchen, weniger Signalanteil auf dem Sensor zu verlieren. Bei herkömmlichen Bayer-Sensoren gibt es immer noch ein gewaltiges Optimierungspotential:
1. Alle Pixel auf einem Bayer-Sensor haben einen davorgespannten Farbfilter. Dieser Filtert jeweils zwei von drei Farbkomponenten raus, um am Schluss noch Informationen über die Farbe zu erhalten. Wir verlieren also rund 66% des einfallenden Signals. Alternativen wären das Foveon-Prinzip von Sigma oder ein Prisma, dass die Farbanteile trennt, so dass sie separat ausgelesen werden können. Foveon-Sensoren haben aber leider andere Nachteile und ob es je einen Sensor mit Prismen gibt wage ich mal zu bezweifeln.
2. Zwischen den lichtempfindlichen Punkten auf den Sensoren gibt es immer noch unempfindliche Bereiche. Je mehr Pixel auf einem Sensor sind, umso grösser fällt die Gesamtfläche dieser nicht empfindlichen Bereiche aus. Dieser Umstand dürfte sogar der entscheidenste Unterschied in der Rauscharmut von aktuellen Kamerasensoren sein, denn daran können die Sensorhersteller momentan am ehesten etwas verbessern.
Solange aber noch Bayer-Sensoren zum Einsatz kommen, dürfte kein Durchbruch zu erwarten sein. Wenn einmal die gesamte Sensorfläche zu 100% lichtempfindlich sein wird, können wir sicher mit 2-4 Blendenstufen echter Verbesserung gegenüber jetzt rechnen. Solange wir aber nicht mit Helium kühlen, wird es plus minus dabei bleiben. Eine Verbesserung des Rauscheindrucks um 1-2 Blendenstufen pro Kamerageneration halte ich für die nächste Zukunft daher eher für utopisch, auch wenn ich darüber zu wenig weiss.
Nachträgliche Methoden zur Verringerung des Rauschens
Das Rauschen kann natürlich auch erst im Nachhinein auf digitaler Ebene reduziert werden. Wenn man Annahmen über die statistische Verteilung und über die möglichen Schwankungen trifft, kann man das sogar sehr gut entfernen. Aber auch die besten Algorithmen werden es nie schaffen, das Rauschen 100%ig vom Signal zu unterscheiden. Darum wird eine digitale Rauschreduzierung nie ohne Detailverlust funktionieren. Trotzdem ist diese Variante weitaus besser als das blosse Verkleinern des Bildes, welches das sichtbare Rauschen auf Pixelebene ebenfalls reduziert.
Eine ganz andere Variante ist das herausmitteln von Rauschen. Das ist insbesondere eine sehr gute Variante bei Langzeitbelichtungen. Anstatt einem dicken Graufilter macht man einfach viele Aufnahmen hintereinander mit kürzeren Verschlusszeiten und fügt die Einzelaufnahmen später zusammen. Einige Kameras haben sogar schon so eine Funktion für "Mehrfachbelichtung" eingebaut. Mit jeder Verdopplung der Anzahl Aufnahmen verdoppelt sich der Signalanteil währenddem sich gleichzeitig der Rauschanteil herausmittelt. Wir können also sicher damit rechnen, dass man pro Aufnahmenverdopplung auch das Rauschen um eine weitere Blendenstufe reduzieren kann. 16 Aufnahmen mit ISO 1600 müssten demzufolge gleich aussehen wie eine Aufnahme mit ISO 100 - vorausgesetzt das Rauschen steigt proportional mit dem eingestellten ISO-Wert. Viel interessanter ist natürlich, dass man mit 16 Aufnahmen bei ISO 100 den Bildeindruck von theoretischen ISO 6.25 erreichen kann.
Eine Fragestellung ist mir während des Schreibens doch noch in den Sinn gekommen:
Angenommen wir haben eine Tageslichtsituation und können mit einer 1/8000tel fotografieren. Der Sensor wird also nur sehr kurz beansprucht. Wenn wir jetzt so weit abblenden, dass wir zum Beispiel eine Sekunde belichten müssen, dann wird der Sensor um den Faktor 8000 stärker beansprucht. Da der Auslesevorgang aber erst am Schluss der Belichtung stattfindet, dürfte die zusätzliche thermische Beanspruchung theoretisch inexistent sein. Warum gibt es dann aber trotzdem diese Hotpixel bei Langzeitaufnahmen? Oder anders herum gefragt: Sieht man bei längeren Verschlusszeiten ein deutlicheres Rauschen als bei kürzeren? Wenn ja, wieso?
EDIT: Ich erhebe mit meinem Beitrag keinerlei Anspruch auf Vollständigkeit oder Korrektheit. Wenn Jemand Verbesserungsvorschläge und Korrekturen (inhaltlicher Art) hat, darf er mir das gerne freundlich mitteilen und ich werde versuchen das hier reinzubringen.
Ich möchte dabei aber keineswegs einfach auf die aktuelle High-ISO-Fähigkeit von D3s und co zu sprechen kommen, sondern mal ganz auf technischer Ebene diskutieren, wie man den SNR erhöhen kann. Zwei Faktoren sind dabei (wie es der Name schon sagt) entscheidend:
Das Signal
Das hereinkommende Signal ist es ja, was wir aufzeichnen wollen mit unseren Kameras. Je stärker das Signal, umso besser kann es aufgezeichnet werden. Wer sich im Bereich Amateurfunk ein wenig auskennt, kann sich das auch ausgezeichnet vorstellen: Je höher ich die Sendeleistung stelle, umso besser kann mich der Empfänger der Nachricht hören. Bei der Optik sind es einfach statt Radiowellen Photonen. Je mehr Photonen meine Quelle aussendet, umso einfacher kann ich davon ein Foto machen. Auch Photonen haben ein natürliches Rauschen. Kaum ein "Signalgeber" sendet seine Photonen kontinuerlich und immer im gleichen Winkel. In fast allen Fällen ist dieser Faktor so gering, dass man ihm keine Beachtung schenken muss. Zumal am Schluss sowieso immer irgendwo alles ausgemittelt wird. Der natürliche SNR ist also quasi unendlich gross. Es herrschen perfekte Ausgangsbedingungen. Selbst wenn das Signal sehr schwach wird, stellt das noch kein prinzipielles Problem dar, da es das natürliche Rauschen immer noch um ein vielfaches schwächer ist.
Ein anderes Thema ist aber, wieviel Prozent dieses Signal wir überhaupt einfangen können. Der Signalgeber strahlt ja sein Signal in den meisten Fällen kugelförmig ab. Um 100% des Signals einzufangen, müssten wir also quasi ein kugelförmiges Objektiv um den Signalgeber herum bauen und das eingesammelte Licht wieder auf einen Brennpunkt fokussieren. Das ist natürlich vollkommen unmöglich. In der Realität können wir nur immer einen winzigen Bruchteil des Signals mit unseren Objektiven einsammeln. Und gerade weil das Signal so gering ist, spielen auch "kleine" Verbesserungen eine gewaltige Rolle. Wenn wir die Diagonale der Öffnung eines Objektives um den Faktor 1.4 vergrössern, können wir die Signalstärke bereits verdoppeln!!! Das enspricht einer Blendenstufe. Jede weitere Vergrösserung bringt wieder doppelt so viel Licht. Nach nur schon 4 Blendenstufen haben wir schon 16x so viel Signal eingesammelt - unglaublich!!!
Und das ist der einfache Grund wieso lichtstarke Objektive so wichtig sind. Mit einem 50mm f/1.4 kann man demzufolge 16x mehr Licht einsammeln als mit einem typischen Kitzoom, das bei 50mm nur noch Blende 5.6 hat.
Das Rauschen
Leider kratzt man bei der Optik schon seit Jahrzehnten an den gleichen physikalischen Grenzen, darum hat es im Bezug auf Lichtstärke keinerlei Fortschritte mehr gegeben. Der Signalanteil lässt sich also nicht weiter erhöhen. Wenn man aber trotzdem einen höheren SNR (= eine bessere Bildqualität) haben will, muss man logischerweise den Rauschanteil reduzieren. Da das für uns relevante Rauschen noch nicht im eingesammelten Licht vorhanden ist, kann man das Signal logisch vom Rauschen trennen. Die Ursache für das Rauschen, dass wir in vielen unserer Fotos wahrnehmen können, sind mannigfaltig:
1. Hitze. Dadurch, dass immer wieder Strom durch die Leiterbahnen des Sensors (bzw. der dazugehörigen Elektronik) fliesst, wärmt sich das Teil kontinuierlich auf. Die Wärme strahlt im Infraroten aus und diese Elektromagnetische Strahlung kann dann wiederum den Ladezustand irgendwo verändern.
2. Zu nahe beieinanderliegende Leiterbahnen können auch mal Elektronen austauschen, so dass ein ursprünglich zu Pixel A gehöriger Signalanteil plötzlich zu Pixel B wechselt.
3. Ungleichmässig empfindliche Photonen-Detektoren. Nicht alle Pixel sind gleich empfindlich (auch innerhalb der gleichen Farbe). Die Empfindlichkeit kann so stark variieren, dass es von völlig unempfindlichen Pixeln bis "maximal" empfindlichen wohl alles gibt. Diese Differenz wird zwar dann Software/Verstärkerseitig schon korrigiert (bei der Herstellung). Die Varianz kann sich aber im Verlauf der Zeit wieder ändern, so dass niemals alle Pixel bei gleicher Bestrahlung auch das gleiche Signal herausgeben würden.
4. Ungleichmässige weitere Elektronik-Kette. Auch bei der Verstärkung des Signals kann es unterschiedlich starke Bauteile geben. Im Prinzip ist sämtliche elektronischen Bauteile bis nach der Analog/Digitalwandlung willkürlichen Schwankungen in der Herstellung unterlegen.
Leider ist auch hier nicht mehr viel zu machen. Ohne Helium-Kühlung lässt sich die Temparatur des Sensors nicht auf wenige hundertstel über dem absoluten Nullpunkt kühlen. Und eine Helium-Kühlung wäre nur schon rein wirtschaftlich betrachtet unmöglich zu realisieren für den Massenmarkt. Das ist nach wie vor nur etwas für die grossen Weltraum-Teleskope. Die nahe beieinanderliegenden Leiterbahnen kommen von der stetig wachsenden Pixeldichte. Je kleiner die Pixel werden, umso näher liegen sie beieinander und umso weniger Abstand haben natürlich auch die Leiterbahnen. Das einzige, was man wahrscheinlich verbessern kann ist die Herstellungsbedingte Schwankung in den Elektronikbauteilen. Vermutlich steckt hier aber am wenigsten Potential und ein sehr grosser finanzieller Aufwand.
Aber: je grösser der Sensor ist, umso grösser sind auch die Pixel. Zumindest damit lässt sich das Rauschen durch die Leiterbahnen verringern. Und da die Verstärkung auf einer grösseren Fläche stattfindet, verteilt sich die thermische Strahlung besser.
Will man den SNR Sensorseitig trotzdem verbessern, muss man versuchen, weniger Signalanteil auf dem Sensor zu verlieren. Bei herkömmlichen Bayer-Sensoren gibt es immer noch ein gewaltiges Optimierungspotential:
1. Alle Pixel auf einem Bayer-Sensor haben einen davorgespannten Farbfilter. Dieser Filtert jeweils zwei von drei Farbkomponenten raus, um am Schluss noch Informationen über die Farbe zu erhalten. Wir verlieren also rund 66% des einfallenden Signals. Alternativen wären das Foveon-Prinzip von Sigma oder ein Prisma, dass die Farbanteile trennt, so dass sie separat ausgelesen werden können. Foveon-Sensoren haben aber leider andere Nachteile und ob es je einen Sensor mit Prismen gibt wage ich mal zu bezweifeln.
2. Zwischen den lichtempfindlichen Punkten auf den Sensoren gibt es immer noch unempfindliche Bereiche. Je mehr Pixel auf einem Sensor sind, umso grösser fällt die Gesamtfläche dieser nicht empfindlichen Bereiche aus. Dieser Umstand dürfte sogar der entscheidenste Unterschied in der Rauscharmut von aktuellen Kamerasensoren sein, denn daran können die Sensorhersteller momentan am ehesten etwas verbessern.
Solange aber noch Bayer-Sensoren zum Einsatz kommen, dürfte kein Durchbruch zu erwarten sein. Wenn einmal die gesamte Sensorfläche zu 100% lichtempfindlich sein wird, können wir sicher mit 2-4 Blendenstufen echter Verbesserung gegenüber jetzt rechnen. Solange wir aber nicht mit Helium kühlen, wird es plus minus dabei bleiben. Eine Verbesserung des Rauscheindrucks um 1-2 Blendenstufen pro Kamerageneration halte ich für die nächste Zukunft daher eher für utopisch, auch wenn ich darüber zu wenig weiss.
Nachträgliche Methoden zur Verringerung des Rauschens
Das Rauschen kann natürlich auch erst im Nachhinein auf digitaler Ebene reduziert werden. Wenn man Annahmen über die statistische Verteilung und über die möglichen Schwankungen trifft, kann man das sogar sehr gut entfernen. Aber auch die besten Algorithmen werden es nie schaffen, das Rauschen 100%ig vom Signal zu unterscheiden. Darum wird eine digitale Rauschreduzierung nie ohne Detailverlust funktionieren. Trotzdem ist diese Variante weitaus besser als das blosse Verkleinern des Bildes, welches das sichtbare Rauschen auf Pixelebene ebenfalls reduziert.
Eine ganz andere Variante ist das herausmitteln von Rauschen. Das ist insbesondere eine sehr gute Variante bei Langzeitbelichtungen. Anstatt einem dicken Graufilter macht man einfach viele Aufnahmen hintereinander mit kürzeren Verschlusszeiten und fügt die Einzelaufnahmen später zusammen. Einige Kameras haben sogar schon so eine Funktion für "Mehrfachbelichtung" eingebaut. Mit jeder Verdopplung der Anzahl Aufnahmen verdoppelt sich der Signalanteil währenddem sich gleichzeitig der Rauschanteil herausmittelt. Wir können also sicher damit rechnen, dass man pro Aufnahmenverdopplung auch das Rauschen um eine weitere Blendenstufe reduzieren kann. 16 Aufnahmen mit ISO 1600 müssten demzufolge gleich aussehen wie eine Aufnahme mit ISO 100 - vorausgesetzt das Rauschen steigt proportional mit dem eingestellten ISO-Wert. Viel interessanter ist natürlich, dass man mit 16 Aufnahmen bei ISO 100 den Bildeindruck von theoretischen ISO 6.25 erreichen kann.
Eine Fragestellung ist mir während des Schreibens doch noch in den Sinn gekommen:
Angenommen wir haben eine Tageslichtsituation und können mit einer 1/8000tel fotografieren. Der Sensor wird also nur sehr kurz beansprucht. Wenn wir jetzt so weit abblenden, dass wir zum Beispiel eine Sekunde belichten müssen, dann wird der Sensor um den Faktor 8000 stärker beansprucht. Da der Auslesevorgang aber erst am Schluss der Belichtung stattfindet, dürfte die zusätzliche thermische Beanspruchung theoretisch inexistent sein. Warum gibt es dann aber trotzdem diese Hotpixel bei Langzeitaufnahmen? Oder anders herum gefragt: Sieht man bei längeren Verschlusszeiten ein deutlicheres Rauschen als bei kürzeren? Wenn ja, wieso?
EDIT: Ich erhebe mit meinem Beitrag keinerlei Anspruch auf Vollständigkeit oder Korrektheit. Wenn Jemand Verbesserungsvorschläge und Korrekturen (inhaltlicher Art) hat, darf er mir das gerne freundlich mitteilen und ich werde versuchen das hier reinzubringen.