• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Der steinige Weg zum immer besseren Signal-zu-Rausch-Abstand

dmkdmkdmk

Themenersteller
Mal was ganz neues: Ich habe weder eine Frage noch wesentliche Informationen weiterzugeben. Ich würde schlicht und einfach mal gerne über das Thema "Signal-zu-Rausch-Abstand" oder kurz SNR (Signal to Noise Ratio) diskutieren - ist es doch das, was bei fast allen Fotografen der wichtigste Qualitätsfaktor einer Digitalkamera ist.

Ich möchte dabei aber keineswegs einfach auf die aktuelle High-ISO-Fähigkeit von D3s und co zu sprechen kommen, sondern mal ganz auf technischer Ebene diskutieren, wie man den SNR erhöhen kann. Zwei Faktoren sind dabei (wie es der Name schon sagt) entscheidend:

Das Signal

Das hereinkommende Signal ist es ja, was wir aufzeichnen wollen mit unseren Kameras. Je stärker das Signal, umso besser kann es aufgezeichnet werden. Wer sich im Bereich Amateurfunk ein wenig auskennt, kann sich das auch ausgezeichnet vorstellen: Je höher ich die Sendeleistung stelle, umso besser kann mich der Empfänger der Nachricht hören. Bei der Optik sind es einfach statt Radiowellen Photonen. Je mehr Photonen meine Quelle aussendet, umso einfacher kann ich davon ein Foto machen. Auch Photonen haben ein natürliches Rauschen. Kaum ein "Signalgeber" sendet seine Photonen kontinuerlich und immer im gleichen Winkel. In fast allen Fällen ist dieser Faktor so gering, dass man ihm keine Beachtung schenken muss. Zumal am Schluss sowieso immer irgendwo alles ausgemittelt wird. Der natürliche SNR ist also quasi unendlich gross. Es herrschen perfekte Ausgangsbedingungen. Selbst wenn das Signal sehr schwach wird, stellt das noch kein prinzipielles Problem dar, da es das natürliche Rauschen immer noch um ein vielfaches schwächer ist.
Ein anderes Thema ist aber, wieviel Prozent dieses Signal wir überhaupt einfangen können. Der Signalgeber strahlt ja sein Signal in den meisten Fällen kugelförmig ab. Um 100% des Signals einzufangen, müssten wir also quasi ein kugelförmiges Objektiv um den Signalgeber herum bauen und das eingesammelte Licht wieder auf einen Brennpunkt fokussieren. Das ist natürlich vollkommen unmöglich. In der Realität können wir nur immer einen winzigen Bruchteil des Signals mit unseren Objektiven einsammeln. Und gerade weil das Signal so gering ist, spielen auch "kleine" Verbesserungen eine gewaltige Rolle. Wenn wir die Diagonale der Öffnung eines Objektives um den Faktor 1.4 vergrössern, können wir die Signalstärke bereits verdoppeln!!! Das enspricht einer Blendenstufe. Jede weitere Vergrösserung bringt wieder doppelt so viel Licht. Nach nur schon 4 Blendenstufen haben wir schon 16x so viel Signal eingesammelt - unglaublich!!!
Und das ist der einfache Grund wieso lichtstarke Objektive so wichtig sind. Mit einem 50mm f/1.4 kann man demzufolge 16x mehr Licht einsammeln als mit einem typischen Kitzoom, das bei 50mm nur noch Blende 5.6 hat.

Das Rauschen

Leider kratzt man bei der Optik schon seit Jahrzehnten an den gleichen physikalischen Grenzen, darum hat es im Bezug auf Lichtstärke keinerlei Fortschritte mehr gegeben. Der Signalanteil lässt sich also nicht weiter erhöhen. Wenn man aber trotzdem einen höheren SNR (= eine bessere Bildqualität) haben will, muss man logischerweise den Rauschanteil reduzieren. Da das für uns relevante Rauschen noch nicht im eingesammelten Licht vorhanden ist, kann man das Signal logisch vom Rauschen trennen. Die Ursache für das Rauschen, dass wir in vielen unserer Fotos wahrnehmen können, sind mannigfaltig:

1. Hitze. Dadurch, dass immer wieder Strom durch die Leiterbahnen des Sensors (bzw. der dazugehörigen Elektronik) fliesst, wärmt sich das Teil kontinuierlich auf. Die Wärme strahlt im Infraroten aus und diese Elektromagnetische Strahlung kann dann wiederum den Ladezustand irgendwo verändern.

2. Zu nahe beieinanderliegende Leiterbahnen können auch mal Elektronen austauschen, so dass ein ursprünglich zu Pixel A gehöriger Signalanteil plötzlich zu Pixel B wechselt.

3. Ungleichmässig empfindliche Photonen-Detektoren. Nicht alle Pixel sind gleich empfindlich (auch innerhalb der gleichen Farbe). Die Empfindlichkeit kann so stark variieren, dass es von völlig unempfindlichen Pixeln bis "maximal" empfindlichen wohl alles gibt. Diese Differenz wird zwar dann Software/Verstärkerseitig schon korrigiert (bei der Herstellung). Die Varianz kann sich aber im Verlauf der Zeit wieder ändern, so dass niemals alle Pixel bei gleicher Bestrahlung auch das gleiche Signal herausgeben würden.

4. Ungleichmässige weitere Elektronik-Kette. Auch bei der Verstärkung des Signals kann es unterschiedlich starke Bauteile geben. Im Prinzip ist sämtliche elektronischen Bauteile bis nach der Analog/Digitalwandlung willkürlichen Schwankungen in der Herstellung unterlegen.

Leider ist auch hier nicht mehr viel zu machen. Ohne Helium-Kühlung lässt sich die Temparatur des Sensors nicht auf wenige hundertstel über dem absoluten Nullpunkt kühlen. Und eine Helium-Kühlung wäre nur schon rein wirtschaftlich betrachtet unmöglich zu realisieren für den Massenmarkt. Das ist nach wie vor nur etwas für die grossen Weltraum-Teleskope. Die nahe beieinanderliegenden Leiterbahnen kommen von der stetig wachsenden Pixeldichte. Je kleiner die Pixel werden, umso näher liegen sie beieinander und umso weniger Abstand haben natürlich auch die Leiterbahnen. Das einzige, was man wahrscheinlich verbessern kann ist die Herstellungsbedingte Schwankung in den Elektronikbauteilen. Vermutlich steckt hier aber am wenigsten Potential und ein sehr grosser finanzieller Aufwand.

Aber: je grösser der Sensor ist, umso grösser sind auch die Pixel. Zumindest damit lässt sich das Rauschen durch die Leiterbahnen verringern. Und da die Verstärkung auf einer grösseren Fläche stattfindet, verteilt sich die thermische Strahlung besser.


Will man den SNR Sensorseitig trotzdem verbessern, muss man versuchen, weniger Signalanteil auf dem Sensor zu verlieren. Bei herkömmlichen Bayer-Sensoren gibt es immer noch ein gewaltiges Optimierungspotential:

1. Alle Pixel auf einem Bayer-Sensor haben einen davorgespannten Farbfilter. Dieser Filtert jeweils zwei von drei Farbkomponenten raus, um am Schluss noch Informationen über die Farbe zu erhalten. Wir verlieren also rund 66% des einfallenden Signals. Alternativen wären das Foveon-Prinzip von Sigma oder ein Prisma, dass die Farbanteile trennt, so dass sie separat ausgelesen werden können. Foveon-Sensoren haben aber leider andere Nachteile und ob es je einen Sensor mit Prismen gibt wage ich mal zu bezweifeln.

2. Zwischen den lichtempfindlichen Punkten auf den Sensoren gibt es immer noch unempfindliche Bereiche. Je mehr Pixel auf einem Sensor sind, umso grösser fällt die Gesamtfläche dieser nicht empfindlichen Bereiche aus. Dieser Umstand dürfte sogar der entscheidenste Unterschied in der Rauscharmut von aktuellen Kamerasensoren sein, denn daran können die Sensorhersteller momentan am ehesten etwas verbessern.

Solange aber noch Bayer-Sensoren zum Einsatz kommen, dürfte kein Durchbruch zu erwarten sein. Wenn einmal die gesamte Sensorfläche zu 100% lichtempfindlich sein wird, können wir sicher mit 2-4 Blendenstufen echter Verbesserung gegenüber jetzt rechnen. Solange wir aber nicht mit Helium kühlen, wird es plus minus dabei bleiben. Eine Verbesserung des Rauscheindrucks um 1-2 Blendenstufen pro Kamerageneration halte ich für die nächste Zukunft daher eher für utopisch, auch wenn ich darüber zu wenig weiss.


Nachträgliche Methoden zur Verringerung des Rauschens

Das Rauschen kann natürlich auch erst im Nachhinein auf digitaler Ebene reduziert werden. Wenn man Annahmen über die statistische Verteilung und über die möglichen Schwankungen trifft, kann man das sogar sehr gut entfernen. Aber auch die besten Algorithmen werden es nie schaffen, das Rauschen 100%ig vom Signal zu unterscheiden. Darum wird eine digitale Rauschreduzierung nie ohne Detailverlust funktionieren. Trotzdem ist diese Variante weitaus besser als das blosse Verkleinern des Bildes, welches das sichtbare Rauschen auf Pixelebene ebenfalls reduziert.

Eine ganz andere Variante ist das herausmitteln von Rauschen. Das ist insbesondere eine sehr gute Variante bei Langzeitbelichtungen. Anstatt einem dicken Graufilter macht man einfach viele Aufnahmen hintereinander mit kürzeren Verschlusszeiten und fügt die Einzelaufnahmen später zusammen. Einige Kameras haben sogar schon so eine Funktion für "Mehrfachbelichtung" eingebaut. Mit jeder Verdopplung der Anzahl Aufnahmen verdoppelt sich der Signalanteil währenddem sich gleichzeitig der Rauschanteil herausmittelt. Wir können also sicher damit rechnen, dass man pro Aufnahmenverdopplung auch das Rauschen um eine weitere Blendenstufe reduzieren kann. 16 Aufnahmen mit ISO 1600 müssten demzufolge gleich aussehen wie eine Aufnahme mit ISO 100 - vorausgesetzt das Rauschen steigt proportional mit dem eingestellten ISO-Wert. Viel interessanter ist natürlich, dass man mit 16 Aufnahmen bei ISO 100 den Bildeindruck von theoretischen ISO 6.25 erreichen kann.



Eine Fragestellung ist mir während des Schreibens doch noch in den Sinn gekommen:
Angenommen wir haben eine Tageslichtsituation und können mit einer 1/8000tel fotografieren. Der Sensor wird also nur sehr kurz beansprucht. Wenn wir jetzt so weit abblenden, dass wir zum Beispiel eine Sekunde belichten müssen, dann wird der Sensor um den Faktor 8000 stärker beansprucht. Da der Auslesevorgang aber erst am Schluss der Belichtung stattfindet, dürfte die zusätzliche thermische Beanspruchung theoretisch inexistent sein. Warum gibt es dann aber trotzdem diese Hotpixel bei Langzeitaufnahmen? Oder anders herum gefragt: Sieht man bei längeren Verschlusszeiten ein deutlicheres Rauschen als bei kürzeren? Wenn ja, wieso?


EDIT: Ich erhebe mit meinem Beitrag keinerlei Anspruch auf Vollständigkeit oder Korrektheit. Wenn Jemand Verbesserungsvorschläge und Korrekturen (inhaltlicher Art) hat, darf er mir das gerne freundlich mitteilen und ich werde versuchen das hier reinzubringen.
 
super beitrag! ja.. das wird interessant, was sich die forscher noch alles einfallen lassen um das rauschen weiter zu reduzieren ;)

zum punkt 3. ich denke einmal, dass eventuell eine automatische kalibrierung jeder kamera schon einmal etwas helfen könnte. wenn ich bei jedem photonen-detektor eine gewisse fertigungstoleranz habe, wie empfindlich oder unempfindlich er ist, bleibt es für eine gewisse zeit bestimmt +/- gleich. wenn ich also eine 100% homogene fläche, welche genau gleich viel licht in den gleichen wellenlängen auf den sensor wirft, simulieren könnte, könnte ich durch mehrmalige belichtung herausfinden, welcher photonen-detektor eher empfindlich oder eben unempfindlich reagiert, und dies entsprechend korrigieren.

ein weiteres verbesserungspotential, welches jetzt aber nicht direkt mit dem rauschen zu tun hat, sehe ich bei der beugungsunschärfe. das licht breitet sich ja wellenförmig aus, wenn es durch eine enge muss (darum wellen-teilchen-dualismus, weil sich licht zum teil wie einzelne photonen verhält aber auch eigenschaften von wellen aufweist). grundsätzlich weiss man ja theoretisch, wie sich das licht bei verschiedenen wellenlängen verbreitet, und dadurch könnte man wahrscheinlich für eine definierte blendenstufe und einfallwinkel des lichtes das verhalten des lichtes berechnen, und somit die beugungsunschärfe auch herausrechnen.

sollte ich mich in irgendwelchen aussagen irren, korrigiert mich bitte! ;)
 
Ich vermisse im Eingangsposting einen Hinweis auf "exposure to the right". Die dahinter stehende Idee besteht darin, den Signal-Rauschverhältnis des jeweiligen Sensors optimal auszunutzen, indem man nicht "korrekt", sondern an den rechten Rand des Histogramms belichtet. Die korrekten Tonwerte werden in der Nachbearbeitung erreicht. Ein abgedunkeltes Bild rauscht weniger als ein unterbelichtes, das um eine Blende hochgezogen wurde. So einfach die Idee klingt, so steinig ist bisweilen die praktische Umsetzung. Um die Methode anwenden zu können, muß man sich auf das Histogramm der Kamera verlassen können. Leider zeigen (bis auf die digitale Filmkamera der Firma "red") alle handelsüblichen Digitalkameras das Histogramm immer auf der Basis des aktuellen Weißabgleichs an. Diese Histogramme sind daher für RAW-Aufnahmen unbrauchbar. Einen Ausweg bietet uni-wb, ein manipulierter Weißabgleich, bei dem die drei Farbkanäle mit dem Faktor eins multipliziert werden. Das Histogramm zeigt nun weitgehend das, was der Sensor aufgenommen hat. Dabei zeigt sich, dass bei den meisten Kameras und Tageslicht der grüne Kanal zuerst überbelichtet ist, der blaue zuletzt. Um den Sensor bestmöglich auszunutzen wird daher vorgeschlagen, mit einem Magenta-Korrekturfilter die Farbkanal-Histogramme wieder übereinander zu legen, um das Rauschen auf dem blauen und roten Kanal zu minimieren.

Gruß
Norbert
 
Zuletzt bearbeitet:
Mal eine Frage am Rande:

Wenn es in absehbarer Zeit nicht möglich ist, Sensoren zu bauen die auch bei ISO102400 :ugly: eine nahezu rauschfreie Aufnahme ermöglichen, warum baut man nicht einfach Kameras mit Wechselmodulen für den Sensor?

Ich stelle mir eine EOS 1D Mark X vor, die ein Sensormodul mit guten ISO100-3200 hat und ein zusätzlich erwerbares Modul mit ISO 6400-102400 :lol:

Somit könnte man verschiedene Sensoren fürverschiedene Situationen anbieten, ähnlich wie zu analogen Zeiten.

Denn, ich denke ein Markt für ISO102400ist definitiv da. Wenn ich darüber nachdenke, wie viele Lowlight-Situationen nur mit hohen Aufwand oder eben gar nicht fotografierbar sind.

Blitzlicht wäre vielleicht irgendwann mal völlig unnötig....

:)
 
ÄCHZZ

sorry.. ist nicht persönlich gemeint..
aber offenkundig hast du 2 Welten versucht auf einen Nenner zu bringen die jedoch zusammen nicht harmonieren wollen.. und ganz sicher auch nicht Physik studiert:o


Die Erste Unterscheidung muss der Technologie des Bildaufnehmenden Sensors gelten, da CCD und C-mos absolut NIXXXX miteinander gemein haben WIE jeweils aus Lichtsignalen ein auswertbares Signal wird

>..Der Signalgeber strahlt ja sein Signal in den meisten Fällen kugelförmig ab. Um 100% des Signals einzufangen, müssten wir also quasi ein kugelförmiges Objektiv um den Signalgeber herum bauen und das eingesammelte Licht wieder auf einen Brennpunkt fokussieren..<

Ein Kugelförmiges Objektiv um den Signalgeber herum :eek: in einer optischen Anwendung :confused: Ächzz

Konkret: du setzt hier als Signalgeber das Licht aus einem Objektiv und als Empfänger den .. wie auch immer gearteten Bildaufnehmenden Sensor voraus? Dann gibt es nur eine Antwort: Setzen 6.


>..Je mehr Photonen meine Quelle aussendet, umso einfacher kann ich davon ein Foto machen. Auch Photonen haben ein natürliches Rauschen. ..<
ÄCHZZ.. Bei allem Verständnis, aber es REICHT !!!
Das ist totaler Schwachfug!

Es wird zwar noch immer gestritten OB Photonen überhaupt Masse haben, was sie definitiv aber NICHT haben ist "ein natürliches Rauschen" :eek::confused:



>.. Leider kratzt man bei der Optik schon seit Jahrzehnten an den gleichen physikalischen Grenzen, darum hat es im Bezug auf Lichtstärke keinerlei Fortschritte mehr gegeben ..<
:confused: ÄCHZZ
Völliger SCHWACHFUG. Der Blick in ein Physikbuch, im Bereich Optik, hilft da wohl eher
UNd der Durchmesser der Einrtittspupille VS Abstand zum Bildaufnehmer wird üblicherweise zur "Ermittelung" der Lichtstärke herangezogen. Daher SIND !!! auch Objektve ala Nokton mit "Lichtstärke" 0,95 oder auch 0.5 produzierbar.. sofern irgendein Anbieter das will :o

Macht nur keiner mehr weil du daraus KEINEN wirklichen Nutzen ziehen kannst

>..dann wird der Sensor um den Faktor 8000 stärker beansprucht. ..<
ÄCHZ.. :o ich würde langsam mal sagen.. das Zeug was du rauchst.. lass es sein :rolleyes:

Gerd
P.S.: Das Stichwort Nyquist könnte dir weiterhelfen
 
Mal eine Frage am Rande:

Wenn es in absehbarer Zeit nicht möglich ist, Sensoren zu bauen die auch bei ISO102400 :ugly: eine nahezu rauschfreie Aufnahme ermöglichen, warum baut man nicht einfach Kameras mit Wechselmodulen für den Sensor?

Ich stelle mir eine EOS 1D Mark X vor, die ein Sensormodul mit guten ISO100-3200 hat und ein zusätzlich erwerbares Modul mit ISO 6400-102400 :lol:

Somit könnte man verschiedene Sensoren fürverschiedene Situationen anbieten, ähnlich wie zu analogen Zeiten.

Denn, ich denke ein Markt für ISO102400ist definitiv da. Wenn ich darüber nachdenke, wie viele Lowlight-Situationen nur mit hohen Aufwand oder eben gar nicht fotografierbar sind.

Blitzlicht wäre vielleicht irgendwann mal völlig unnötig....

:)

Schöner Gedanke.. nur macht da die Physik nicht mit

Die Anzahl "verbleibender statischtisch für das Bayerverfahren nutzbaren Photonen" setzt die Grenze.. deshalb sind ja ENDLICH BSI-Sensoren auf dem Weg, also eine Bildaufnehmertechnologie wo NICHT mehr wie bislang die Steuerelektronik direkt MITTEN "im Strahlengang" liegt und erhebliche Flächen auf der Sensorseite belegt.

Das ist schön, denn so kann "ein Teil!" der bisher nutzlos reflektierten Photonen Sensorseitig zur Nutzung kommen.

Aber auch nicht wirklich hilfreich, da die "verbleibende" Anzahl von eintreffenden Photonen pro Sensorzelle des Bildaufnehmers.,. bei High-ISO schlicht gering bleibt!

Sprich: Die Lichtmenge EV wird durch sensorseitige Massnahmen NICHT gesteigert!
Glas leer ist eben Glas leer :evil:

Allein mathematische Verfahren, die aus der Verteilung der Helligkeit und vorliegender Gradation den jeweiligen Sensorpixel anhand einer Wahrscheinlichkeitstabelle im Farbraum des farbblinden Sensors positionieren, sorgen aktuell für die hochgeliebten High-ISO-Leistungen.. zumindest bei jenen Anbietern die damit viiiele Jahre Erfahrung haben..

Und was das low-light-fotografieren angeht.. : BULB

LG
Gerd
 
@parOlandO:

Bei allem nötigen Respekt, aber deine difamierende Wortwahl geht so überhaupt nicht. Wenn hier einer nochmals die Schulbank drücken sollte, dann bist das du - um etwas Respekt zu lernen!

Wie ich schon im Eingangspost geschrieben habe, besitze ich keine umfassende und detaillierte Kenntnis über Optik und Sensortechnik. Alles was ich darüber weiss habe ich im Verlauf meiner Fotografenkarriere zusammengetragen. Darum habe ich auch um Ergänzungen und Korrekturen gebeten. Mir bloss sagen wie dumm und unwissend ich bin, hilft Niemandem hier weiter! Wenn du schon so klug bist, dann kannst du ja beschreiben, wie es wirklich ist.


Und ja: Photonen besitzen sehr wohl ein natürliches Rauschen. Natürlich nicht das einzelne Photon. Aber da Photonen den Gesetzen der Quantenphysik gehorchen, werden sie zufällig in eine bestimmte Richtung emmitiert. Wohin das einzelne Photon genau gelangen wird, ist nicht deterministisch. Sobald aber Zufall im Spiel ist, müssen wir auch von Rauschen reden. Selbstverständlich wird dieses natürliche Rauschen schon durch die schiere Menge an Photonen (auch bei schlechtem Licht) herausgemittelt.
 
Ich vermisse im Eingangsposting einen Hinweis auf "exposure to the right". Die dahinter stehende Idee besteht darin, den Signal-Rauschverhältnis des jeweiligen Sensors optimal auszunutzen, indem man nicht "korrekt", sondern an den rechten Rand des Histogramms belichtet. Die korrekten Tonwerte werden in der Nachbearbeitung erreicht. Ein abgedunkeltes Bild rauscht weniger als ein unterbelichtes, das um eine Blende hochgezogen wurde.

Gruß
Norbert

Leider steckt hier ein praktischer Denkfehler drin:

Das funktioniert zwar so bei niedrigster Iso-Einstellung und ausreichend Licht - aber da ist Rauschen und Rauschabstand eh im grünen Bereich und kein wirkliches Thema.

Und bei höheren ISO hab ich diese Wahl garnicht: Ich nehme ja nur deshalb z.B. 800asa, weil ich nicht anders auf die beispielsweise nötige 1/125s + f2,0 komme. Wollte ich die jetzt an den rechten Histogrammrand setzen, müßte ich aber auf 1.600asa gehen und pullen.

Das bringt rauschtechnisch garnix. Die Unterschiede zwischen überbelichten und pullen zu unterbelichten und pushen sind in Rauschhinsicht zu vernachlässigen.

Gruß messi
 
@parOlandO:

Bei allem nötigen Respekt, aber deine difamierende Wortwahl geht so überhaupt nicht. Wenn hier einer nochmals die Schulbank drücken sollte, dann bist das du - um etwas Respekt zu lernen!

Wie ich schon im Eingangspost geschrieben habe, besitze ich keine umfassende und detaillierte Kenntnis über Optik und Sensortechnik. Alles was ich darüber weiss habe ich im Verlauf meiner Fotografenkarriere zusammengetragen. Darum habe ich auch um Ergänzungen und Korrekturen gebeten. Mir bloss sagen wie dumm und unwissend ich bin, hilft Niemandem hier weiter! Wenn du schon so klug bist, dann kannst du ja beschreiben, wie es wirklich ist.


Und ja: Photonen besitzen sehr wohl ein natürliches Rauschen. Natürlich nicht das einzelne Photon. Aber da Photonen den Gesetzen der Quantenphysik gehorchen, werden sie zufällig in eine bestimmte Richtung emmitiert. Wohin das einzelne Photon genau gelangen wird, ist nicht deterministisch. Sobald aber Zufall im Spiel ist, müssen wir auch von Rauschen reden. Selbstverständlich wird dieses natürliche Rauschen schon durch die schiere Menge an Photonen (auch bei schlechtem Licht) herausgemittelt.

Diffamierende Wortwahl??? :confused:

Manno..
wenn jemand sich jemand .. der es wie du wohl eigentlich gut meint hat.. aber HAHNEBÜCHENER Unsinn dank völlig falsch verstandener Ableitung rauskommt.. und jemand wie ich.. der auch nicht alles weis!, aber u.a. hier von berufs wegen schon den Sachverstand hat .. so etwas liest..

.. dann gibt es eben nicht viele Möglichkeiten ..:
KLAPPE halten.. und unbedarfte Leser sich "infizieren" lassen .. oder Stellung beziehen!

Und ich habe dich NICHT !!! eiskalt auflaufen lassen, was einfach gewesen wäre!:grumble::(


Du magst vom Funkbreitband Sachverstand haben, aber daraus "falsche" Schlüsse abzuleiten indem deine Verständniswelt auf digitale Bildaufnehmersysteme abgeleitet wird.. ist SO wie von dir vorgetragen schlicht Unsinn.

Auch was das "Rauschen" betrifft..
Mir sind zwar 2 Artikel bekannt, die du evtl. zum "Photonenrauschen" heranziehst.. aber das ändert NIXX daran das diese Aussage mit Bezug auf unsere Welt digitaler Bildaufnehmersysteme totaler Schwachfug ist:(

Das würde ich auch vor jedem Gericht bestätigt bekommen, wie gesagt, ich mache auch im Gegensatz zu dir ! kein Geheimnis daraus wer ich bin! , bilde mir aber auch auf diesen Status nixx ! ein weil ich trotz allem täglich dazu lerne !!!

Aber.. solcher Unsinn ! soll sich doch bitte nicht "unnötig" .. so gut du es auch gemeint hast.. in den Köpfen jener User manifestieren die "genau wie DU AUCH ! woanders" ihre Kompetenzen haben.

Du HAST wohl versucht Analogien herzustellen.. die aber SOOO nicht funktionieren.. weil es völlig verschiedene Welten der Physik sind.. weshalb auch klar ist das du diesen Studienweg nicht absolviert haben kannst! Gell?

Und -- Rauschen -- !!! NICHT !!! im Amateurfunkbereich!!! sondern im Bildaufnehmerbereich... :o ist zuallererst eine Abweichung im gewollten !!! Messbereich eines Bildaufnehmers.

An den Datenleitungen des Bildaufnehmers wird nunmal eine bekannte REFERENZSPANNUNG ! angelegt.. und die tatsächliche resultierende Spannung nach Photonenbeschusss (Klick) in dieses Harmonie-Schema gepresst.

Vereinfacht ausgedrückt lässt sich sagen: Der Unterschied !!! zwischen der "bekannten!" Referenzspannung im Ausgangssignal und der Sensorseitigen Abweichung durch "Einfall von Photonen" ist mein Signal samt Amplitude.

Dies wird nun auf das Korsett von 250 bzw. 256 Abstufungen zurückgerechnet.

Dessen Hauptproblem ist und bleibt für immer ! der existente Kontrastumfang der Realität der durchaus schonmal 1:100000000000 beträgt. Beim Übertrag als Sensorauswertung kann natürlich NUR ein begrenzter Teil davon zur Bildaufbereitung herangezogen werden... in einem von zumeist nur 250 bis 256 = 16bit :o

Es muss ! also ähnlich wie bei dem Fraunhofer MP3-Verfahren beim Schall; durch "gezieltes weglassen" von kontrastreichen Details das Auge sooo betrogen werden, das der verbleibenden Rest "harmonisch" wirkt.
(Liegt keine oder eine geringe Spannung an, dann ist dies nur scheinbar... KEINE Spannung, !!! weil auch 0,000334 (Beispiel) sich irgendwann subsummiert und bemerkbar macht.

Auf dem Sensor selbst werden diese Verlustströme als sogenanntes "dunkelrauschen" wahrnehmbar WEIL dies eine Abweichung zur Referenzspannung ist! Und je höher die ISO-Stellung geht, desto grösser ist die "Signalverschmutzung" durch Dunkelströme und weitere Einflüsse.. was wir als RAUSCHEN bezeichnen.


Liegt das Eingangssignal "darüber" .. bleibt nach der Auswertung ein ......... Rest..... Rauschen.. der Einfluss auf die BQ nimmt. = Farbrauschen !!!
Ist das Eingangssignal jedoch UNTER 250 oder 256 bit Vergleichswert... dann kommt die Referenzspannung selber bei steigender Empfindlichkeit als Störer ins Spiel und produziert Signale .. ungewollt.. die als Helligkeitsrauschen interpretiert werden.

Wie schon in etlichen Beiträgen gesgt.. das Bildgebende Verfahren nach Bayer ist zwar primitiv.. aber effektiv

Was aber nixx daran ändert, das JEDES ! Photon, das auf von dem Lichtsensitiven Senor der Kamera in die Messung aufgenommen wird.. zu 100% NICHT zum Rauschen beiträgt!! weil dessen Frequenz sich NICHT im Bildgebenden Bereich erkennbar auswirkt.

Es gibt hier kein "natürliches" Rauschen von Photonen.


Think about
Gerd
 
2. Zwischen den lichtempfindlichen Punkten auf den Sensoren gibt es immer noch unempfindliche Bereiche. Je mehr Pixel auf einem Sensor sind, umso grösser fällt die Gesamtfläche dieser nicht empfindlichen Bereiche aus. Dieser Umstand dürfte sogar der entscheidenste Unterschied in der Rauscharmut von aktuellen Kamerasensoren sein, denn daran können die Sensorhersteller momentan am ehesten etwas verbessern.

Dieses Problem ist als Füllfaktor oder fill factor geläufig, womit der Anteil der tatsächlich lichtempfindlichen Sensorfläche gemeint ist.
Naturgemäß hängt es stark von der Pixelgröße ab und damit vom Sensorformat.

Es ist auch schon recht gut gelöst: Mikrolinsen. Diese bündeln das einfallende Licht auf die aktiven Pixelbereiche.


Für ein weitaus(!) größeres praktisches Problem als Rauschen halte ich übrigens den Dynamikumfang. Auf Hardwareebene gab es dazu auch schon Ansätze mit einer Kombination von unterschiedlich empfindlichen Pixeln, derzeit scheint der Weg aber - wesentlich weniger elegant - zu In-Camera-DRI zu gehen.
 
Kurze Frage: Warum bleibt man hinsichtlich der Dynamik im 16 Bit-Raum und erweitert ihn nicht auf 32-Bit? Vermutlich die Koster der Gesamtverarbeitungskette vom Sensor bis zum fertigen Bild?
 
Kurze Frage: Warum bleibt man hinsichtlich der Dynamik im 16 Bit-Raum und erweitert ihn nicht auf 32-Bit? Vermutlich die Koster der Gesamtverarbeitungskette vom Sensor bis zum fertigen Bild?

Der Dynamikumfang hat nichts mit der Bittiefe zu tun. Jedes zusätzliche Bit an Informationen kostet bloss zusätzlichen Speicherplatz und braucht etwas mehr Rechenleistung. Mit 32bit würde man vor allem noch mehr Rauschen sehen können :rolleyes:.
 
Kurze Frage: Warum bleibt man hinsichtlich der Dynamik im 16 Bit-Raum und erweitert ihn nicht auf 32-Bit? Vermutlich die Koster der Gesamtverarbeitungskette vom Sensor bis zum fertigen Bild?

Weil an beiden Enden der Bildgebungskette (sprich Sensor am Anfang und Monitor/Ausbelichtung am Ende) zurzeit deutlich weniger als 16Bit an Informationstiefe vorhanden sind. Man muss ein Bild schon ganz schon stark malträtieren in der EBV, damit man mit einem 12 oder 14Bit Raw an die Grenzen eines 16Bit Workflow kommt.

Der nächste konsequente Schritt wäre auch nicht 24 oder 32Bit, sondern Umstellung auf Fießkommazahlen. Das passt zur nichtlinearen Dynamik deutlich besser. HDR-Bilder werden ja schon so gespeichert und für die gibt es auch kein (mir bekanntes) Ausgabemedium.


Mit dem Thema dieses Thread hat das aber eigentlich nix mehr zu tun..

Oh, zu langsam ;)
 
Dies wird nun auf das Korsett von 250 bzw. 256 Abstufungen zurückgerechnet.

Dessen Hauptproblem ist und bleibt für immer ! der existente Kontrastumfang der Realität der durchaus schonmal 1:100000000000 beträgt. Beim Übertrag als Sensorauswertung kann natürlich NUR ein begrenzter Teil davon zur Bildaufbereitung herangezogen werden... in einem von zumeist nur 250 bis 256 = 16bit :o


Ist das Eingangssignal jedoch UNTER 250 oder 256 bit

hink about
Gerd

Weißt Du eigentlich was "bit" bedeutet?
Wenn man digitaltechnisch so im Glashaus sitzt sollte man nicht mit Steinen werfen!

Mit 1 bit lassen sich 2 Zustände (typisch: Schalter ist ein oder aus) darstellen.
Mit 8 bit lassen sich 256
mit 12 bit lassen sich 4096 und
mit 14 bit lassen sich 16384 Zustäde darstellen.

Diese Zustände können nun einer physikalischen Größe entsprechen, wie z. B. elektrische Spannung bei einem Digitalvoltmeter.
Was hat das mit dem Sensor in einer DSLR zu tun?
Die Sensorchips geben meist eine Spannung aus, die nach Analogdigitalkonvetrierung (ADC ein zweiter Chip) die Helligkeit der Pixel darstellt. Es gibt aber auch schon Sensoren, die die ADC(s) am selben Chip vereinigt haben.
Soweit ich die DSLRs kenne haben die ADCs eine Auflösung von 12 bits. Die Highend Kameras haben auch 14 bit Auflösung. Das heißt also jedes Pixel kann (theoretisch) 4096 oder 16384 Helligkeitsabstufungen erkennen. Wobei es beim Bayersensor üblicherweise 1 blaues, 1 rotes und 2 grüne Pixel gibt.
Diese Daten werden in den RAW-Dateien von der Kamera gespeichert.
Die jpg-Dateien haben aber laut jpg-Definition nur eine Auflösung von 8 bit, also können nur mehr 256 Helligkeitsstufen pro Farbe abbilden. Die Umrechnung von 12 (14) bit auf 8 bit in der Kamera erfolgt dann auf recht komplizierte Weise und kann von den diversen Einstellungen an der Kamera (z. B. Motivprogramme) beeinflußt werden.

Das hat jetzt direkt nichts mit dem Rauschen zu tun, aber eine Klarstellung lag mir am Herzen.
 
...
Was aber nixx daran ändert, das JEDES ! Photon, das auf von dem Lichtsensitiven Senor der Kamera in die Messung aufgenommen wird.. zu 100% NICHT zum Rauschen beiträgt!! weil dessen Frequenz sich NICHT im Bildgebenden Bereich erkennbar auswirkt.

Es gibt hier kein "natürliches" Rauschen von Photonen.
...

Ähmm ...
Dir sagt der Begriff "Schwarzer Strahler" und die Person Max Planck etwas?
Ich bin mir sehr sicher, dass dmkdmkdmk darauf hinaus wollte.


criz.
 
:D Und auf einmal beschränkt die Beugung den Nutzbereich.. Wenn bei f2.8 Schluß ist, dann kann man damit eh nur noch bei Nacht fotografieren, tagsüber dann wohl nur bei 1/2.000s.

mfg chmee
 
Klingt spannend. Was man da wohl für ein Objektiv dafür braucht?
340mm wäre etwa die Normalbrennweite bezogen auf den diagonalen Bildwinkel :D

Ist halt aber auch sau teuer. Ein 12" Wafer Rohling kostet so $1000.
Auf die alten 8" Wafer haben ca. 200 APS-C Sensoren Platz, aber z.B. nur 20 VF-Sensoren.
 
Zuletzt bearbeitet:
Freihand fotografieren geht da wahrscheinlich nicht mehr - es reisst einem die Cam wohl aus der Hand, wenn der Spiegel hochklappt.
 
WERBUNG
Zurück
Oben Unten