• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Juli 2025.
    Thema: "Unscharf"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juli-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang bei Digitalkameras

Das menschliche Auge braucht aber, um sich verschiedenen Lichtbedingungen anzupassen, viel länger als es dauert 10 Bilder zu machen (komplette Dunkel-Adaption dauert ~20min, danach auf hell dauert wieder ein paar min, kennt man ja beim Aufstehen früh morgens).

Da ist die Kamera dann doch schon etwas besser. Die Iris erhöht den Dynamikumfang auch nicht, sondern verschiebt den Bereich nur (guckt man auf zB. einen hellen Monitor mit dunklem Hintergrund sieht man peripher nix mehr, weil die Iris den dunklen Hintergrund noch weiter abschwächt). Von daher ist die Iris nix anderes als die Blendeneinstellung an der Kamera (ist ja auch nur ne Blende).


Das jedes Pixel an die Kamera meldet wenn es voll ist funktioniert auch nicht. Naja würde schon, aber es ist nicht praktikabel. Ein Pixel besteht aus einem kleinen Elektronentopf, mehr nicht. Wollte man das realisieren müsste man an jeden Pixel einen Ausleseverstärker flanschen, einen Komparator zur Voll-Erkennung, und einen Timer der die Zeit zählt. Das ist schlicht nicht machbar.


Besser machbar wäre es, bei 1s Belichtungszeit 10 Bilder mit aufsteigender Belichtungszeit aufzunehmen (zB. 1/128s, 1/64s, 1/32s usw.), aber da schlägt das nächste Problem zu, der Verschluss müsste ja auch 10mal betätigt werden.

Es gibt CCDs mit optischem Verschluss (entweder existiert für jeden Pixel ein gegen Licht abgeschirmter 2. Pixel in den die Ladung verschoben wird vor'm Auslesen, oder sowas ähnliches wie ein LCD, der dann kurz dicht macht), da könnte man das auch so machen.
Astroaufnahmen (deepsky) werden gemacht indem man mehrere Bilder selber Belichtungszeit übereinander legt. Das macht man aber weniger wegen der Dynamik, sondern mehr wegen dem Rauschen in dunklen Bereichen (daher stuft man die Zeiten auch nicht ab).

Die Varianten mit optischer Blende haben aber beide Nachteile die man bei einer Kamera nicht will (abgedunkelte Pixel brauchen Platz, das gibt dann lauter "Fehlpixel", die LCD Lösungen verdunkeln nicht komplett, was bei sehr hellen Lichtquellen (zB. Sonne) auffällt).


Bei festem SNR setzen die 256 Farbstufen übrigens sehr wohl ein Dynamik-Limit.
 
Ähm, benötigt man zum speichern einer entsprechend hohen Dynamik nicht mehr dieser Abstufungen da sonst "alles zwischendrin" zu wenig Abstufungen hat -> Banding? Und, ergibt sich der Dynamikbereich und somit der Umfang nicht aus dem Bereich den man von "min-zu-max" (Clipping zu Schwarz bis Clipping zu Weiß) einfangen/speichern kann? Beispiel, bei 8bit ist der maximale Dynamikumfang 256:1 (256 Abstufungen von Schwarz zu Weiß), bei 4 bit nur noch 16:1, etc. oder nicht
Ähm - Vorsicht. Hier werden mir zwei unterschiedliche Größen etwas zu sehr in einen Topf geworfen...

Der Dynamikumfang spiegelt das vom Sensor physikalisch maximal umsetzbare / darstellbare Kontrast-Verhältnis von hellen zu dunklen Bildteilen wieder. Dieser Dynamikumfang ist auch bei den neuesten Digitalkameras nach wie vor begrenzt, genau wie früher zu "analogen" Zeiten das Filmmaterial nur einen bestimmten Kontrastumfang wiedergeben konnte. Die zweite Größe ist die Auflösung, die angibt, wie detailliert dieser 'Absolutbereich' intern gespeichert und wiedergegeben werden kann. Eine höhere Auflösung (z.B. 12 Bit statt 10 Bit) erlaubt es, feinere Abstufungen zu unterscheiden - ändert dabei aber nichts am Gesamtumfang der Dynamik.

Anders gesagt: Wenn ich den Kuchen in 16 Stücke schneide (4 Bit) statt in 8 (3 Bit), kann ich die Portionen vielleicht besser/genauer verteilen. Der Kuchen wird davon aber nicht größer. :D

Gruß, Graukater
 
Die erste Aussage ist nur zum Teil richtig, die zweite ganz eindeutig falsch! Als Augenarzt darf ich dich darüber informieren, dass der hohe Dynamikbereich des menschlichen Auges eben nicht nur durch die Pupillenweite (Blendenöffnung) bestimmt wird, sondern insbesondere über die Netzhautempfindlichkeit (Sensordynamikumfang)...
Adaption nennt sich das, richtig? Ist schon erstaunlich wie gut man doch im Dunklen sehen kann wenn man erstmal 5-10 Min. drin verbracht hat! Übrigens, ich hab noch ein paar Fragen die mir schon seit langem unter den Nägeln brennen, und du als Fotografie interessierter Augenarzt kannst sie mir vielleicht beantworten...

1. Ist es normal dass ich im Dunklen sehr starkes Rauschen (hauptsächlich Blau) wahrnehme, und liegt das eventuell an dieser Adaption des Auges? Handelt es sich dabei um eine Signalverstärkung ähnlich wie bei CCDs/CMOS Sensoren wenn man die ISO hoch dreht?

2. Wenn ich im Dunkeln eine Zigarette mit mittlerer Geschwindigkeit vor mir bewege sehe ich eine "blaue Geisterglut" die die eigentliche Glut etwas zeit verzögert verfolgt, hier ein Bild zum verdeutlichen... Ist das normal? Wie kann man diesen Effekt erklären? Nehmen meine blauen Rezeptoren im Dunkeln alles zeit versetzt wahr? Warum? Hat das auch was mit der Adaption zu tun (denn ich sehs nur im Dunkeln, und es ist blau wie das zuvor erwähnte Rauschen)
 
Ähm - Vorsicht. Hier werden mir zwei unterschiedliche Größen etwas zu sehr in einen Topf geworfen...

Der Dynamikumfang spiegelt das vom Sensor physikalisch maximal umsetzbare / darstellbare Kontrast-Verhältnis von hellen zu dunklen Bildteilen wieder. Dieser Dynamikumfang ist auch bei den neuesten Digitalkameras nach wie vor begrenzt, genau wie früher zu "analogen" Zeiten das Filmmaterial nur einen bestimmten Kontrastumfang wiedergeben konnte. Die zweite Größe ist die Auflösung, die angibt, wie detailliert dieser 'Absolutbereich' intern gespeichert und wiedergegeben werden kann. Eine höhere Auflösung (z.B. 12 Bit statt 10 Bit) erlaubt es, feinere Abstufungen zu unterscheiden - ändert dabei aber nichts am Gesamtumfang der Dynamik.

Anders gesagt: Wenn ich den Kuchen in 16 Stücke schneide (4 Bit) statt in 8 (3 Bit), kann ich die Portionen vielleicht besser/genauer verteilen. Der Kuchen wird davon aber nicht größer. :D

Gruß, Graukater
Du meinst also die Kapazität an Dynamik die der Sensor einfangen kann, nicht die Kapazität an Dynamik die er "verstehen" und wandeln kann. Also quasi den Teig woraus der Kuchen am Ende gebacken wird, nicht den Kuchen selber. Damit hab ich allerdings Verständnis-schwierigkeiten, trotz deines schönen Beispiels... Um beim Kuchen zu bleiben: Hängt die Größe des Kuchens nicht von der Anzahl der zu erwartenden Gäste ab? Oder fehlt es im Vorhinein an genügend Zutaten? Sprich, auch mit einem 48bit Sensor wäre das Verhältnis von minimaler und maximaler Helligkeit nicht größer, nur feiner abgestuft? Hängt nicht beides irgendwie zusammen? Ich mein, an dem Punkt wo die Kamera den Analogen Input zu einem Signal wandeln muss das zwischen Weiß und Schwarz liegt, trifft sie diese Entscheidung doch bestimmt unter Berücksichtigung der möglichen Abstufungen dazwischen (Bit-tiefe) und beschneidet die mögliche Dynamik des Eingangssignals dementsprechend, oder nicht? :/
 
Hängt nicht beides irgendwie zusammen? Ich mein, an dem Punkt wo die Kamera den Analogen Input zu einem Signal wandeln muss das zwischen Weiß und Schwarz liegt, trifft sie diese Entscheidung doch bestimmt unter Berücksichtigung der möglichen Abstufungen dazwischen (Bit-tiefe) und beschneidet die mögliche Dynamik des Eingangssignals dementsprechend, oder nicht? :/
Das wäre in der Tat ziemlich cool und der eierlegende Wollmich-Sensor :lol:. Leider funktioniert es so nicht. Die mögliche Dynamik ist in der Tat begrenzt - nach oben hin halt durch 'Vollausschlag' des Sensors bei einer wie auch immer gearteten Eingangsgröße (in Analogie zum klassischen Filmmaterial: Lichter 'fressen aus'), nach unten hin durch die minimale Empfindlichkeit / das Rauschen des Sensors (Abstand Nutz- zu Stör-Signal, analog zum 'Absaufen' von Details in den Schatten). Diese Grenzen lassen sich nicht nach Belieben verschieben, beispielsweise wirkt eine Verstärkung immer auf Bildsignal und Rauschen zugleich. Je nach Technik ist Überbelichtung ebenfalls kritisch (z.B. "Blooming" bei CCD-Sensoren).

Sprich, auch mit einem 48bit Sensor wäre das Verhältnis von minimaler und maximaler Helligkeit nicht größer, nur feiner abgestuft?
Im Wesentlichen läuft es darauf hinaus, ja. Das ist ein altes Problem der Fotografie, dass sich der in der Natur vorkommende Dynamikumfang vom schwachen Mondlicht bis hin zu grellem Sonnenlicht (das bei direkter Betrachtung ohne den Lidschlußreflex sogar zur Erblindung führen würde) einfach technisch nicht vollständig 'einfangen' lässt (zumindest bislang, auch wenn es gewisse Trends in diese Richtung gibt, z.B. HDRC). Eine Kunst in der Fotografie besteht ja darin, das verfügbare 'Dynamikfenster' so zu legen, dass alle für den Fotografen wichtigen Motivteile noch 'korrekt' wiedergegeben werden können. (vgl. z.B. "Zonensystem")

Damit hab ich allerdings Verständnis-schwierigkeiten, trotz deines schönen Beispiels... Um beim Kuchen zu bleiben: Hängt die Größe des Kuchens nicht von der Anzahl der zu erwartenden Gäste ab? Oder fehlt es im Vorhinein an genügend Zutaten?
Gut, bleiben wir mal bei diesem Bild. :cool: Irgendwann ist halt mit der Größe des Kuchens Schluß - spätestens dann, wenn er nicht mehr in den Backofen passt. Falls es dann nicht für alle Gäste reicht, bleibt Dir nur eins: ein weiterer (separat gebackener) Kuchen muss her, vielleicht sogar mit einem anderen Teig, um für mehr Abwechslung zu sorgen - und es allen Geschmäckern recht zu machen.

Wieder zurück zur Fotografie wären wir dann bei den HDR-Techniken: Man macht mehrere Aufnahmen mit unterschiedlicher Belichtung (Belichtungsreihen). Dabei nimmt man bewußt in Kauf, das gewisse Bildteile bei den einzelnen Bildern außerhalb des darstellbaren Dynamikbereiches liegen. Der Trick ist, durch das (rechnerische) Kombinieren der einzelnen Aufnahmen mit ihren jeweiligen Dynamikfenstern letztlich ein Resultat zu erzeugen, das dann eine größere Dynamik beinhaltet als es mit einer einzigen Aufnahme möglich gewesen wäre. (So groß, dass sie für die gängigen Ausgabe-Medien wie Bildschirm und Papierabzug schon wieder zu viel des Guten ist, und man zu Tricks greifen muss, um sie überhaupt sinnvoll darstellen zu können -> "Tone Mapping".)

Gruß, Graukater
 
Ok, das ist schon verständlicher... Also sprechen wir bei der Dynamik die ein Sensor erzielen kann von dem Bereich zwischen "SNR zu schlecht" (zu viel Rauschen) und "Sensor ist überladen" (Weiß Clipping). Da kann ich sogar Parallelen zur digitalen Bild/Video-Verarbeitung ziehen... Danke für die Erklärung! Wie sieht es denn mit dem Verhältnis zwischen zur Zeit benutzter Bittiefe der Kameras, und der Dynamik die die Sensoren aufnehmen können? Wird man nicht die Bittiefe anpassen müssen wenn die mögliche Dynamik der Sensoren z.B. in Zukunft ansteigt um somit gleichwertig feine Abstufungen zu gewährleisten?

P.S. Jetzt erstmal n Stück Kuchen, lesen macht hungrig!
 
Es sind ja zwei Vorgänge, die quasi-parallel ablaufen, die man für diesen Fall aber doch ein Stück weit getrennt betrachten kann:

Zum einen wäre da die Wandlung des Eingangssignals (Licht) in eine elektrische Messgröße (das Ausgabesignal des Sensors). Diese Wandlung hat Grenzen und definiert letztlich den Dynamikumfang. Soweit ich weiß, liegt dieser bei aktuellen Digitalkameras unter optimalen Bedingungen in etwa auf vergleichbarem Niveau wie bei herkömmlichen Negativfilm - gehen wir mal von D max von 3,5 aus (Kontrast etwa 1:3200), so entspräche das 11,6 Blendenstufen und damit auch ca. 12 Bit.

Zum anderen erfolgt dann die Quantisierung dieses zunächst noch analogen Signals mit der verfügbaren Auflösung (Anzahl Bits). Die Bit-Tiefe legt hier letztlich fest, wie fein/genau die Ursprungsgröße digital wiedergegeben und weiterverarbeitet werden kann.

Nun hat es schon beim Übergang von 12 Bit zu 14 Bit genügend Diskussionen darüber gegeben, in wie weit die zusätzliche Auflösung überhaupt in der Praxis sicht- bzw. verwertbare Vorteile bringt, oder ob dort 'unten' letztlich nur noch Meßungenauigkeiten/Rauschen drinsteckt. :o Ich sehe auch keine größere Schwierigkeit darin, hier bei Bedarf z.B. auf 16 Bit-A/D-Wandler aufzustocken - derzeit ist damit nur Nichts zu gewinnen, also wird es aus Kostengründen auch nicht gemacht.

Die eigentliche Herausforderung ist m.E. eher, den Sensor selber für die Wiedergabe einer größeren Dynamik auszulegen (und zwar ohne dass darunter andere relevante Parameter wie z.B. die Farbwiedergabe leiden), so dass sich eine höhere Auflösung des Ausgabesignals auch wieder rentieren würde. 'Nach oben hin' würden die angesprochenen zwei Bit mehr rechnerisch immerhin auch 2 Blendenstufen zusätzlichem Dynamikumfang entsprechen - sofern der Sensor sie eben 'hergibt'... ;)

Gruß, Graukater
 
Ähm, benötigt man zum speichern einer entsprechend hohen Dynamik nicht mehr dieser Abstufungen da sonst "alles zwischendrin" zu wenig Abstufungen hat?
Schon, den ganzen Dynamikbereich nur durch 1 Bit zu beschreiben ist mit üblicher Fototechnik nicht sehr sinnvoll. Die sinnvolle Bittiefe bemisst sich eher danach, wie groß die Full-Well-Kapazität der Sensorelemente ist. Ohne Tricks wie Elektronenvervielfachung kann so ein Sensorelement höchstens so viele verschiedene Zustände repräsentieren, wie es Elektronen aufnehmen kann. Bei üblichen Full-Well-Kapazitäten sind 16 Bit ausreichend. Unter Berücksichtigung des unvermeidlichen Rauschens, sprich Meßungenauigkeiten, sind auch 14 Bit nicht zuwenig.

Man sollte auch nicht glauben, daß für größere Dynamikumfänge erheblich mehr Bits zur sauberen Darstellung benötigt werden. Das physiologische Sehvermögen hat eher logarithmischen Verlauf, so daß für immer größere Meßwerte immer weniger genau gearbeitet werden muß. Durch einen sehr ähnlichen Effekt, nämlich die Sättigung, erreicht man bei Filmen die große Unempfindlichkeit gegen Ausbrennen.

Bevor man über exotische Sensortechniken nachdenkt um den linearen Dynamikumfang zu erweiteren, kann man erstmal probieren, was so alles in den Tiefen aktueller DSLR Ausnahmen steckt. Biasframe-Abzug, leichtes Angleichen benachbarter Pixelwerte, Rücknahme der Sättigung in den Schatten bringt einen schon sehr weit, viel weiter als alle Ausgabemedien.
 
Sage ich doch: Die Anzahl der Stufen ist nicht so wichtig, sofern man keine Stufen sieht.
Ok, darauf können wir uns einigen. Da habe ich Dich wohl falsch interpretiert.
Meine Aussage:
Ich denke, es hängt auch mit der 8-Bit-Farbtiefe zusammen, die die Monitore anzeigen können.
Deine Aussage:
Monitore liegen bei bestenfalls 1:300. Das sind gerade mal 8 Blendenstufen [...]
Ja, und die Aussagen haben nichts miteinander zu tun! Eine Blendenstufe bedeutet doppelt so viel Licht. Ein Bit mehr bedeutet zwar eine Verdopplung eines darstellbaren numerischen Wertebereichs, sagt aber gar nichts über Lichtmengen aus. Einen Konstrastumfang von 1:300 kann ich mit 8 Bits darstellen, aber auch mit 2,3,6 oder 60. Besser ist es, den Wertebereich einer n-Bit Zahl als den Bereich von [0-1) zu verstehen, in 2^n Schritte geteilt.
 
Zum einen wäre da die Wandlung des Eingangssignals (Licht) in eine elektrische Messgröße (das Ausgabesignal des Sensors). Diese Wandlung hat Grenzen und definiert letztlich den Dynamikumfang. Soweit ich weiß, liegt dieser bei aktuellen Digitalkameras unter optimalen Bedingungen in etwa auf vergleichbarem Niveau wie bei herkömmlichen Negativfilm - gehen wir mal von D max von 3,5 aus (Kontrast etwa 1:3200), so entspräche das 11,6 Blendenstufen und damit auch ca. 12 Bit.
Drei Fehler:
D_max hat nicht viel mit der maximalen Dynamik eines Films zu tun.
Normale niederempfindliche Negativfilme kommen auf reichlich 10 Blendenstufen, wobei dann die hellen Bildbereiche schon ziemlich verrauscht sind (während sie bei Digitalen Sensoren extrem sauber sind).
Bittiefe hat weiterhin auch nicht so viel mit der maximal möglichen Dynamik zu tun, da spielen selbst bei idealen Wandlern die Auflösung und die Art der Wandlung eine Rolle.

Und so geht das weiter ...
Die ganze Diskussion besteht im wesentlichen aus Fehlern oder zumindest aus schmerzenden Viertelwahrheiten.
 
Ja, und die Aussagen haben nichts miteinander zu tun! Eine Blendenstufe bedeutet doppelt so viel Licht. Ein Bit mehr bedeutet zwar eine Verdopplung eines darstellbaren numerischen Wertebereichs, sagt aber gar nichts über Lichtmengen aus. Einen Konstrastumfang von 1:300 kann ich mit 8 Bits darstellen, aber auch mit 2,3,6 oder 60. Besser ist es, den Wertebereich einer n-Bit Zahl als den Bereich von [0-1) zu verstehen, in 2^n Schritte geteilt.
Ja, verstehe. Praktisch ist es dann so, dass ein Monitor mit geringem Kontrastumfang feinere Übergänge darstellt als einer mit einem extrem hohen Umfang. Angenommen der läge bei 1:1.000.000, dann würde ich Abstufungen zwischen den läppischen 256 Helligkeitsstufen eines JPEGs sehen, da die Schritte von Stufe zu Stufe sehr groß sein müssten um zwischen dem "Tiefschwarz" und "extrem hell" dieses fiktiven Monitors gespreizt zu werden. Insofern wären mehr Bits notwendig um wieder so feine Stufen hinzukriegen, dass mein keine Abstufungen sieht. Aber so kontrastreiche Monitore gibt es ja noch nicht. Auf die Gefahr hin, mich zu wiederholen: Hätten wir kontrastreichere Monitore, könnte man die 12 oder 14 Bit, die eine Kamera ja bereits einfangen kann, über diesen Bereich (tiefschwarz bis leuchtend hell) so verteilen, dass man gerade keine Abstufungen erkennt.
 
Zuletzt bearbeitet:
1. Ist es normal dass ich im Dunklen sehr starkes Rauschen (hauptsächlich Blau) wahrnehme, und liegt das eventuell an dieser Adaption des Auges? Handelt es sich dabei um eine Signalverstärkung ähnlich wie bei CCDs/CMOS Sensoren wenn man die ISO hoch dreht?)

Die gezielte Wahrnehmung von Rauschen ist sicherlich nicht normal. Tatsache ist, dass in Dämmerung/Dunkelheit die Funktion der Netzhautzapfen (Farbwahrnehmung) immer weiter runtergefahren wird. Das heisst, man sieht hauptsächlich mit den Stäbchen (Helligkeitswahrnehmung). Und die haben eben andere Eigenschaften als Zapfen. Dadurch sieht man schon "anders", als bei Helligkeit. Wenn du dies als Rauschen bezeichnen willst - bitte schön!

2. Wenn ich im Dunkeln eine Zigarette mit mittlerer Geschwindigkeit vor mir bewege sehe ich eine "blaue Geisterglut" die die eigentliche Glut etwas zeit verzögert verfolgt, hier ein Bild zum verdeutlichen... Ist das normal?

... Rauchen schadet eben doch der Gesundheit! ;)

Zurück zum Thema: habt ihr HIER schon mal einen Blick draufgeworfen? Es gibt nämlich das alles schon, worüber hier spekuliert wird!
 
Zuletzt bearbeitet:
Die gezielte Wahrnehmung von Rauschen ist sicherlich nicht normal...
Nicht gezielt, es ist halt einfach da wenn ich einige Zeit in Dunkelheit verbracht hab, so wie auf Fotos/Videos mit hoher ISO...

Tatsache ist, dass in Dämmerung/Dunkelheit die Funktion der Netzhautzapfen (Farbwahrnehmung) immer weiter runtergefahren wird. Das heisst, man sieht hauptsächlich mit den Stäbchen (Helligkeitswahrnehmung). Und die haben eben andere Eigenschaften als Zapfen. Dadurch sieht man schon "anders", als bei Helligkeit. Wenn du dies als Rauschen bezeichnen willst - bitte schön!
Ich nicht, die Welt der Technik bezeichnets so...
Es schaut in etwa so aus und wechselt mit sehr hoher Frequenz. Wie würdest du es denn nennen?

Rauchen schadet eben doch der Gesundheit! ;)
Wer sagt denn dass ich rauche? ;P
 
Zuletzt bearbeitet:
Ja, verstehe. Praktisch ist es dann so, dass ein Monitor mit geringem Kontrastumfang feinere Übergänge darstellt als einer mit einem extrem hohen Umfang.

Jain, also kommt drauf an :) Man muß berücksichtigen, daß weder Monitore noch Augen linear arbeiten, von lustig nichtlinearen Farbräumen ganz zu schweigen. Wenn man den größten Teil der Werte aus einem 14 Bit Bereich dort alloziert, wo das Auge am empfindlichsten für Abstufungen ist, muß man insgesamt nicht unbedingt mehr Bits haben um sehr große Dynamikumfänge scheinbar gleitend darstellen zu können. Das Auge selbst, vor allem aber die Signalverarbeitung im Gehirn, sind alles andere als linear!
 
WERBUNG
Zurück
Oben Unten