• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Technischen Grenzen der Darstellung von Farben vs. Dynamik in RAW / auf Monitor

Das ist richtig, stört aber nicht die Abbildbarkeit der gesamten Dynamik.
Soweit mir bekannt ist, kann ein AD Wandler praktisch jedes analoge Signal x in jedem Wertebereich von x1 bis x2 in eine Sammlung ganzer Zahlen y von 0 bis (2^n)-1 umwandeln
Soweit richtig. Aber der Dynamikumfang bestimmt sich ja nach dem kleinsten von x1 (dem Wert für Dunkelheit) unterscheidbaren Wert, also x1 + (x2-x1)/(2^n-1), und damit kommt man bei linearer Wandlung maximal auf 2^n-1 (für x1 = 0). Hinzu kommt, dass man bei höheren Iso-Stufen den Wert x2 heruntersetzen wird (oder die Eingangsverstärkung hoch, was aufs Gleiche herauskommt), damit die Auflösung am dunklen Ende besser wird.

L.G.

Burkhard.
 
Und Du findest, die Unterscheidung zwischen "1" als kleinstem Wert und "1001" als dem nächstfolgenden hilft Dir? Schon erst recht, wenn Dein echter Messwert vielleicht um +/-500 fehlerbehaftet abweicht?
Ratlos, Matthias

Ich verstehe wirklich nicht, was Du versuchst zu fragen oder auszudrücken. :confused:

Die Fehlerbehaftung wegen irgendwelcher Faktoren ist mir völlig egal. Manchmal denkt Ihr wirklich viel zu kompliziert.

Ich will es mal in abstrakten Bildern ausdrücken:
Ich habe jetzt verstanden, dass man auch mit einer linearen Codierung und nur 1 bit eine gigantische Dynamik abspeichern kann, nämlich nachtschwarz und sonnenhell. Auch das ist "linear"
Ich war auf eine Steigung 1 fixiert, die quasi in meinem Kopf eine Limitierung auf schwarz und dunkles Grau bei einem Bit manifestierte. Ich habe quasi gedacht (ohne mir dessen bewusst zu sein, weil ich eben ohne Beispiel dachte), dass man für "sonnenhell" sehr viele bits zur Darstellung braucht, wenn es "linear" codiert ist. Schicht die Steigung ignoriert.
 
Ob Du nun 50 oder 500 schreibtest, ist nicht unbedingt wichtig. Ich weiste bereits auf die Endlichkeit auch dieses Seins hin...
Und Du findest, die Unterscheidung zwischen "1" als kleinstem Wert und "1001" als dem nächstfolgenden hilft Dir? Schon erst recht, wenn Dein echter Messwert vielleicht um +/-50 fehlerbehaftet abweicht?
... in einem Posting des Nachbarthreads, welches etwas unterging. Es zeigt aber eher eine statistisch begründete Obergrenze des Tonwertumfangs im Raw.

Gruß, Wolfgang
 
Es geht um die Interpretationsfrage, die im OP steht.

Mit Dynamik & Dynamikbereich meine ich die "Spreizung", d.h. den Quotienten aus maximal darstellbarer Helligkeit pro Pixel und minimaler Helligkeit.
Definiere maximale Helligkeit und minimal darstellbare Helligkeit pro Pixel!
Genaue Meßvorschrift.

Bei einem linear codierten RAW begrenzt da die Bitzahl diese Spreizung.
Es gibt keine Begrenzung.
Jedes aus einem Tintenstrahldrucker kommende Farbfoto zeigt Dir genau das Gegenteil.

Mit der Limitierung meinte ich eben die Bergrenzung des Abbildbaren durch die Bitzahl.
Es gibt keine Limitierung. 1 bit reicht für alles aus.
Wenn:

  • ich ein 4bit RAW habe
  • das RAW linear codierte Daten enthält
Dann:

  • kann ich maximal 16 verschiedene "Farbtöne" einer Farbe (in dem Fall der einen Farbe) abbilden durch 16 verschiedene Farbtonhelligkeiten
  • kann ich maximal eine 16fache Grösse als grundlage zum Ausdrücken der "Helligkeit" (wie auch immer das noch transformiert wird) ablegen.
Nach Deinem Verständnis hätte es mit Farbfilm nie richtige Bilder geben dürfen, weil das ein 1-bit-System ist.

Für mich ist es weiter Quatsch, zu behaupten, es gebe keinen Zusammenhang zwischen den Begrenzungen.
Deine Darstellungen zeigen große Lücken in technischem Wissen. Das ist nicht schlimm.

Schlimm ist aber, das Du eine Meinung hast, von der Du trotz erheblichen Unwissens überzeugt bist, und die Du mit Gewalt versuchst zu vertreten.

Entweder Du versuchst eine neue Religion zu gründen oder Du versuchst Wissen zu erwerben. Mir ist nicht klar, was Du davon hier erreichen willst.
Vielleicht bin ich zu blöd dafür, vielleicht drückst Du dich nicht ganz geschickt aus? Ich weiß es nicht, klär mich auf!

Kurze Stichworte (jetzt zum Inhalt). Betrachtet werden müssen:

  • Auflösungsvermögen des Auges (Mindest-Modulationsindex <=> Ortsfrequenz)
  • Erkennbarkeit von Rauschen
  • Transformation von Helligkeitsauflösung in spatiale Auflösung (Antialiasing) und umgekehrt (Dithering, Noise Shaping)
  • Betrachtungen des AD-Wandler, des Sensors und des Gesamtsystems von AD-Wandler und Sensor. Klären der Anteile an den Restiktionen.
  • Limitierungen durch Ausgabesysteme (TFT, Röhre)
  • Limitierungen durch Farbräume (meist sRGB) und Graphikkarten (da meist RGB/8 zum Einsatz kommt).
Das ist alles relativ einfach und kann ausgerechnet werden. Man braucht nicht zu raten, nichts auswendig zu lernen, nichts abzuschreiben.
 
Ich war auf eine Steigung 1 fixiert, die quasi in meinem Kopf eine Limitierung auf schwarz und dunkles Grau bei einem Bit manifestierte.
Die Steigung 1 hat anscheinend (scheinbar?) schon den Nachbarthread beflügelt. Passt ja auf den ersten Blick: Die Lichtwerte sind als Dynamikmaß mit Basis 2 als Logarithmus und die Bits zählen auch passend im Dualsystem. Inhaltlich hat das nichts miteinander zu tun. Man sieht dies schon an der linearen Abbildung streng formal:

y = ax + b

In unserem Fall ist y eine Zahl und x eine physikalische Größe. Letztere ist zunächst ein freier Ladungsträger, der vielleicht als Spannung gemessen wird. Mit dieser einfachen Erkenntnis ist a niemals 1 sondern hat immer eine Einheit. Ist x eine Spannung bzw Ladungsträger ist die Einheit für a 1/V bzw 1/mol oder eine beliebige andere Einheit für den Kehrwert von Spannung oder Teilchenzahl. Die zugehörige Maßzahl für a ändert sich entsprechend, ohne den physikalischen Inhalt von a zu beeinflussen.

y hingegen hat keine physikalischen Inhalt sondern ist nur eine Zahl (das Spiel dauert 90 Min).
 
Hallo Burkhard, auf der Basis...
Soweit richtig. Aber der Dynamikumfang bestimmt sich ja nach dem kleinsten von x1 (dem Wert für Dunkelheit) unterscheidbaren Wert, also x1 + (x2-x1)/(2^n-1), und damit kommt man bei linearer Wandlung maximal auf 2^n-1 (für x1 = 0). Hinzu kommt, dass man bei höheren Iso-Stufen den Wert x2 heruntersetzen wird (oder die Eingangsverstärkung hoch, was aufs Gleiche herauskommt), damit die Auflösung am dunklen Ende besser wird.
... werden wir schnell einig. Der Photonenfluss ist wohl sehr viel weniger analog, als mancher A/D Wandler glauben macht.

Die (Blöd)sinnigkeit der weiteren Verkleinerung von Pixeln ist ja hier kein Thema.

Gruß, Wolfgang
 
bei all den überlegungen zur bitcodierung sollte man folgendes nicht vergessen:

der digitalisierte fotografierprozess orientiert sich nicht an datenformaten, sondern am möglichst optimalen fotografierprozeß (photonensammeln und zählen und das mit möglichst hoher farb- und tonwertqualität). kann der hersteller vorhandene datenformate nutzen, dann wird ihm das das geschäft ein bißchen erleichtern. aber insgesamt wird er die bitzahl, codierung, interpretation verwenden, die den fotografierprozeß möglichst effizienzoptimal fördert.
auf dem weg in die raw-datei oder ins jpg ooc kann der kameraprozessor die daten so herrichteun und umrechnen, daß der raw-konverter den helligkeitswert 4096 in einer 12 bit codierten datei genauso als "weiß" interpretiert wie die 16384 der 14 bit datei.

nicht bitzahl und datenformate geben vor, was eine cam kann, sondern eine cam kann was und bitzahl und datenformat wird der hersteller möglichst optimal zu den fähigkeiten der cam passend gestalten.

gibt es eigentlich ein 14 bit tif? eben. also wird der raw-konverter intelligenter weise die 16 bit der tif datei so nutzen, daß die 16384 der 14 bit datei in den wert 65536 der 16 bit datei umwandeln. gut, muß er nicht, geht auch anders. wäre aber nicht optimal.

dateiformate und codierungen sind den fotografierprozeß unterstüzende hilfsmittel, aber die begrenzung der qualität des fotografierprozesses ist - neben den fähigkeiten des fotografen - primär durch objektive, sensor, adc-umsetzer, entrauschtechnologie, gammakorrektur etc. gegeben und nicht durch den eingesetzten datenverarbeitungshokuspokus. wäre eine 21-bit codierung notwendig, dann machten die hersteller sie.
selten wedelt der schweif mit dem hund.

lg gusti


p.s.: ob die dynamik jetzt definitionsgemäß ein quotient oder eine differenz ist, ist physikalisch-technisch absolut irrelevant. es geht um die differenz zwischen darstellbarem schwarz, fast schwarz und weiß. und jeder quotient ist in realiter eine differenz, so wie eine multiplikaiton eine elegante addition ist. gut, mathematiker, rechenexperten und formeldefinierer werden das mit unverständnis lesen, aber wenn die zahl 20 das zehnfache von 2 ist, so ist diese zahl immer noch zehnmal die addition von 2 zur zahl null oder 9 mal die addition der zahl zwei zur zahl zwei. definitionen von begriffen und auch formeln erleichtern die kommunikation, aber sie ändern die physikalisch-technisch-mathematischen zusammenhänge nicht, sondern sie beschreiben sie nur.
 
Zuletzt bearbeitet:
nicht bitzahl und datenformate geben vor, was eine cam kann, sondern eine cam kann was und bitzahl und datenformat wird der hersteller möglichst optimal zu den fähigkeiten der cam passend gestalten.
Völlig richtig, das Datenformat wird einfach passend gewählt. Die meisten Raw-Formate sind eh Varianten von 16 bit TIFFs, und sollten mal mehr als 16 Bit notwendig sein, dann wird das Datenformat eben entsprechend angepasst.

Ich dachte bisher aber, dass es in der Diskussion um die Bittiefe in erster Linie um den A/D-Wandler ging. Der bestimmt ja auch, ob es ein 12 Bit raw ist oder ein 14 bit raw – in der Raw-Datei selbst stehen, wie gesagt, normalerweise sowieso 16 bit-Werte.

L.G.

Burkhard.
 
burkhard,

auch die adc-wandler sind erstmals (rein mathematisch gesehen) nur sekundäre hilfskomponenten.
sie bekommen ihre spezielle bedeutung erst dadurch, daß man mit hilfe der art der adc-umsetzung die datenqualität (quantisierung, quantisierungsunsicherheit) beeinflussen kann. die wahl der eingesetzten adc-technologie orientiert sich an sinnvollem sensorsignalbereich und sinnvoller sensorsignalauflösung, quantisierungssicherheit, baugröße, herstellkosten, geschwindigkeit.

der fotografierprozeß ist eine kette von teilprozessen, deren fast jeder qualitätsverschlechternd wirkt. die wahl der komponenten und technischer lösung orientiet sich daran, daß man mit möglichst billigen und schnellen mitteln die qualitätsverschlechterungen in sinnvollen, mit den augen möglichst nicht bildsichtbaren grenzen hält.

lg gusti
 
Zuletzt bearbeitet:
Zitat:
Zitat von Masi1157
Der maximal darstellbare Dynamikumfang ergibt sich aus der Bittiefe. Bei bspw. hohen ISO ist der Dynamikumfang des Sensors kleiner, der A/D-Wandler arbeitet aber trotzdem mit 12 oder 14 bit und schreibt die in die Raw-Datei. Und auch das wirst Du so gemeint haben.

Genau. Danke für die Klarstellung. Die praktische untere Grenze ergibt sich normalerweise durch das Dunkelrauschen.

L.G.

Burkhard.
-------------------------------------------------

der theoretisch maximal darstellbare dynamikumfang ergibt sich aus der bittiefe. aber es hängt von der technischen umsetzung ab, ob es denn wirklich so ist.

irgendjemand hat erwähnt, daß canon einen offset von 1024 oder so dazu zählt. das reduziert natürlich theoretisch auf den ersten blick den dynamikumfang. ist aber nicht so, wenn sich die tonwertauflösung und der dynamikumfang an der ersten bitstufe orientiert, die den unterschied zwischen absolutem schwarz und der kleinstmöglichen differenzierung dazu (noise floor) darstellt.
bei linearer codierung bedeutet das erste bit eine verdopplung des signales.
nutze ich jetzt die ersten bit nicht, da ich 1024 als offset abschneide, dann ist alles, was kleiner als 1024 ist, absolut schwarz. und der erste nichtschwarzwert ist 1025. die differenz zwischen schwarz und dem ersten nichtschwarzwert beträgt pötzlich nicht mehr 50%, sondern nur mehr 1 promille! ich kriege dadurch eine hervorragende schattendifferenzierung, rauschen und quantisierungsrauschen in den schatten wird plötzlich auch nicht mehr durch 50%-sprünge charakterisiert. **)
ob mir die 1024 offst in den lichtern fehlen? nein, nicht wirklich, wenn der kameraprozessor die daten unkonventionell interpretiert, also remapped. dann ist zwar die maximal erreichbare tonwertauflösung in den spitzlichtern etwas reduziert, aber immer noch um das -zig fache feiner als die menschliche wahrnehmung auflösen kann. die darstellbare helligkeitsdifferenz zwischen schwarz und weiß ist nahezu unverändert, nur die auflösung hat sich in den schatten verbessert und in den spitzlichtern unmerklich verringert. die lineare codierung hat ja den nachteil, daß die schatten grob aufgelöst sind und die hellen bereiche unnötig hoch aufgelöst sind - also in den hellen bereichen viel zu viel unnötiger datenmüll liegt. durch so einen trick bekomme ich bei 12 bit codierung eine bildqualität, die sich - basis menschliche wahrnehmung - kaum von einer 14 bit-codierung unterschiedet.

burkhard hat das ja auch weiter vorne auf basis isoverstärkung indirekt angedeutet.

nun, ich weiß nicht genau, ob das so passiert, aber technisch-logisch wäre es, es so zu machen.
lg gusti

**) Nachtrag: das ist so, als ob ich anstatt eines signales von 0-100 eines von 10-110 codierte. und durch die "gammatonwertkurve" verliere ich nicht 10% an dynamik, sondern nur um ca. lg10%
die hersteller machen das bestimmt noch trickreicher ... gott wohnt nicht in den codierten bit, sondern in der intelligenten art, wie es zur codierung kommt.
 
Zuletzt bearbeitet:
bdie wahl der eingesetzten adc-technologie orientiert sich an sinnvollem sensorsignalbereich und sinnvoller sensorsignalauflösung, quantisierungssicherheit, baugröße, herstellkosten, geschwindigkeit.
Genau – der ADC ist Teil des Kompromisses, den man eingehen muss. Die ideale Ausleseektronik würde die freien Elektronen, die durch den Lichteinfall im Sensor entstanden sind, einfach zählen (dazu braucht man bei den derzeitigen Pixelgrößen einer DSLR 16 - 17 bit Genauigkeit). Damit hätte man den Dynamikbereich des Sensors dann voll ausgenutzt. Dass man bei höheren ISO-Einstellungen faktisch einzelne Elektronen zählt (und nicht nur das digitale Signal hochmultipliziert), zeigt, dass der Sensor selbst mehr Information im dunklen Bereich liefert, als bei niedrigster ISO-Einstellung von der Ausleseektronik umgesetzt werden kann. Bei "normalen" Aufnahmen bringt diese Zusatzinformation natürlich keinen Gewinn, aber beim Pushen von unterbelichteten Bildteilen wäre sie schon hilfreich.

(Vielleicht war ich etwas unvorsichtig mit dem Begriff "A/D-Wandler". Das bezog sich teilweise nicht nur auf das Bauteil, das eine Spannung in eine diskrete Digitalzahl umsetzt, sondern auf die Elektronik, die dafür zuständig ist, die im Pixel gespeicherte Information in eine Digitalzahl zu wandeln. Ich habe jetzt mal lieber "Ausleseektronik" geschrieben. Bei einer derzeitigen Kamera einfach nur das Bauteil "A/D-Wandler" durch eine 16 Bit-Version zu ersetzen würde m. E. gar nichts bringen, man würde nur zusätzliches Rauschen speichern.)

L.G.

Burkhard.
 
Beispiel: ein Pixel kann maximal 50000 Elektronen speichern. Dann wird man bei der niedrigsten ISO-Stufe (z. B. 100) den Verstärkungsfaktor so wählen, dass der A/D-Wandler bei 50000 Elektronen den maximalen Wert, z. B. 16383 (=2^14-1) liefert....

Ja, das ist schon klar. Ich gehe freilich davon aus, daß der A/D-Wandler passend zum möglichen Output des Sensors ausgelegt ist. Damit wird Dein Beispiel hinfällig. (Ich diskutier doch auch nicht über einen Rennwagen, dessen Tacho aus einem Moped stammt).


der fotografierprozeß ist eine kette von teilprozessen, deren fast jeder qualitätsverschlechternd wirkt.
Der ist gut :lol:
 

----------

unter der annahme, daß das motiv 100% qualität hat, kann die beleuchtung nicht qualitätsverbessernd, sondern tendenziell nur mehr qualitätsverschlechternd wirken. die luftstrecke, welche die photonen richtung objektiv passieren, verschlechtern mittels zufälliger MTF die abbildungsqualität. dann multiplizeiren sich die MTF der filter samt falschlicht/ reflexionen von vorhandenen oder nicht vorhandenen streulichtblenden mit den MTF der objektive dazu. IR filter und aa-filter multiplizeiren ihre unzulänglichkeiten dazu, sensorpixelauflösung, pixeltrennschärfe, quanteneffizienz der pixel, fotografenverwackelung, rauschen, qunatisierung durch den adc, entrauschung, schärfung ... bis hin zur photoshopdetailvernichtung und überschärfter verbuntung, grafikkarteneinfluß un ddruckerpapiermaserung etc. reduzieren immer weiter die qualität des bildes des motivs. verschönerungen durch ebv tricks in der cam oder am pc sind auch verschlechterungen der detailtreue der abbildung, auch wenn dabei viel kreativ neues dazuerfunden wird. von milliarden quarks, protonen, elektronen und neutronen samt strings des motives bleiben am schluß ein paar bunte farbkleckse auf papier übrig, von denen unser dummes hirn annimt, es sei das motiv. gut, das in 3x14 bit auf hochglanz :-)
aber dafür hat des bild dann "seele". und die gaukelt vor, die situation in der realität wäre so und so gewesen, was aber absolut nicht der fall war. nicht mal während der zufälligen belichtungszeit und nichtmal aus dem zufälligen blickwinkel.

lg gusti
 
Zuletzt bearbeitet:
Ja, das ist schon klar. Ich gehe freilich davon aus, daß der A/D-Wandler passend zum möglichen Output des Sensors ausgelegt ist. Damit wird Dein Beispiel hinfällig. (Ich diskutier doch auch nicht über einen Rennwagen, dessen Tacho aus einem Moped stammt).
Probier's doch aus, manuelle Belichtungseinstellung bei ISO 100, so dass im Raw gerade kein Clipping bei Weiß vorhanden ist. Und dann stell die Kamera auf den höchsten Iso-Wert. In beiden Fällen erzeugt der Sensor gleich viele Elektronen auf den Pixeln. Hast du Clipping bei Weiß oder nicht?

Wenn du das Beispiel mit den Tachos bemühen willst, dann so: dein Auto hat zwei Tachos, einen mit dem gesamten Geschwindigkeitsbereich (niedrige ISO), einer bis 50 km/h (hohe ISO). Bei niedrigen Geschwindigkeiten (wenig Licht) kannst du auf dem Tacho bis 50 km/h genauer die Geschwindigkeit ablesen. Über 50 km/h ist der Zeiger des zweiten Tachos am Anschlag, obwohl das Auto schneller fährt.

L.G.

Burkhard.
 
bei linearer codierung bedeutet das erste bit eine verdopplung des signales.
nutze ich jetzt die ersten bit nicht, da ich 1024 als offset abschneide, dann ist alles, was kleiner als 1024 ist, absolut schwarz. und der erste nichtschwarzwert ist 1025. die differenz zwischen schwarz und dem ersten nichtschwarzwert beträgt pötzlich nicht mehr 50%, sondern nur mehr 1 promille! ich kriege dadurch eine hervorragende schattendifferenzierung, rauschen und quantisierungsrauschen in den schatten wird plötzlich auch nicht mehr durch 50%-sprünge charakterisiert.
Wenn man alles, was unter 1024 ist, zu Schwarz erklärt, kommt man allerdings auf einen Dynamikbereich von 16384:1025 ≈ 16:1. Selbst wenn man den Wert 1024 als Schwarz darstellt, entspräche das dunkelste darstellbare Grau einem sRGB-Wert von ca. 28 % oder (71, 71, 71). Ab da bekommt man natürlich superfeine Abstufungen, aber die hätte man in dem Graubereich auch, wenn man die untersten 1024 Werte nicht abspeichern würde.

Insofern vermute ich, dass die Zahlenwerte eben nicht den dargestellten Intensitätswerten entsprechen, sondern dass 1024 eben einfach Schwarz darstellt, und 1025 entspricht 1/(16383-1024) der max. Intensität, Daraus ergibt sich ein Dynamikbereich von 1:(16383-1024), und man hat dieselben großen Sprünge, wie wenn man bei 0 anfängst.

Von den dargstellten Intensitätswerten her ändert also ein Offset von 1024 praktisch gar nichts, der etwas kleinere Bereich von 1024 bis 16383 entspricht 0,1 Blendenstufen weniger maximal möglicher Dynamik.

L.G.

Burkhard.
 
Probier's doch aus, manuelle Belichtungseinstellung bei ISO 100, so dass im Raw gerade kein Clipping bei Weiß vorhanden ist. Und dann stell die Kamera auf den höchsten Iso-Wert. In beiden Fällen erzeugt der Sensor gleich viele Elektronen auf den Pixeln. Hast du Clipping bei Weiß oder nicht?


Burkhard.

Hier extrem bei der Nikon D300. Auf dem Sensor sind die Daten zweifellos da, im RAW sind sie weg. (weswegen die Tendenz, höchste ISO zunehmend durch digitale Verstärkung statt durch analoge herzustellen, der Lichterdynamik sehr entgegenkommt).

Gruß messi
 
Insofern vermute ich, dass die Zahlenwerte eben nicht den dargestellten Intensitätswerten entsprechen, sondern dass 1024 eben einfach Schwarz darstellt, und 1025 entspricht 1/(16383-1024) der max. Intensität, Daraus ergibt sich ein Dynamikbereich von 1/(16383-1024), und man hat dieselben großen Sprünge, wie wenn man bei 0 anfängst.
So ist es. 1024 ist ein reines Bias. Kameras ohne Bias haben in der Astrofotografie Nachteile (Stacking).
 
Einen Ausweg aus der Dynamikfalle gibt es ja mit dem DPS und dem HDRC.

schade das keiner auf den Post hier eingegangen ist, den der User hat vollkommen Recht! Einen wirklichen Sprung in Sachen Dynamik wird es erst mit solchen Technologien geben. Wahrscheinlicher eher mit dem DPS, als mit dem HDRC, aber das spielt keine große Rolle. Es ist finde ich eh schon unnatürlich wenn der Sensor (HDRC in diesem bsp) einen höheren Dynamikumfang hat als das Auge! 120db sinds nämlich.
 
WERBUNG
Zurück
Oben Unten