• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RAW Headroom, Lösung des Rätsels?

Hi!
Ein innerer Zwang drängt mich, dir folgenden Hinweis/Rat in Bezug auf dieses Thema zu geben:
Leg einmal alle kommerziellen RAW-Konverter zur Seite. Nimm dir den Sourcecode von dcraw.c her,
Ich hatte ursprünglich eine Auswertungsreihe mit dcraw beabsichtigt, musste aber davon Abstand nehmen, weil dcraw nicht mit den RAWs aller Kameras klarkam.
dazu einen Texteditor und den für dein Betriebssystem passenden Compiler.
Dann kommentiere alle relevanten Programmteile aus, die an der Werteverteilung Änderungen vornehmen (Autoweißbalance, Schwarzpegel, Weißpegel etc) aus laß praktisch nur die Farbkalibrierung übrig.
Ich habe mich jetzt länger nicht mehr mit dcraw befasst, aber lässt sich das nicht schon kommandozeilenmäßig erreichen?
Die so nach der RAW-Konvertierung erhaltenen Bilddaten wandle für alle Kameratypen mit einer einheitlichen linear nach sRGB Funktion in ein für die JPEG-Kompression verwendbares Bild um. Und die kannst du dann vergleichen.
Aber ich warne dich :-) du wirst dann möglicherweise Effekte erkennen, von denen du annehmen wirst, daß sie dir keiner Abnehmen wird und schon garnicht hier im Forum. Du mußt dich dann entscheiden, ob du das Ganze von der faktischen oder von der kommunikativen Seite betrachten willst.
Geisterbilder? ;) Nein, im Ernst – womit sollte ich rechnen? Bzw. macht das dann noch Sinn? Ich meine, ich muss für eine sinnvolle Vergleichbarkeit doch die Werteverteilung zumindest schon mal insofern beeinflussen, als dass ich nur den Ausschnitt des 12-Bit-Wertebereichs auf die 8 Bit der Ausgabedatei abbilde, der auch von der Kamera genutzt wird?

Grüße,
Robert
 
Als Vergleichs-Konverter benutze ich gern den Raw Photo Processor, der ist als reiner Processor ohne irgendeinen Schnickschnack entwickelt worden, aber auf maximale Detailwiedergabe. Kannst du dir ja mal anschauen.

Gruß

Reinhard
 
Es liegt mir fern, irgendjemandem irgendetwas vorzuwerfen, aber ist Dir eigentlich klar, was Du hier schreibst?

Mir ja, Dir offensichtlich nicht, wenn Du mir herbeifantasierte Dinge wie folgt an den Kopf wirfst, welche nur eine Tüte Luft sind, da sie nicht fundiert sind.

Zuerst stellst Du erschöpfend und wiederholt dar, dass Du mit einem Diafilm (hat weniger Dynamik als jede Oly) nicht zurechtkommen würdest, und nicht genug damit, Du erklärst auch noch, dass Du offenbar ein ganzes Jahr gebraucht hast, um das Lichterproblem Deiner Kamera zu bemerken, und dann ausgerechnet und völlig unerwartet erst bei offenbar wichtigen Aufnahmen davon überrascht wurdest.

Das hast Du entweder falsch verstanden, oder fantasierst Dir gerne einfach so irgendwelche Dinge. Mir ist das Lichterproblem, was aus heutiger Sicht eigentlich ein Dynamikproblem ist, nicht erst nach einem ganzen Jahr aufgefallen. Die ersten Meckerbeiträge meinerseits findest Du aus dem Frühjahr dieses Jahres.

... und überrascht war ich von meiner Aufnahme schon gar nicht. Ich schrieb doch, dass mich 90% meiner Außenaufnahmen vor solche Problemen stellen. Ich war lediglich davon überrascht wie bravorös andere Sensoren solche Situationen (ganz ohne Belichtungskorrektur) meistern.

Und den Fehler erst bemerkt hast, als Du fehlerfreie Bilder im Vergleich daneben gesehen hast. Perfekte Selbstdemontage, das tut dem geneigten Leser beinahe physisch weh.

Welchen Fehler? Der, dass ich angenommen habe, eine E-3 wäre in der Lage mit dieser Piffel-Paffel-Situation zurechtkommen, oder zu glauben, ihr Belichtungsmesser würde richtig funktionieren? Wenn das Nikon-Bild mit Matrixmessung und keiner Belichtungskorrektur ein perfekt belichtetes Bild gezaubert hat, kann ich doch höchstens den Fehler bemerkt haben vor 3,5 Jahren nicht gleich zu einer Kamera gegriffen zu haben, die wenigstens einen halbwegs funktionierenden Belichtungsmesser an Bord hat.

Ob das eine Selbstdemontage ist? Ich glaube eher, es ist die Ehrlichkeit etwas offen anzusprechen. Was dem geneigten Leser weh tut, sind aus meiner Sicht Deine rethorisch polemischen Kommentare.

In Deinem Eifer über Deine Kamera zu schimpfen hast Du nicht mal bemerkt, dass ich Dir in Punkto begrenzte Dynamik weder widersprochen noch ihren Hersteller irgendwie in Schutz genommen habe.

Richtig, Du hast mich lediglich für ahnungslos erklärt. Wahrscheinlich sind alle, die die Eingangsdynamik der Sensoren vor Probleme stellt, inkl. der Tester, alle ahnungslos. Vor allem hat das ja auch sehr viel mit dem eigentlichen Topic zu tun, gell?

Das allgemeine Problem am Motzen über Olympus/Fourthirds ist, dass inzwischen jedes Thema bis zur Ermüdung durchgekaut wurde, so dass weitere Kritik sinnlos wird. Nicht dass Kritik sinnlos wäre, aber die Stellung von FT/OLy wurde jahrelang mit schwerstem Artilleriefeuer plattgemacht. Jede weitere Granate detoniert auf einem bereits völlig verwüsteten Acker. Wir hatten ja so ziemlich alles kritisiert, was zu kritisieren geht: Rauschverhalten, Auflösung, Dynamik, schiefer Sucher, Chinasyndrom, Größe, Gewicht, Preis, Management, Zukunftsfähigkeit, AA-Filter, Sensorgröße, Sensortechnik... die Vorteile, die da noch bleiben, kann selbst der ungeschickteste Schreiner an einer Hand abzählen. Wundert es Dich da wirklich, dass jetzt auch noch das Belichtungssystem der Kamera nichts taugt? (...)

Mich wundert nur eins; wieso ich überhaupt noch mit Dir diskutiere.
 
Chrushi, unter diesen Umständen und den gewonnenen Erkenntnissen wäre es doch konsequent das System zu wechseln, und zwar schnell, bevor der Preisverfall die Verluste herhöht. Ich meine ja nur so, ich jedenfalls hätte bei dieser Enttäuschung längst gehandelt.
Bei mir hat sich nur ein ganz anders Bild ergeben. Ich hatte ja D70 und istDS und bei keiner dieser Kameras konnte ich mich auf den Belichtungsmesser verlassen. Ein Kollege hat eine 400D mit der ich spielen durfte, die 40D hatte ich mir ausgeliehen ebenso wie die D80 ... vergiss es. Seit der E-400 und noch etwas besser bei E-3 und E-520 ist das anders. Matrixmessung in den meisten Fällen, bei "kritischen" Sachen SpotHi, und es passt.
 
Ich glaube ja auch nicht ernsthaft, dass der Belichtungsmesser wirklich das Problem ist. Ich schreibe es lediglich um vor Augen zu führen wie absurd der Vorwurf des Falschmessens klingt, wenn jemand über die nicht vorhandene Fähigkeit des Sensors berichtet, eine Situation zu meistern, die andere Sensoren offenkundig mit links erledigen.

Und danke für die Empfehlungen das System zu wechseln. Vielleicht hab ich das ja mehr oder minder, oder warte einfach auf einen Preisrutsch, wer weiß es? Vor allem wen interessiert's? Warum darf ich in einem Thread, wo es explizit um ein Thema geht, das unmittelbar mit meinen Erlebnissen zu tun hat, nicht das schreiben, was ich möchte? Warum reagieren Oly-User so komisch, wenn man die Unzulänglichkeiten eines konkret verwendeten Sensors offen anspricht? Wieso lässt sich der Oly-User einen technisch unterdurchschnittlich entwickelten Sensor unterjubeln und relativiert das zuviel an Einschränkungen dauernd bzw. fühlt sich dazu verpflichtet irgendwas zu verteidigen? Damit er bald wieder einen unterentwickelten Sensor erhält? Warum nur? Ich verstehe das nicht.
 
Zuletzt bearbeitet:
Servus Robert!
Hi!Ich hatte ursprünglich eine Auswertungsreihe mit dcraw beabsichtigt, musste aber davon Abstand nehmen, weil dcraw nicht mit den RAWs aller Kameras klarkam.
Also die DSLR von Olypums kann dcraw alle. Ich würde fast behaupten, dcraw ist sogar immer noch eine Spur aktueller als Adobe selbst.
Ich habe mich jetzt länger nicht mehr mit dcraw befasst, aber lässt sich das nicht schon kommandozeilenmäßig erreichen?
Ja, es gibt einen 16-bit Linearmodus, aber ich müßte in den Sourcecode schauen, ob der wirklich alles 1:1 umsetzt.
Geisterbilder? ;) Nein, im Ernst – womit sollte ich rechnen?
Daß das Ergebnis nicht mit den diversen Ergebnissen aller möglicher (angebeteten) Tests übereinstimmt :-)
Bzw. macht das dann noch Sinn?
Einzig diese Methode macht Sinn, weil doch einigermassen objektiv.
Ich meine, ich muss für eine sinnvolle Vergleichbarkeit doch die Werteverteilung zumindest schon mal insofern beeinflussen, als dass ich nur den Ausschnitt des 12-Bit-Wertebereichs auf die 8 Bit der Ausgabedatei abbilde, der auch von der Kamera genutzt wird?
Ja, genau das ist die irrige Annahme, die sogut wie alle "Tester" für richtig halten.
Das RAW (auch nach dem Durchlauf durch dcraw) gibt dir 1:1 die Lichtverhältnisse wieder, wie sie der Sensor 'gesehen' hat. Mit einer Granularität, die halt der nachfolgende AD-Wandler dann abbilden konnte. Die Bitanzahl des ADC verändert nichts am Dynamik- (=Belichtungs-)Umfang sie gibt nur an, wieviele unterschiedliche Zahlenwerte in diesem Bereich hergestellt werden können. Null ist "schwarz", Bitanzahl-1 ist "weiß". Alle Zahlrenwerte dazwischen verteilen sich (linear) über den gesamten Dynamikbereich. Die Umwandlung in (zB.) sRGB ändert nichts am Belichtungsumfang sondern nur an der Granularität der abgebildeten Zahlenwerte und verteilt (per Gamma) diese Zahlenwerte neu, damit sie zwischen 0 und 0xFF Platz haben. Damit fallen dann natürlich sehr viele Zahlenwerte wieder weg, der Dynamikbereich bleibt jedoch (über die Linear nach sRGB Funktion) reversibel vorhanden. Du kannst über die Umkehrfunktion sRGB nach Linear alles wieder zurückwandeln, dann siehst du genau, welche Zwischen(Zahlen)Werte fehlen, aber der Dynamikumfang bleibt erhalten.
Der Farbraum sRGB hat nur einen einzigen Grund, man kann die Zahlenwerte (via DA-Konverter) direkt für die Intensität der Pixel am Monitor (zumindest in der PC Welt) übertragen. Der positive Nebeneffekt ist, daß diese Umwandlungsfunktion - im Wesentlichen - nur jene Zwischenwerte wegläßt, die das Auge ohnehin nicht von den danebenliegende unterscheiden kann.
Wenn du ein Bild (JPG) ausdruckst, dann werden alle Farbpixelwerte (zumeist) in den CIE-Lab Farbraum übertragen und von dort in den Ausgabefarbraum des Druckers.
Für alle diese Schritte wird aber am Dynamikumfang nie was verändert. Lediglich die Zahlenwertdarstellung wird (reversibel) komprimiert weil eben ein Monitor nur etwa 256 (meist viel weniger) verschiedene Helligkeitswerte pro Pixel darstellen kann. Bei einem Drucker sind es meist noch viel weniger. Aber die Funktion(en) entlang der Farbraumumwandlungen sind numerisch immer umkehrbar, soll heißen, du kannst auch aus den Intensitätwerten, die der Drucker für jedes einzelne Pixel übermittelt bekommt wieder auf die ursprünglichen Helligkeitswerte bei der Aufnahme zurückrechnen. Zwar mit wesentlich geringerer Granularität (man könnte auch sagen Auflösung, aber das stimmt nicht ganz) also noch mehr Lücken aber die Equivalenz bleibt erhalten. Weggelassen werden wieder genau die Zwischenwerte, die der Drucker garnicht abbilden kann. Der Drucker kommt meist mit 4 - 5 Bit pro Farbe aus. Und solange man ihm die richtigen Pixel aus der Vielzahl derer die vom Sensor erfaßt wurden schickt, solange sieht das Bild "natürlich" aus.
Und um das alles noch mystischer zu machen, verändert (verschlimmbessert :-) jeder RAW Konverter und jedes Bildbearbeitungsprogramm und jeder Druckertreiber diese "Überallesfunktion", damit man die Qualität je nach verwendeter Software "beurteilen" und "testen" kann.
 
Hallo Isaac,

Du könntest ja auch die Freundlichkeit besitzen und in etwa verraten, was dabei rauskäme, da nicht jeder einen C-Compiler zur Hand hat, geschweige denn kurz oder mittelfristig in der Lage ist die beschriebenen Funktionen aus dem Quellcode auszusondieren und zu kompilieren? :)

Hast Du diesen offenbar vielversprechenden Vergleich schon mal mit den RAWs Deiner Kameras durchgeführt? Wäre es möglich zu erfahren, zu welchem Schluss dieser Vergleich führte?
 
Ich glaube ja auch nicht ernsthaft, dass der Belichtungsmesser wirklich das Problem ist. Ich schreibe es lediglich um vor Augen zu führen wie absurd der Vorwurf des Falschmessens klingt, wenn jemand über die nicht vorhandene Fähigkeit des Sensors berichtet, eine Situation zu meistern, die andere Sensoren offenkundig mit links erledigen.

Mal ganz ernsthaft gefragt. Versuchst Du mit der E-3 so zu fotografieren wie mit der E-300/E-1 ?

Ich lasse die E-3 eigentlich auf ESP stehen und EV auf 0 und selbst in solchen Situationen wie jetzt im Schnee, lässt mich die Belichtung nicht wirklich im Stich.
Wenn die Bilder dann zu dunkel werden, kann ich die ohne weiteres störendes Rauschen hochziehen. Das Ergebnis sieht dann auf jeden Fall besser aus, als wenn ich das aus unterbelichteten alten E-1 und E-300 Fotos herausholen möchte.

Stefan
 
Also die DSLR von Olypums kann dcraw alle.
Zu dem Zeitpunkt meines kleinen Tests kamen mit der seinerzeit aktuellen dcraw-Version standardmäßig mindestens bei einer der verwendeten Kameras leider nur schwarze JPEGs heraus, ich habe das dann nicht mehr weiterverfolgt...
Das RAW (auch nach dem Durchlauf durch dcraw) gibt dir 1:1 die Lichtverhältnisse wieder, wie sie der Sensor 'gesehen' hat.
So weit, so klar.
Mit einer Granularität, die halt der nachfolgende AD-Wandler dann abbilden konnte. Die Bitanzahl des ADC verändert nichts am Dynamik- (=Belichtungs-)Umfang sie gibt nur an, wieviele unterschiedliche Zahlenwerte in diesem Bereich hergestellt werden können. Null ist "schwarz", Bitanzahl-1 ist "weiß".
Und um diese Frage ging es mir. Genau das ist nach meiner Erinnerung gerade nicht der Fall, denn häufig, und ich meine insbesondere bei den Olympus-Modellen, nutzt der AD-Wandler eben nicht den gesamten Wertebereich der verwendeten Bitzahl, sondern nur einen Teil davon. Also bei 12 Bit eben nicht 0 bis 4095, sondern beispielsweise nur 0 bis 3874. 0 wäre dann Schwarz, aber 3874 wäre bereits Weiß; höhere Werte träten nicht auf. Eine anderes Modell mit der gleichen Farbtiefe bildet die erfassten Objekthelligkeiten (Eingangsdynamik) jetzt vielleicht auf den Wertebereich 50 bis 3986 ab (Ausgangsdynamik des AD-Wandlers). Die Werte darunter und darüber treten jeweils nicht auf. Ich muss doch jetzt, um Vergleichbarkeit herzustellen, bei der ersten Kamera den RAW-Wertebereich 0..3874 im JPEG auf 0..255 abbilden und bei der zweiten den RAW-Wertebereich 50..3986, oder nicht?

Grüße,
Robert
 
Hallo!
Hast Du diesen offenbar vielversprechenden Vergleich schon mal mit den RAWs Deiner Kameras durchgeführt? Wäre es möglich zu erfahren, zu welchem Schluss dieser Vergleich führte?
Bei Kameras mit einem Kodaksensor (und auch bei Kodak Filmen) kann man den Dynamikbereich einfach aus dem dazugehörigen Datenblatt herauslesen. Die Werte stimmen mit meinen Beobachtungen nahezu 100%ig überein:
KAF-10500 71.5 dB (Leica M8)
KAF-8300 64.4dB (E-300)
KAF-5101 67dB (E-1) nicht verifiziert mangels Kamera
 
Servus Robert!
So weit, so klar. Und um diese Frage ging es mir. Genau das ist nach meiner Erinnerung gerade nicht der Fall, denn häufig, und ich meine insbesondere bei den Olympus-Modellen, nutzt der AD-Wandler eben nicht den gesamten Wertebereich der verwendeten Bitzahl, sondern nur einen Teil davon. Also bei 12 Bit eben nicht 0 bis 4095, sondern beispielsweise nur 0 bis 3874. 0 wäre dann Schwarz, aber 3874 wäre bereits Weiß; höhere Werte träten nicht auf.
Ja, da ist eben der "Schwarzwert" von 221 schon abgezogen - aber erst nach dem ADC. Genau das meinte ich, mit dem Eliminieren von eingebauten Automatiken. Aber auch das macht nicht viel aus weil der Belichtungsumfang nur von 1:2^12 auf 1:2^11.9 reduziert wird (1/10 Blende).
Eine anderes Modell mit der gleichen Farbtiefe bildet die erfassten Objekthelligkeiten (Eingangsdynamik) jetzt vielleicht auf den Wertebereich 50 bis 3986 ab
Da ist eben der Schwarzwert nur 50, den müßte man von 3986 abziehen um den Belichtungsumfang minus Rauschen zu ermitteln.
(Ausgangsdynamik des AD-Wandlers)
Das ist nicht die Dynamik des ADC, sondern eventuell schon eine vor der Abspeicherung als RAW gemachte Subtraktion des Schwarzwertes.
Die Werte darunter und darüber treten jeweils nicht auf. Ich muss doch jetzt, um Vergleichbarkeit herzustellen, bei der ersten Kamera den RAW-Wertebereich 0..3874 im JPEG auf 0..255 abbilden und bei der zweiten den RAW-Wertebereich 50..3986, oder nicht?
Ja, so macht es dann die JPEG-Engine. Aber das ist, wie ich oben zeigen konnte, eine minimale Einschränkung im zehntel Blendenbereich.
Gegen interne Korrekturen der RAW Daten bist du ohnehin machtlos, aber solange sie numerisch so minimal sind, ist der Fehler erträglich.
Ganz anders sieht es da bei CMOS aus (bezüglich NMOS habe ich überhaupt keine Ahnung) weil da vermute ich, wird der Schwarzwert schon analog im Sensor abgezogen. Das kann - rein Größenordnungmäßig - durchaus schon im vierstelligen Bereich liegen. Darum rauschen die CMOS Sensoren ja auch kaum :-) aber die Farbdarstellung leidet natürlich, weil die Nebendichten des Bayerfilters nicht mehr so einfach linear wegrechenbar sind (Tag ColorMatrix im DNG). Aber das geht jetzt wirklich zu weit ... :-)
 
Das ist nicht die Dynamik des ADC, sondern eventuell schon eine vor der Abspeicherung als RAW gemachte Subtraktion des Schwarzwertes.
Eines meiner Schwierigkeiten mit der Erörterung der "Dynamik" ist, dass mir häufig nicht klar wird, was für ein Dynamikkonzept gerade Thema ist. Deswegen hatte ich versucht, Eingangs- und Ausgangsdynamik zu differenzieren, hier konkret des Systems aus Sensor und DA-Wandler. Nach meinem Begriffsverständnis ist die Eingangsdynamik der abbildbare Umfang von Motivhelligkeiten, Ausgangsdynamik dagegen der Tonwertreichtum der Bildwiedergabe, das heißt auf die konkrete Technik bezogen, wieviel des zur Verfügung stehenden Wertebereichs genutzt wird. Wenn wir Sensor plus Wandler betrachten, wären das im Falle von Olympus die 12-Bit-Werte, die ins RAW gelangen, und der Umfang, inwieweit die Skala ausgenutzt würde, würde die Ausgangsdynamik beschreiben.

Grüße,
Robert
 
...unter diesen Umständen und den gewonnenen Erkenntnissen wäre es doch konsequent das System zu wechseln, und zwar schnell, bevor der Preisverfall die Verluste herhöht. Ich meine ja nur so, ich jedenfalls hätte bei dieser Enttäuschung längst gehandelt.
Sehe ich genauso. Das Leben ist zu kurz, um sich über Kameras zu ärgern. Allerdings ist ein Systemwechsel so was wie ein Offenbarungseid. Was, wenn damit die Probleme nicht gelöst sind, oder, wenn ein halbes Jahr später ein dritter Hersteller eine noch bessere Kamera herausbringt?

Ich habe mich spasseshalber mal auf der DxO Seite herumgetrieben... die Panasonic LX3 hat trotz kleinerem Sensor/kleineren Pixeln einen höheren maximalen Dynamikumfang als die E-3 und praktisch einen ebenso hohen wie die 50D (10,86 zu 10,88EV) und, äh, die 5D (10,77EV)... wie war das noch mit der Sensorgröße?

Jetzt können wir uns natürlich fragen, warum Panasonic mehr Dynamik bei der kleinen Knipse hinbekommt und die FT/mFT Modelle im Regen stehen lässt... Alternativ können wir uns auch ein Loch in den Bauch beißen oder uns schwarz ärgern. Oder 10³ weitere Beiträge zum Thema verfassen. Oder uns mal die DxO-Messwerte für SNR, Tonal Range und Color Sensitivity ansehen, drei Schnabeltierarten, die im digitalen Forendschungel bislang noch wenig beachtet wurden. Ich verwette meinen Bart, dass sich vor allem unter letzteren beiden keine 2% der User hier etwas vorstellen können, wohingegen 92% zu wissen glauben, was Dynamik ist.
 
An die Wunder mit der Dynamik bei großen Pixeln oder wie auch immer man das erreichen will glaube ich sowieso nicht, auch wenn noch so tolle Ergebnisse bei irgend einem Test herauskommen. Ich hatte ja schon mal einen Versuch gemacht
https://www.dslr-forum.de/showthread.php?p=3665235#post3665235 (auch den Links darin folgen).
Auch Mikrolinsen ändern nichts, denn was unten empfindlicher ist wird oben früher gesättigt. Mit der Mischung aus großen und kleinen Pixeln hat man ja auch nicht den durchschlagenden Erfolg gehabt. Wenn ich mir nun die Ergebnisse der neuesten Generation mit 15 MP (Crop) und 24 MP (KB) ansehe kann ich eigentlich nur erkennen das in mehrerlei Hinsicht Grenzen erreicht sind. In diesen Thread https://www.dslr-forum.de/showthread.php?t=394078&page=3 ab #36 ist es auch recht interessant.
 
Zuletzt bearbeitet:
Servus Robert!
Eines meiner Schwierigkeiten mit der Erörterung der "Dynamik" ist, dass mir häufig nicht klar wird, was für ein Dynamikkonzept gerade Thema ist.
Ja, ich kann das verstehen, aber machen wir es uns doch einfach und beziehen wir uns einmal auf den Belichtungsumfang, weil darauf kommt es doch schließlich an.
Deswegen hatte ich versucht, Eingangs- und Ausgangsdynamik zu differenzieren, hier konkret des Systems aus Sensor und DA-Wandler.
Sehen wir doch die Photographie als das an, was sie sein soll, nämlich die Reproduktion einer Szene mit unterschiedlichen Helligkeits- und Farbwerten (eigentlich Helligkeitsanteil der einzelnen Farben des Spektrums). Und ich finde, der Begriff Belichtungsumfang oder Belichtungsspeilraum beschreibt genau das, was du als Eingangsdynamik bezeichnest.
Nach meinem Begriffsverständnis ist die Eingangsdynamik der abbildbare Umfang von Motivhelligkeiten, Ausgangsdynamik dagegen der Tonwertreichtum der Bildwiedergabe, das heißt auf die konkrete Technik bezogen, wieviel des zur Verfügung stehenden Wertebereichs genutzt wird.
Exakt meine Worte, ich denke da verstehen wir einander zu 100%
Wenn wir Sensor plus Wandler betrachten, wären das im Falle von Olympus die 12-Bit-Werte, die ins RAW gelangen, und der Umfang, inwieweit die Skala ausgenutzt würde, würde die Ausgangsdynamik beschreiben.
Gut, daß du "würde" geschrieben hast, weil da sollten wir ansetzen.
Der ADC trägt zur Dynamik nichts bei. Er bildet nur die (analogen) Ausgangsspannungswerte in die binäre Welt ab. In grauen Vorzeiten gab es einmal die sog. BCD Darstellung von Zahlen: Binär Codierte Dezimalzahl. Und wenn du ein Digitalvoltmeter besitzt, dann wird es auch verständlicher. Wenn der Sensor Spannungswerte zwischen 0 und 1 Volt liefern kann, dann kann man das auch als 0.000V bis 1.000V anschreiben. In BCD codiert wäre das 0 0 0 0 bis 1 0 0 0 (wobei hier jede Ziffer von 1 - 9 und Null durch 4 Bit binär abgebildet werden aber ansonsten dem Zehnersystem folgen). Wenn du nun in der BCD kodierung 0 1 0 0 ablesen kannst, dann weißt du ohne viel zu überlegen, es sind 0.100V. 0 0 1 0 wären 0.010V und 0 0 0 1 eben 0.001V. Die niedrigste Spannung ist 0V, jeder andere Spannungswert wird auf 0.001V aufgelöst, aber der Meßbereich bleibt 0-1V und wir haben 13 Bit (3x 4 + 1) dafür vergeudet.
Mit einem billigeren Digitalvoltmeter kannst du die 0-1V dann eben nur als 0.00 bis 1.00V ablesen, zur BCD Speicherung reichen 2 x 4 + 1 = 9 Bit. trotzdem bleibt die Dynamik 0-1V nur kannst du Zwischenwerte nicht mehr so genau aufgelöst angezeigt bekommen, eben nur auf 0.01V genau.
Ich denke, das Verständnisproblem liegt darin, daß man automatisch denkt, wenn der erste Wert ungleich Null statt im ersten Beispiel 0.001 nun 0.01 ist, daß sich damit auch gleichzeitig der Dynamikbereich ändert. Dies ist aber ein Trugschluß, weil wir ja nicht bei 0.001 anfangen, sondern bei 0.000.
Alles was wir mit einem ADC geringerer Bitanzahl verursachen ist es, daß wir diskrete Einzelwerte im unteren Meßbereich nicht mehr so genau aufgelöst bekommen (eben nur mit 0.01V anstatt 0.001V) dem Meßbereich selbst fügt das aber keinen Schaden zu.
Wenn wir das jetzt auf unsere Digitalkamera umsetzen, dann bedeutet dies eigentlich nur, daß die Schatten umso weniger aufgelöst werden, je geringer die Bitanzahl des ADCs ist. Aber die Schatten bleiben Schatten. Immerhin beträgt die Differenz zwischen binär 1 und 2 ganze 100% (eben eine Blendenstufe). Was uns verborgen bleibt, sind die Werte dazwischen.
Und da spielt jetzt der sRGB Farbraum seine große Stärke aus! Genau in den Schatten ist die Funktion nicht mehr exponentiell sondern linear. Ganz genauso wie das menschliche Auge, wenn nur mehr Grausicht vorherrscht. Das Beruhigende an dem ganzen bleibt weiterhin, daß die (sRGB) Funktion voll umkehrbar ist, die Information des Belichtungsumfanges bleibt also (in Grenzen) erhalten.
Und nun zum Schluß. Welche Auflösung des ADC ist notwendig, um die (Spannungs)Information des Sensors so in Meßwerte umzuwandeln, daß wir die Dynamik (im Falle der E-300 sind es 64.4dB) ausreichend reproduzieren können? Nun, 64.4dB entsprechen einem Verhältnis von etwa 1 : 10^3.22 also ca. 1:1660. Jetzt noch das ganze ins Binärsystem (wegen ADC und Blendenstufen) umgerechnet und wir erhalten 1:2^10.7
Mit einem 10.7 Bit ADC würde also gerade die erste Blendenstufe unseres Belichtungsumfanges als 1 oder 2 aufgelöst werden. Ein 10.7 Bit ADC wird wohl nicht existieren, aber sehr wohl ein solcher mit 12 Bit und die Differenz von +1.3 Bit würde sich voll auf die zusätzliche Auflösung (in Helligkeitsstufen) auf die Schatten auswirken. Bleibt nur die Frage offen, ob wir das überhaupt noch auf einem Monitor oder einem Bild sehen.
Und ziemlich genau den umgekehrten Weg müssen wir gehen, wenn wir das Bild im sRGB Farbraum dann auf einem Drucker abbilden wollen. Der Belichtungsumfang des Sensors wird voll abgebildet, die Auflösung der Schatten wird wahrscheinlich am Bild selbst verschwinden. Aber in den an den Drucker übermittelten Daten war sie noch vorhanden.
So, letzte Frage, was können wir mit der "Ausgangsdynamik" noch anstellen? Wir sollten eigentlich weinen. Ein Papierbild, je nach Papiermaterial (matt, glänzend, etc) liefert Kontraste im Bereich 1:30 bis 1:60. Aber das macht nichts, gute Tintenspritzer begnügnen sich mit weniger als 1pl (pico Liter), die sorgen dafür, daß die 60 Stufen so fein unterteilt werden, daß wir dann schlußendlich doch noch den Unterschied in den Schatten erkennen können und verblüfft bemerken, daß ein 12 Bit ADC in der Kamera weniger bringt als ein solcher mit 14 oder gar 16 Bit. Ist schon eine blöde Welt, was?
Selbst wenn wir nur einen Sensor mit miesem Dynamikbereich hätten, ein ADC mit hoher Auflösung und weniger Geiz beim Druckerkauf würden wohl mehr bringen als ein Monsterdynamiksensor mit mickrigen ADC und dicken fetten Tintentropfen.
Und so einen Sensor mit "miesen" Dynamikbereich haben wir jahrzehntelang verwendet und ihn einfach Diafilm genannt.
 
(...) Ich verwette meinen Bart, dass sich vor allem unter letzteren beiden keine 2% der User hier etwas vorstellen können, wohingegen 92% zu wissen glauben, was Dynamik ist.

In Anbetracht der Diskussion zwischen Robert und Harald würde ich schätzen, dass maximal 2 Prozent noch verstehen, was die Diskussion mit Fototechnik zu tun hat. Ich zähle mich zu den 98 Prozent Ahnungslosen, die bis vorhin noch dachten, zu wissen, was Dynamik ist. Wenn ich die Diskussion noch weiter verfolge, weiß ich womöglich noch nicht mal mehr, was Fotografie ist.

Aber interessant ist es schon hier.:D

Vielleicht sollten wir den Forumbetreiber darum bitten, die Benutzer dieses Forums zu unterteilen in 2 Prozent mit Postberechtigung und 98 Prozent mit ausschließlicher Leseberechtigung. Wäre das nicht Dein Traum, species?

Ach, noch was , species: 2 + 92 Prozent = 94 Prozent. Wie bezeichnest Du die restlichen 6 Prozent? Halbwissende?
Oder hast Du Dich mal wieder verrechnet?
 
Sehe ich genauso. Das Leben ist zu kurz, um sich über Kameras zu ärgern. Allerdings ist ein Systemwechsel so was wie ein Offenbarungseid. Was, wenn damit die Probleme nicht gelöst sind, oder, wenn ein halbes Jahr später ein dritter Hersteller eine noch bessere Kamera herausbringt?

Damit würde gar nichts gelöst, denn das was nach dem Wechsel besser ist, wird durch andere Macken neutralisiert. Gewonnen ist dadurch nicht viel. Mir wäre am meisten geholfen, wenn man meiner E-3 [im übertragenen Sinne, Anm.] am besten gestern einen High-Tech Sensor einbauen würde. Ich denke, damit täten Pana und Oly nicht nur mir einen gefallen sondern auch sich selbst und allen anderen Käufern eines solchen Body auch.

Ich habe mich spasseshalber mal auf der DxO Seite herumgetrieben... die Panasonic LX3 hat trotz kleinerem Sensor/kleineren Pixeln einen höheren maximalen Dynamikumfang als die E-3 und praktisch einen ebenso hohen wie die 50D (10,86 zu 10,88EV) und, äh, die 5D (10,77EV)... wie war das noch mit der Sensorgröße?

Das Thema ist hier doch gar nicht Sensorgröße, sondern warum (!) der FT-Sensor von Panasonic (NMOS) so weit zurückliegt, und dass (!) er zurückliegt ist ja scheinbar unstrittig, und zwar völlig unabhängig von meinen Problemen mit dem Sensor.

Jetzt können wir uns natürlich fragen, warum Panasonic mehr Dynamik bei der kleinen Knipse hinbekommt und die FT/mFT Modelle im Regen stehen lässt... Alternativ können wir uns auch ein Loch in den Bauch beißen oder uns schwarz ärgern. Oder 10³ weitere Beiträge zum Thema verfassen. Oder uns mal die DxO-Messwerte für SNR, Tonal Range und Color Sensitivity ansehen, drei Schnabeltierarten, die im digitalen Forendschungel bislang noch wenig beachtet wurden. Ich verwette meinen Bart, dass sich vor allem unter letzteren beiden keine 2% der User hier etwas vorstellen können, wohingegen 92% zu wissen glauben, was Dynamik ist.

Ja, das können wir alles machen oder lassen. Hauptsache der user wird dafür sensibilisiert und tritt seinem Hersteller virtuell in den Hintern, damit er in Zukunft einen besseren Job macht.
 
Zuletzt bearbeitet:
Hallo Rolf!
In Anbetracht der Diskussion zwischen Robert und Harald würde ich schätzen, dass maximal 2 Prozent noch verstehen, was die Diskussion mit Fototechnik zu tun hat. Ich zähle mich zu den 98 Prozent Ahnungslosen, die bis vorhin noch dachten, zu wissen, was Dynamik ist. Wenn ich die Diskussion noch weiter verfolge, weiß ich womöglich noch nicht mal mehr, was Fotografie ist.
Um Gottes Willen. Ich denke, Robert und ich hatten keineswegs die Absicht unsere Mitleser verständnismäßig so abtreiben zu lassen.
Das Problem dürfte der Begriff Dynamik sein, der offenbar -und wahrscheinlich auch durch die Nachbardiskussionen - für alles herzuhalten hat, was nicht trivial erklärbar scheint.
Dazu kommen noch Testaussagen unzähliger Internetseiten, die die Verwirrung komplett machen.
So wie es aussieht, haben Robert und ich uns geeinigt, als Dynamik den Belichtungsumfang anzusehen, vielleicht auch geeigneter mit Eingangsdynamik zu umschreiben.
Die Verwirrung nur unterstützt hat die durchaus differenzierte und auch anzweifelbare Ansicht des Einflusses der Bitauflösung des immer beteiligten AD-Wandlers in der Kamera. Ich weiß nicht, ob ich Robert mit meinen Betrachtungen überzogen konnte, aber die Hoffnung stirbt bekanntlich zuletzt :-)
Ich stelle jetzt einmal der Einfachheit halber fest, daß der elektrische Übertragungsweg im inneren der Kamera als linear anzusehen ist (zumindest einmal für einen CCD) und im Wesentlichen auch die Rohdaten in einer RAW/DNG Datei noch ihren linearen Ursprung nicht verleugnen können.
Alles weitere, also vom RAW Konverter über die JPEG-Engine bishin zum Druckertreiber sind nichtlineare Komponenten, die zum Teil einer umkehrbaren Funktion folgen (sRGB, Druckerfarbraum etc.) und daher zumindest "linearisierbar" sind und auch als solches zu betrachten sind. Daher beeinflussen diese Komponenten den Dynamikumfang (besser Belichtungsumfang) der Aufnahme nicht.
Alle bildeindruckbeeinflussende Komponenten (Tonwertanpassung, Schattenaufhellung, Lichterabschwächung, Gamma/Filmkurven) sind meist als nichtumkehrbare Funktion implementiert, ich zähle diese also zu Dynamikbeeinflussern.
Tja, und weil es im Leben nichts geschenkt gibt (there is no free lunch) wird durch diese zusätzlichen Leistungsmerkmale der Dynamikbereich im besten Fall auch nicht beinflußt, im schlimmsten Fall aber immer reduziert (hat was mit Entropie zu tun, aber ich höre ja schon auf damit).
Simpler Schluß: wenn in einem Test ein Dynamikwert (Belichtungsumfang von der Aufnahme bis zur bildhaften Reproduktion) als geringer angesehen wird als es der Sensor laut Herstellerdatenblatt eigentlich kann, dann sollte dies als ein negatives Argument zur getesteten Kamera angesehen werden. Da aber in den meisten Tests die bildhafte Reproduktion schon bei den JPG-Dateien abgebrochen wird, bezeichne ich diese Test als nahezu aussagelos.
Es stellt ja keiner der Tester fest, ob nicht so ein vergetestetes JPG doch noch nach dem Ausdrucken den vollen Belichtungsumfang des Sensors wiederzugeben im Stande ist.
 
Mal ganz ernsthaft gefragt. Versuchst Du mit der E-3 so zu fotografieren wie mit der E-300/E-1 ?

Jein. Mit der E-300 schaute ich, wenn ich bei der Aufnahme genügend Zeit hatte, aufs Histogramm, und wenn da rechts kein Riesenausschlag war, wusste ich, dass praktisch alles in Ordnung ist, weil ich die Lichter per RAW-Konverter zufriedenstellend korrigieren konnte. Mit der E-3 versuche ich, wiederum auch nur dann, wenn genügend Zeit ist aufs Histogramm zu achten, rechts etwas Platz zu lassen; sonst halte ich i.d.R. mit ESP+AF drauf und lasse mich überraschen. In den Situationen, die mich das fürchten gelehrt haben, korrigiere ich bis zu 1,5 Blenden nach unten; manchmal reichts um durch EBV was ansehliches zu produzieren, und manchmal ärgere ich mich schwarz und muss die Schatten selektiv entrauschen, weil sie durchs Hochziehen mit Artefakten, je nach ISO auch noch Streifenbildung, übersäht sind.

Ich lasse die E-3 eigentlich auf ESP stehen und EV auf 0 und selbst in solchen Situationen wie jetzt im Schnee, lässt mich die Belichtung nicht wirklich im Stich. Wenn die Bilder dann zu dunkel werden, kann ich die ohne weiteres störendes Rauschen hochziehen. Das Ergebnis sieht dann auf jeden Fall besser aus, als wenn ich das aus unterbelichteten alten E-1 und E-300 Fotos herausholen möchte.

Der Unterschied ist halt, dass ich mit der E-300 praktisch nie Schatten hochziehen brauchte. Wenn ich das mal tun musste, hatten mich die Rauschartefakte auch bei der E-300 gestört. Der Kodak-FFT neigt allerdings zu praktisch keiner Streifenbildung, so dass wenn ich entrauschen musste, es sehr leicht vonstatten ging.

Fairerweise muss man aber auch erwähnen, dass meine E-300 um die 2/3 Stufe unempfindlicher ist als meine E-3. Das selbe Objektiv, die selbe Blende, die selbe ISO-Zahl, praktisch gleiches Histogramm, ergibt an meiner E-3 eine 2/3 schnellere Verschlusszeit als an meiner E-300.
 
Zuletzt bearbeitet:
Frag mich gerade wo die Diskussion hier noch hinführen soll. Was sicher auch darin liegt, dass hier manches für mich nicht nachvollziehbar ist.:o Und zwar aus technischen Gründen. Vielleicht muß ich auch nicht alles nachvollziehen können - bin wahrscheinlich auch nicht der Einzige ;) Insofern ist es eigentlich auch nicht so wichtig, wie wir das Problem jetzt definieren.

Fakt ist (für mich): Auch ich hab öfters Probleme "alles" auf dem Bild unterzubringen. Auch oft dann, wenn ich richtig belichte.
Ich denke, dass es jetzt viele Möglichkeiten gibt, damit umzugehen:

1. Akzeptieren (auch weil das Problem auch bei anderen gibt - vielleicht nicht in der Ausprägung)
2. Strategien entwickeln, wie das Problem "kleingehalten" werden kann. (SAT, Belichtung mit der Hi-Messung auf den hellsten Punkt...usw.)
3. Zur Konkurrenz wechseln

Ich kann aber verstehen (und es geht mir genauso) dass es in der Regel bei der Konkurrenz besser klappt. Und zwar manchmal schon mit einfachem Draufhalten. Also ohne irgendwelche "Tricks. Und das ärgert mich schon! Irgendwie glaube ich aber noch nicht, dass die Sensoren der nächsten E-Kameras das Problem lösen.

Gruß,
Der Photograph.
 
WERBUNG
Zurück
Oben Unten