• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Technische Hintergründe zum Dynamikumfang

Spetsnaz

Themenersteller
Ein paar technische Fragen hätte ich:

- Können sich unterschiedliche Dynamikumfänge bereits im .jpg zeigen, obwohl die Dynamik im .jpeg ja generell schon begrenzter ist?

- Was bringt eigentlich mehr Dynamikumfang im RAW, wenn das finale Produkt aus dem .jpeg zu Papier gebracht wird. Oder anders: Wenn ich ich ein .jpeg so abstimme, dass der Dynamikumfang vermeintlich zur Geltung kommt (mehr Zeichnung im Bereich xy), verliere ich doch im Zweifel Daten in einem anderen Bereich, da der Dynamikumfang des Dateiformates beschränkter ist.

- Welche technischen Eigenschaften benötigt ein Ausgabemedium um einen höheren Dynamikumfang tatsächlich zur Geltung zu bringen?

- Wie hängt Rauschen und Dynamik genau zusammen oder anders herum: Eine Ur-Alpha 7 hat einen relativ hohen Dynamikumfang, rauscht aber im Vergleich mit ähnlichen Modellen mehr. Eine 6D hat z.B. einen geringeren Dynamikumfang, soll aber relativ wenig rauschen. Wäre sie damit beim vielzitierten "hochziehen von Schatten" damit generell im Nachteil? Was kommt also beim "geringen Rauschen in dunklen Bildpartien" eher zum Tragen: Mehr Dynamik oder ein besseres Rauschverhalten?

Im Voraus Danke!
 
Dynamik (im Bild) ist das Verältnis des maximalen Signals (Full Well Capacity) zum Rauschen ohne Signal. Wenn die hohen Dynamik durch eine hohe Full Well Capacity erreicht wird, ist das Rauschen in den relevanten Bildteilen niedriger als wenn durch ein niedriges Rauschen ohne Signal die gleiche Dynamik erreicht wird.
 
Ein paar technische Fragen hätte ich:

- Können sich unterschiedliche Dynamikumfänge bereits im .jpg zeigen, obwohl die Dynamik im .jpeg ja generell schon begrenzter ist?
Ja, das geht. JPEG-Files entstehen in der Kamera oder beim Entwickeln eines RAW-Files durch Anwendung variabler Tonkurven (Kontrast-, Schwarz-/Weisspunkt-Einstellungen, ...) und können eine fast schon tonemapping-artige Dynamikkompression aufweisen. I.a.W.: die kleinsten Signalabstufungen sind über den 8-bit-Bereich von JPEG-Files nicht gleichverteilt.

Routinemäßig wird in der Wandlung zu JPEG schon mal ein sRGB-Farbraum angelegt und ein Monitorgamma von ca. 2,2 zur Anwendung gebracht. Somit sind die in JPEG-Daten entstehenden R-, G- und B-Werte mitnichten linear zur ursprünglichen Helligkeit.

Der Rest der Antworten ergibt sich hieraus.
 
Es gibt einige die sind bei dem Thema deutlich sicherer als ich. Ich versuche es trotzdem.

(1) Gäbe es keine Veränderung der Bilddaten und Kurven, läge die "native" Darstellung einer 8Bit-Datei bei etwa 9-10 Blenden. (lineare Daten mit ~Gamma2.0 auf den Menschen angepasst).

(2) Wird ein höherer Dynamikumfang auf den üblichen 8Bit-Bereich komprimiert, kann der höhere Umfang nur durch eine nichtlineare Kurve (die "übliche Gamma/Log" ausgenommen) wieder gezeigt werden. Im Idealfall solllten Kompressionskurve und Dekompression(Umkehrfunktion) identisch sein. Dabei sollte es zu Banding kommen, der in der Wiedergabe nicht auffällig sein muß - aber die Weiterverarbeitung ist quasi ausgeschlossen.

(3) Wie hoch ist der Dynamikumfang eines Drucks (Druckdichte). Im besten Fall 6 Blenden?! Ergo werden "vorverdaute" 13 Blenden-Daten in 8-Bit/10 Blenden gedrückt und dann nochmals auf 6 Blenden optimiert..

(4) Das heisst im Endeffekt: Der Bildeindruck(!) eines hohen Dynamikumfangs ist gewährleistet, aber er wird in der Wiedergabe nicht wieder erreicht. Der Bildeindruck, die Erkenntnis entsteht im Kopf.

(Gedankenspiel: Man zieht in einer Gegenlichtsituation das schattige Motiv hoch. Damit wird (technisch) aber nicht der Dynamikumfang erhöht, sondern nur simuliert, dass ein unendlich großes Gegenlicht benutzt wurde. Andersrum, ohne Hochziehen des Motivs hätte man auf einem HDR-fähigen TV ein Bild, das in den Schatten weiterhin dunkel wäre.. Dass dort verwertbare Bilddaten sind, tut ja nichts zur Sache, man sieht es kaum, weil die hellen Bildteile weiterhin deutlich heller sind.)

(5) Im Übrigen: Wenn Du in zB LR eine Bilddatei aufmachst, keine Regler bewegst, zeigen alle(!) Bilder den gleichen Dynamikumfang, egal ob Sony, Fuji oder Canon. Er entspricht den 8Bit-Linear+Gamma = ~10 Blenden.

Welche technischen Eigenschaften benötigt ein Ausgabemedium um einen höheren Dynamikumfang tatsächlich zur Geltung zu bringen?
Passiv wie Papier? Aktiv wie ein TV? Es bleibt letztlich immer das Gleiche, das statische Verhältnis zwischen niedrigster (nicht 0) und höchster Luminanz.

Auf Anhieb fallen mir medzinische Monitore (Dicom Nifti als Dateiformate bzw. rechtssichere Wiedergabe) und LED-Wände ein, die einen höheren Dynamikumfang darstellen können. Aber wie kommen die Daten dorthin :D Und es gibt auch genug Monitore die einen höheren statischen Kontrast haben, aber wieder: Über welches Kabel aus welchem Gerät werden die Daten zugespielt..) Deswegen bin ich schon ein Fan von HDR10 und dem Gedanken, endlich die Bittiefe anstatt der Auflösung zu erhöhen.

Hoffe, ich habe keine groben Schnitzer reingebaut und ein bisschen helfen können.

mfg chmee
 
Zuletzt bearbeitet:
Der Kontrastumfang unserer Bilder ist meist nicht durch den Sensor begrenzt, sondern durch das Objektiv. Iliah Borg zeigt in diesem schönen Artikel

https://www.rawdigger.com/howtouse/Dynamic-range-fair-share-of-flare-and-glare

dass selbst Spitzenobjektive Probleme haben, unter realistischen Bedingungen deutlich mehr als 10EV Kontrast abzubilden. Die hellen Stellen im Bild erzeugen nämlich Streulicht, dass irgendwann die Schatten so weit aufhellt dass sie nicht mehr schwarz sind. Um überhaupt 14EV zu messen, bedarf es schon einiger Tricks. Die sind umstritten, weil die Messwerte vom verwendeten Objektiv abhängig sind und paradoxerweise umso besser ausfallen, je schlechter dieses ist.

Sensoren schaffen weitaus mehr. So bilden Scannerkameras über 23EV ab, weil sie sich während der Aufnahme bewegen und bei der Abbildung der Schatten den Lichtern "den Rücken zu drehen" und dadurch von Streulicht verschont bleiben. Ähnliche Effekte erreichst du mit gut gemachten HDR-Panoramen.

Wie kriegst du diese Kontraste aufs Bild? Genau wie der Maler mit dem Pinsel: Du bildest jede Helligkeitsstufe so ab, wie es deiner Vorstellung entspricht. Dafür sind die Regler an Bildbearbeitung und Konverter da.
 
dass selbst Spitzenobjektive Probleme haben, unter realistischen Bedingungen deutlich mehr als 10EV Kontrast abzubilden. Die hellen Stellen im Bild erzeugen nämlich Streulicht, dass irgendwann die Schatten so weit aufhellt dass sie nicht mehr schwarz sind.

Das Test Setup halte ich persönlich für sehr schwachsinnig.
Oft hat man ja Hochkontrastsituationen wo die Lichtquelle nicht direkt mit im Bild ist.
 
- Was bringt eigentlich mehr Dynamikumfang im RAW, wenn das finale Produkt aus dem .jpeg zu Papier gebracht wird.

Es geht ja in der Postproduktion darum die Helligkeitswerte aus dem RAW so zu stauchen dass sie in den Dynamikumfang des ausgabemediums hineinpassen.
 
glaube nicht, daß es um die Lichtquelle geht, sondern um das helle bilddetail, das 14 LV heller ist als der noise Floor und siehe da, dieses helle Detail ist der grund dafür, daß das objektiv die dunklen Details nicht in tiefschwärze sondern in dunkelgrau auf den sensor projiziert.
(zeiss macro, Canon 70-200, tamron …)

und normalerweise ist der iliah borg nicht jemand, der sich grobe fehler - wie den von dir vermuteten schwachsinnigen versuchsaufbau - leistet.

lg gusti
 
glaube nicht, daß es um die Lichtquelle geht,

Doch, er schreibt ja die ganze Zeit dass es um Flares geht.
Aber bei Motiven wo ich keine Lichtquelle direkt mit im Bild habe, habe ich typischerweise auch keine Flares drauf.

Korrigiere meine Aussage, das Setup ist nicht unbedingt schwachsinnig, gilt aber lange nicht für alle arten von Motiven.
 
er erwähnt "Flare", betont aber besonders "glare" und das ist was anderes als "Flare".


im objektiv herumirrendes Streulicht, das den "gesamten" bildkontrast reduziert, also alle Bildstellen mit ein paar LV licht versorgt, wo keines sein sollte.

nun hoffe ich, daß es dir klar ist.

(da ich nicht der Autor des Artikels bin, will ich nicht über Details und noch weitere Details diskutieren. möglicherweise kann ich das gar nicht exakt richtig.)

am besten du fragst iliah borg, ob der nicht noch ein weiteres loch in seiner grauen blende rausschneiden will um dort mit einem viel helleren Scheinwerfer sonnengleich durchzustrahlen um dann zwischen von "Flares" und von "glares" verursachten DR-verlusten zu unterscheiden.


das Resultat dürfte aber das gleiche bleiben … das dunkelste bilddetail wird um max. 11 blenden dunkler sein als das hellste spitzlicht.


wenn du genau liest, dann hat er seine hellste stelle so belichtet, daß das spitzlicht gerade um 1/3 blende dunkler ist als der clipping-punkt.
der von mir vorgeschlagenen sonnengleiche scheinwerferstrahl wäre um zig-blenden heller, also sowas wie du dir die sonne in Bildern vorstellst, wo die Szene richtig belichtet ist, aber die sonne absolut ausfrißt und wo du dann, je nach zufall, "Flares" siehst,

lg gusti
 
Zuletzt bearbeitet:
Die verschiedenen Tester (dpreview, DXO, etc...) testen die Dynamik mit verschiedenen Setups:

Bei dpreview wird z.B. die Kamera auch mal auf eine bestimmte ISO-Zahl eingestellt, bei der gemessen werden soll. Fotografiert wird dann ein Testbild mit viel Kontrast. Und mit einer möglichst guten Optik. Dann wird über die EV-Einstellung (über die Belichtungszeit) der EV-Wert der Belichtung so lange reduziert bis gerade nichts mehr erkennbar ist an Details. Anschließend wird der EV-Wert der Belichtung so lange hoch gedreht, bis gerade keine Details mehr erkennbar sind. Und aus den beiden "Grenzbildern" wird dann der maximale Kontrastumfang des Sensors berechnet, so dass man hier z.B. bei den neuen Nikons auch mal auf 14.5 EV Dynamikumfang kommen kann.
Die Streuung des Lichts im Objektiv bei viel Kontrast in einer Szene bleibt hierbei aber kaum berücksichtigt.


DXO-Mark misst anders:
mit einer deutlich verbesserten Version des "Loch im Karton" Tests. Hier wird ebenfalls ein schwarzer Hintergrund verwendet, nur sind hier mehrere Löcher mit verschiedenen ND-Filtern, von 0% bis 99.99% vorhanden. Und hinter der Anordnung ist kein Laptop mit nur 300cd/m², sondern eine sehr hell gleichförmige Lichtquelle mit 1500 cd/m². Anschließend wird jedes "Ziel" erst mal vermessen um einen Referenzwert für die exakte Luminanz zu haben. Das wird dann abfotografiert und dann werden die Rohdaten des Sensors (R, Gr, Gb, B) für jeden Lichtfleck ausgewertet um den mittleren Grauwert und das Rauschen des Sensors zu bestimmen. Daraus wird dann eine SnR Kurve und daraus wiederum wird die Dynamik des Sensors abgeleitet. (https://www.dxomark.com/dxomark-camera-sensor-testing-protocol-and-scores/) Hier wird dann die Streuung im Objektiv bei Kontrastreichen Szenen mit gemessen. Allerdings werden wohl sehr gute Objektive verwendet werden (die wenig Glare und Flare Probleme haben..). Und nicht gerade ein altes 18-300 aus der Grabbelkiste.

Zudem macht es bei der Berücksichtigung der Glares bzw. der Streuung des Lichts im Objektiv auch noch einen Unterschied ob man eine einzelne, recht große helle Lichtquelle als Spitzlicht mit im Bild hat (wie beim Notebook-Versuchsaufbau von rawdigger) oder ob man flächenmäßig nur sehr kleine Spitzlichter in der Szene hat (wie bei DXO). Dann hat man eben auch weniger Lichtstrom in die Kamera insgesamt und deutlich weniger Streulichtphotonen, die auf die falschen Pixel kommen. Und damit mehr Kontrast im Bild.

Wie viel Dynamik man so einfangen kann, das sieht man nebenbei auch grob wenn man seine 14-bit Raws zu 16-bit Tiffs entwickelt und sich dabei mal das Histogramm bei einer absolut neutralen Bildeinstellung genauer anschaut, d.h. wenn weder Weiß- noch Schwarzpunkt angepasst werden. Manche Kameras mit neutralem Profil können das auch direkt am Display anzeigen. Da sieht man dann durchaus auch mal, dass man mit dem Licht in der Szene insgesamt nur z.B. einen kleinen Bereich des Histogramms ausnutzten kann. Entweder weil nicht mehr Licht da ist (z.B. nachts/in der Dämmerung/im Innenraum/Dunst/etc....) - oder weil schon insgesamt so viel Licht da ist, dass es durch das helle Gegenlicht zu einem massiven Kontrastverlust kommt.
(Bei manchen Kameras wird aber auch bei RAW Fotografie schon ein jpeg mit angepassten Werten am Display und auch am Histogramm angezeigt, d.h. die haben am Display eigentlich kein neutrales Profil..)

Nebenbei noch: Auch UV-Filter am Objektiv sorgen auch gern mal für Kontrastverlust und einen verringerten effektiven Dynamikumfang durch eine Streuung bei Gegenlicht, wenn Licht von der Frontlinse in den Filter und zurück in den Sensor reflektiert wird. Das ist der gleiche Effekt, den man auch noch mal im Objektiv hat. Nur eben zusätzlich.
 
Bei dpreview wird z.B. die Kamera auch mal auf eine bestimmte ISO-Zahl eingestellt, bei der gemessen werden soll. Fotografiert wird dann ein Testbild mit viel Kontrast. Und mit einer möglichst guten Optik.

dpreview macht sich noch nicht einmal die Mühe, auf die Raw-Werte zurückzugreifen. Die nutzen stattdessen ACR mit einer Einstellung, die das Rauschen der Kamera vervielfacht- für den Rotkanal habe ich schon den Faktor acht gemessen. Für die Nutzer besserer Konverter sind diese Daten also nutzlos.

DXO-Mark misst anders:
mit einer deutlich verbesserten Version des "Loch im Karton" Tests. Hier wird ebenfalls ein schwarzer Hintergrund verwendet, nur sind hier mehrere Löcher mit verschiedenen ND-Filtern, von 0% bis 99.99% vorhanden. Und hinter der Anordnung ist kein Laptop mit nur 300cd/m², sondern eine sehr hell gleichförmige Lichtquelle mit 1500 cd/m².

Das hab ich oben als "Trick" bezeichnet. Je kleiner man die hellen Stellen macht, umso geringer wird der Streulichteinfluss, und um so höhere Kontraste kann man messen. Das ist eine willkürliche Entscheidung. Wenn es wirklich um die Sensorleistung geht, muss man den Einfluss des Objektivs ausschalten. Das ist einfach: Man richtet die Kamera mit einem unscharf fokussierten Objektiv auf eine homogene Lichtquelle aus und macht eine Belichtungsreihe. Anschliessend trägt man die Werte in ein Diagramm ein - EV auf der x-Achse, Raw-Wert auf der y-Achse. Das schafft jeder zuhause, und entsprechende Charts habe ich hier schon reichlich gezeigt.

Objektive übertragen je nach Bauweise Makrokontraste sehr unterschiedlich. Ich habe hier schon Vergleiche Vierlinser - Sechslinser und Festbrennweite - Zoom gezeigt, die das deutlich machen. DxO hat das noch nicht verstanden. Wer deren Werte als Referenz nimmt, sollte berücksichtigen, dass sie nur für die angegebene Kamera-Objektivkombi und die maximale Lichtergrösse des Messaufbaus gelten.
 
soweit ich das gesehen habe versucht DxO zu messen welchen Kontrastumfang man maximal haben kann am Sensor, daher die kleineren Lichter für möglichst wenig Streulicht bei recht heller Beleuchtung von hinten.

Weniger Kontrastumfang kann man immer kriegen - man muss nur den "Lichtfleck" im Verhältnis größer machen und das Licht deutlich heller, dann hat man auch mehr verirrte Photonen.
 
Die verschiedenen Tester (dpreview, DXO, etc...) testen die Dynamik mit verschiedenen Setups:

Bei dpreview wird z.B. die Kamera auch mal auf eine bestimmte ISO-Zahl eingestellt, bei der gemessen werden soll. Fotografiert wird dann ein Testbild mit viel Kontrast. Und mit einer möglichst guten Optik. Dann wird über die EV-Einstellung (über die Belichtungszeit) der EV-Wert der Belichtung so lange reduziert bis gerade nichts mehr erkennbar ist an Details. Anschließend wird der EV-Wert der Belichtung so lange hoch gedreht, bis gerade keine Details mehr erkennbar sind. Und aus den beiden "Grenzbildern" wird dann der maximale Kontrastumfang des Sensors berechnet, so dass man hier z.B. bei den neuen Nikons auch mal auf 14.5 EV Dynamikumfang kommen kann.

Zu Beachten ist dabei, das DXO wirklich einen theoretischen maximalen Dynamikumfang angibt, der zwar kein messtechnisch relevant ist, in der Praxis aber keine Rolle spielt, da die extremen SNR-Werte von DxO von keinem Bildbetrachter als akzeptabel angesehen werden. Somit muss man sich bei DxO den Kurvenverlauf der einzelnen Kameras genau anschauen - es gibt einige Kameras, die im fotografisch nicht relevanten Bereich sehr viel Dynamikumfang abbilden, was dann bei DxO gut aussieht, in der Praxis aber nicht nutzbar ist, während Kameras mit moderatem Dynamikumfang lt DxO in der Praxis durchaus mehr bieten können.

Ein Versuch den fotografisch relevanten Bereich abzubilden gibt es hier
 
1) was ist der fotografisch relevante Bereich?
2) warum hat die d5 bei low iso einen deutlich geringeren DR als die z, aber 3) im high iso Bereich einen deutlich höheren dr?
3) gibt es wirklich einen deutlichen unterschied in den dr werten von dxo und von Photons to Photons?

lg gusti
 
1) was ist der fotografisch relevante Bereich?[/
2) warum hat die d5 bei low iso einen deutlich geringeren DR als die z, aber 3) im high iso Bereich einen deutlich höheren dr?
3) gibt es wirklich einen deutlichen unterschied in den dr werten von dxo und von Photons to Photons?
Fotografisch relevant? Das kommt auf die Szene an. Aufhellen im Wald bei Gegenlicht - da wird einiges gefordert, was über die üblichen 8-10 Blendenstufen hinausgeht.

Nicht-paralleler Dynamikverlauf unterschiedlicher Kameras: Ergebnis einer variablen Verstärkung vor dem A/D-Wandler.

Unterschied zwischen DxoMark und PnP: gering
 
1) was ist der fotografisch relevante Bereich?
2) warum hat die d5 bei low iso einen deutlich geringeren DR als die z, aber 3) im high iso Bereich einen deutlich höheren dr?
3) gibt es wirklich einen deutlichen unterschied in den dr werten von dxo und von Photons to Photons?

lg gusti

DxO nimmt als untere Grenze für den Dynamikumfang SNR=1, unwissenschaftlich als dem Bereich wo Rauschen und Details quasi in einander übergehen. In der Praxis wird keiner das noch als akzeptables Rauschen ansehen.

Als Beispiel: Die mft-Kamera GX8 hat lt DxO einen Dynamikumfang von 12,6 EV, mehr als eine D3, die ich davor besessen habe. In der Praxis war ich dann aber sehr enttäuscht, man konnte bei der Panasonic zwar die Tiefen stark aufhellen und auch noch Bildinformationen sehen, es war aber durch das massive Rauschen nicht wirklich nutzbar und sah deutlich schlechter aus als bei der D3

"Fotografisch Relevant" ist dabei sehr schwammig, da die Grenze für das akzeptable Rauschen sehr individuell vom Betrachter, der Ausgabegröße, der Art der Verarbeitung etc. abhängt und sich damit nicht wirklich definieren läßt
 
DxO nimmt als untere Grenze für den Dynamikumfang SNR=1, unwissenschaftlich als dem Bereich wo Rauschen und Details quasi in einander übergehen. In der Praxis wird keiner das noch als akzeptables Rauschen ansehen.

Und sobald man sich das Thema näher anschaut und z.B. die oben von mir vorgeschlagene Belichtungsreihe auswertet, kommt man ins Grübeln. Selbst wenn man bei der heftig rauschenden Pana G1 als worst case den Grünkanal nimmt (siehe Anhang), findet man allenfalls einen Rauschpegel von 20%. Wo die von DxO als Grenzwert angenommenen 100% herkommen sollen, ist mir ein Rätsel. Moderne Kameras entrauschen ohnehin die Raws, da kommen auch Grenzwerte von 1% an den dunkelsten Stellen vor.

Als Beispiel: Die mft-Kamera GX8 hat lt DxO einen Dynamikumfang von 12,6 EV, mehr als eine D3, die ich davor besessen habe. In der Praxis war ich dann aber sehr enttäuscht, man konnte bei der Panasonic zwar die Tiefen stark aufhellen und auch noch Bildinformationen sehen, es war aber durch das massive Rauschen nicht wirklich nutzbar

LR-Nutzer? Schau mal über den Tellerrand, was andere Konverter können. Bei der oben erwähnten G1 würde ich Aufhellung um fünf Stufen noch als knapp akzeptabel ansehen, bei der M5.2 habe ich schon 8.6 Stufen hier gezeigt- jeweils mit RT und bezogen auf Basis-ISO. Mit DxO geht mehr.
 

Anhänge

Nein, bzw. auch - nutze je nach Kamera C1, LR, RT und auch eine ältere Version von DxO hab ich - bezog mich jetzt aber auf die Daten von DxO
 
WERBUNG
Zurück
Oben Unten