• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RAW macht Spass!

Guck an! Hab’ ich noch nie bemerkt. :angel: Womöglich weil ich seltenst Serien mit mehr als drei, vier Bildern schieße.
 
Und würde dass nicht bedeuten, 2 hoch 8 zu 2 hoch 14,
also 256:16348.
Das heisst in JPG würde die Info auf rund 1,6% runterinterpoliert?

Nein, ganz so krass ist es nicht. In Wirklichkeit besitzen ja die (üblichen) modernen Kameras nicht einen echten Mehrfarbsensor, sondern sie besitzen bei
12 MP gerade mal 6 MP mit grünen Sensoren und je 3 MP an roten und blauen Sensoren. Wenn man ehrlich ist kann man daraus maximal ein 6 MP JPEG generiern, die rechnen aber gleich mal auf 12 MP hoch. Damit kann man einen Teil der zusätzlichen Farbauflösung bei der Interpolation verwenden.
Au0erdem müssen für diese Umwandlung auch noch einige Annahmen, wie zum Beispiel über den Weißpunkt getroffen werden und die reale Empfindlichkeit des Sensors abgeglichen werden, was auch noch einmal jede Menge an Farbinformation verbraucht. Wenn der Weißpunkt dabei halbwegs passt hat man vor allem in den mittleren Bereichen relativ wenige Verluste sondern vor allem in den Lichtern und Schatten gehen Informationen verloren , wo jedoch bei einer guten Aufnahme hoffentlich sowieso wenig Information zu finden wäre. Dadurch halten sich die tatsächlichen Verluste bei einer guten Aufnahme in engen Grenzen. Dann bieten moderne Kameras natürlich auch noch solche Features wie das entfernen von Objektivverzerrungen und Entfernung der Chromatischen Aberation, wie auch Berücksichtigung der Bilddynamik.
Doch Wehe wenn etwas davon nicht genau passt, dann liefert genau diese zusätzliche Auflösung die Reserven um vielleicht doch noch das Bild zu retten.
 
ist es nicht so, dass JPG 8 und RAW je nach Kamera z. B. 14 bit hat.
Und würde dass nicht bedeuten, 2 hoch 8 zu 2 hoch 14,
also 256:16348.
Das heisst in JPG würde die Info auf rund 1,6% runterinterpoliert?
Das siehst Du rein rechnerisch richtig.
Nein, tut er nicht ;)

JPEG hat 8 Bit, die den Tonwertumfang mit einer Gamma-Kurve (Gamma 2,2 bzw. sRGB-Tonkurve ähnlich Gamma 2,2) in 255 Stufen abbilden. RAW hat 12 bzw. 14 Bit, die den Tonwertumfang linear abbilden. Das ist nicht zu vergleichen. Außerdem wird je nach Kamera auch nicht der gesamte RAW-Tonwertumfang in das JPEG überführt (Stichwort "RAW-Headroom", siehe z.B. dpreview-Tests). Ansonsten siehe auch hier.

In einem anderen Thread hatte ich auch mal dargestellt, warum man bei linearer Tonwertabbildung auf jeden Fall mehr als 8 Bit Tonwertauflösung braucht. Dort zwar in Bezug auf EVB (Lightroom hat einen Arbeitsfarbraum mit linearer Tonwertabbildung), das gilt aber genauso für das Auslesen des Sensors, was auch linear funktioniert.

Nein, ganz so krass ist es nicht. In Wirklichkeit besitzen ja die (üblichen) modernen Kameras nicht einen echten Mehrfarbsensor, sondern sie besitzen bei 12 MP gerade mal 6 MP mit grünen Sensoren und je 3 MP an roten und blauen Sensoren. (...)
Du vermischst hier glaube ich fröhlich Tonwertauflösung und räumliche/flächenmäßige Auflösung ;)

Du hast aber einen wichtigen Punkt angesprochen: Wie ein RAW-Konverter (auch der in der Kamera) die Bayer-RGGB-Kanäle mit dem Demosaicing, dem Anwenden des Farbprofils (die RGB-Kanäle beeinflussen sich gegenseitig, z.B. reagieren die roten Pixel teilw. auch etwas auf Grün und umgekehrt, was bei der Umwandlung berücksichtigt werden muss) und des Weißabgleichs in die JPEG-RGB-Kanäle umrechnet, ist ein hochkomplexer Vorgang. Zusammen mit dem oben beschriebenen Unterschied RAW=linear/JPEG=Gamma ergibt sich damit, dass die Bit-Auflösung von RAW und JPEG überhaupt nicht mehr vergleichbar sind.

Weiterhin wird bei einem RAW in den Tiefen viel von der hohen Bit-Auflösung dazu "genutzt", nur noch das Sensor-Rauschen aufzuzeichnen, was bei der Umwandlung in ein JPEG sinnvollerweise natürlich nicht übernommen wird. Außerdem ist die Bit-Auflösung in den Lichtern eigentlich viel zu hoch, soviel braucht man gar nicht, wenn man das Bild in ein normales Gamma umwandelt (höchstens evtl. bei Spezialanwendungen wie HDR), siehe den ersten Link zu Adobe.

Man muss sich also beim JPEG keine Gedanken darüber machen, dass da nur noch 1,6% der ursprünglichen Bildinformationen ankommen, das ist die falsche Rechnung :) Und es ist schon gar kein Grund (oder jedenfalls reicht es nicht als einzelner Grund aus), unbedingt RAW benutzen zu müssen.
 
Zuletzt bearbeitet:
Du vermischst hier glaube ich fröhlich Tonwertauflösung und räumliche/flächenmäßige Auflösung ;)

Jein. Ich weiß zwar wie die Zusammenhänge sind und wie man so etwas wirklich interpretieren muß, aber in Anbeetracht des grundsätzlichen Fehlers wollte ich nicht zu genau in die Sache einsteigen. Es sind erzwungenermaßen sowieso immer "Lügen für Kinder", wenn ich hier mal Terry Pratchett zitieren darf.

Vereinfacht gesagt: RAW Daten sind Messwerte, aber KEINE Bilder! Man kann sie nur mit einigen Aufwand zu Bildern interpretieren, nur braucht man dafür Hilfe oder zusätzliche Annahmen zu Bildern umsetzen die wir für realistisch halten. Gerade eine Vollautomatik kann bei Aufnahmen schon mal vollkommen daneben greifen und ein nicht mehr zu rettendes JPEG erzeugen. Die Kamera-Encoder sind heute auf jeden Fall schon so gut, dass man in vielen Fällen gute Ergebnisse erhalten kann (anders als vor ein paar Jahren wo sie aus Gründen der Geschwindigkeit auch noch teilweise vereinfacht rechnen mußten).

Man darf allerdings eine Sache nicht aus dem Blick verlieren: Es gibt hier kein richtig oder falsch! Es wird immer nur versucht aus den Informationen ein Bild zu gewinnen, dass wir für realistisch oder toll halten. Es gibt dabei eine Reihe von Punkten die erfolgen müssen um bestimmte Eigenarten des jeweiligen Sensors zu kompensieren, um schließlich ein Bild zu erhalten was wir für realistisch halten. Allerdings gibt es au8ch einige Sachen wo es kein richtig oder falsch gibt . Häufig genug ist es ein Abwägen von Kompromissen.

Die Algorithmen die die JPEG ENgine versorgen sind meist ziemlich ausgetüfftelt in Hinischt auf das was die meisten Leute sich wünschen.
Das Ergebnis kann besser sein, als das was ein unbedarfter Anfänger in einer Stunde Arbeit sich zusammen klicken kann. Es kann aber auch sein dass das Shooting aus bestimmten Gründen so beschaffen ist, dass die Kamera immer wieder auf dem falschen Fuß erwischt wird oder bestimmte Dinge eben nicht sauber vorher geklärt werden können und wo ein Einsatz von RAW fast zwingend notwendig ist.

Es gibt hier keine reine Lehre, sondern was ist in einem gegebenen Workflow einfacher und zweckmäßiger.
 
Quote-Herkunft editiert!
Außerdem ist die Bit-Auflösung in den Lichtern eigentlich viel zu hoch, soviel braucht man gar nicht, wenn man das Bild in ein normales Gamma umwandelt (höchstens evtl. bei Spezialanwendungen wie HDR
<Ohren spitz> Frage eines RAW-Anfängers: heisst das, es sind in den Spitzlichtern in einer RAW-Datei viel mehr Details enthalten, als wenn man das Bild gleich als JPG hat abspeichern lassen?

Ich wollte mir mal beweisen, dass die Unterschiede zwischen RAW und JPG, deren Endergebnisse hier im Forum in verschiedenen Threads gezeigt wurden, nur auf mangelnde Kompetenz in EBV zurückzuführen seien und ich hab' ziemlich lange Erfahrung mit GIMP und anderen. Also hab' ich mir aus einem Thread ein typisches JPG runtergeladen und versucht, das deutlich bessere Endergebnis seines Schöpfers in dem Exemplar, wo er's aus RAW entwickelt hat, auch damit hinzukriegen. Ergebnis: in den Lichtern des JPG war garnix, die sind bei entsprechender Spreizung einfach eine einheitliche Fläche geblieben.
 
Zuletzt bearbeitet:
@starscapefan,@Karsten316, @ etc...
Ihr habt Euch so intensiv mit RAW beschäftigt. Hut ab. Man lernt immer was dazu. Gibt es ein Tool mit der man die RAW auslesen und ohne jegliche Korrekturen anzeigen kann? Halt Pixel für Pixel, ohne Interpolation, etc. Ich würde gerne mal sehen wie so was von meinen Bildern aussieht. Kann mir auch vorstellen, dass so was helfen kann, RAWs besser zu verstanden.
 
Gibt es ein Tool mit der man die RAW auslesen und ohne jegliche Korrekturen anzeigen kann?
Nein, das wären nur Einsen und Nullen ;)

Edit: Vergiss das obige.. Und das folgende gilt nur für die Ausgabe eines "realistischen" Bildes:

Oder anders gesagt: Die Daten des RAWs müssen erst interpretiert werden um ein Bild anzeigen zu können.
 
Zuletzt bearbeitet:
Nein, das wären nur Einsen und Nullen ;)

Oder anders gesagt: Die Daten des RAWs müssen erst interpretiert werden um ein Bild anzeigen zu können.

Naja, es geht auch etwas verständlicher als Einsen und Nullen: Man kann durchaus anschaulich darstellen, was jeder einzelne Sensor-Pixel für sich genommen sieht: eine bestimmte Menge an Licht einer bestimmten Farbe. D.h. rot, grün oder blau mit einem bestimmten Helligkeitswert.

Da das menschlicht Auge auf grün viel empfindlicher reagiert als auf rot / blau, gibt es (bei dem meistens eingesetzten sog. Bayer-Sensor) mehr Pixel, die grüne Lichtinformation einfangen als rot bzw. blau. Entsprechend sehen solche Sensor-Bilder dann sehr grün aus.

Schöne Beispiele, was die Kamera "sieht" und was dann letztlich daraus für ein Bild interpoliert wird sind z.B. hier:

http://www.digitalphotographywriter.com/2010/09/raw-image-format-should-you-shoot-in.html
http://news.cnet.com/8301-30685_3-10407309-264.html
http://www.ddisoftware.com/reviews/sd9-v-bayer/
http://www.guillermoluijk.com/article/virtualraw/index_en.htm
 
WERBUNG
Zurück
Oben Unten