• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Zweckentfremdet"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juni-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

RAW - TIFF 16bit Verlustfrei?

1. Bilder in JPEG und in RAW machen.

2. Bilder sichten und verschlagworten- Da reicht ja die JPEG's zu sichten und den Ausschuß gleich zu löschen.

3. RAW's gesondert speichern und für große Bilder Abzüge oder Nachbearbeitung aufheben und die JPEGS für den normalen Gebrauch.
Gute Idee. So ähnlich mache ich das auch (nur das Verschlagworten ist mir zuviel Aufwand - ich suche bei Bedarf lieber etwas länger).

1. Wie lösche und verschlagworte ich die JPEG und RAW Bilder gleichzeitig?
Es gibt Programme, die können RAWs und gleichzeitig aufgenommene JPEGs als Einheit behandeln, d. h. sie zeigen nur das JPEG an und löschen ggfs. beide gleichzeitig. Bei Nikon geht das mit Nikon View; ich nehme an, Canon bietet eine ähnliche Software.

2. Wie soll ich bei meiner 450D die Jpegs entwicklung einstellen (steht jetzt auf Bildstil "Natürlich" alle Werte auf Null) und wirken sich diese Einstellungen auf die RAW Daten aus?
Die RAW-Daten selbst bleiben davon unbeeinflusst; die Einstellungen werden allerdings als Metadaten mitgespeichert und in hersteller-eigener Konvertierungssoftware als Voreinstellung genutzt.

Ich würde daher die Kamera so einstellen, dass gleich brauchbare Bilder rauskommen (gute Schärfung, Kontrast und Farbsättigung nach Geschmack). Für weitergehende Bearbeitungen bleibt ja dann das RAW-Bild.
 
Prinzipiell geht bei der Konvertierung von RAW in 16-bit TIFF keine Information verloren. Prinzipiell bietet ein 16-bit TIFF sogar mehr Spielraum als ein RAW, da die meisten sicherlich 12-bit oder 14-bit RAWs sind. Die Wandlung muss natürlich direkt erfolgen. Also keine Schärfung und ähnliches.
Das ist falsch. Bei praktisch allen Raw-Konvertern enthält der TIFF-Output genau dieselbe Bildverarbeitung mit Ausnahme 16Bit-->8Bit Wandlung und der JPEG-Kompression. Es wird also Demosaicing, Farblinearisierung, Weißabgleich, Entrauschung, Schärfung durch geführt. Da geht eine Menge verloren, obwohl die Dateigröße sich vervielfacht.

Ein Problem ist allerdings zusätzlich, dass die TIFF-Dateien den ca. 3-fachen Platz verbrauchen werden. Denn wenn man die üblichen 4 Pixel betrachtet werden beim RAW diese 4 Pixel mit 4 16-bit Werten kodiert und beim 16-bit TIFF mit 12:


RAW:
- | R | G |
- | G | B |

TIFF:
- | RGB | RGB |
- | RGB | RGB |
Eine 16 Bit TIFF-Datei verbraucht pro Pixel 3 * 16 Bit = 6 Byte. Eine Raw-Datei braucht pro Pixel nur 12 bzw. 14 Bit und es wird bei neueren Kameras noch die Lossless JPEG-Kompression angewandt. In der Praxis sind also 16 Bit TIFF-Dateien 5-6 mal so groß wie Raw-Dateien. Da Raw-Konverter für jede bearbeitete Raw-Datei die Korrekturen abspeichern, seh ich deshalb keinen vernünftigen Grund für die Verwendung dieser monströsen TIFF-Dateien.
 
Sorry, ich vermute mal Du hast wenig Ahnung von Elektrotechnik und Softwareentwicklung...
Gewagte These, wenn man den hier und andere Threads kennt :D
Blendenumfang ist nur eine virtuelle Definition, die aus dem analogen Bereich in den digitalen übertragen wurde, um es für Fotografen, die damit seit Jahren arbeiten, verständlich zu machen.
Da hatten wir mal einen interessanten Thread, was eigentlich Dynamikumfang ist und was der mit Bittiefe, Blendenumfang und so zu tun hat.
Es ging um eine einfache Umwandlung von RAW in TIFF...
...Aber welcher Konverter ausser DCRaw leistet das schon? Das Ergebnis wäre viel zu dunkel, zu flau, Magenta(?)-Stichig, und falsches Gamma hätte das auch noch (wie Du ja selber sagst)...Ja, eine einfache 1:1-Umsetzung der Zahlenwerte des Raws in ein 16Bit-TIFF wäre natürlich absolut verlustlos, aber da diese Art der Umwandlung in der Praxis von niemandem gemacht werden will ist das halt so ne Sache. Ganz genau betrachtet kann bei der üblichen Entwicklung zu 16Bit tatsächlich ein bisschen was verloren gehen, bin ich auch letztens erst drauf hingewiesen worden :)
Oder besser selten dämlich ausgedrückt ;)
Dann hast Du einen schlechten RAW-Konverter, wenn er das Zielformat nicht beachtet.
Diese Highlight-Recovery-Sachen müssen glaub ich wissen, was der höchste mögliche Wert in einem Kanal sei kann. Ich hatte da mal eine hübsche Webseite gesehen, wo so eine Routine mit einem weissen Plastik-Spielzeuggewehr demonstriert wurde, hab die leider nicht gespeichert :mad: Würde man das nochmal sehen könnte man sich überlegen, ob das mit einem "normal" entwickelten Tiff noch gehen würde.
 

Im Teil hat er aber Recht. Vielleicht sollte man mal genau unterscheiden was der Unterschied zwischen 8, 16 und 32Bit ist. Es verdoppelt sich nämlich nicht einfach die Farbtiefe.

Alles was heller, als Weiss in 8Bit ist (255, 255, 255), ist in 16Bit genauso verloren. Die Farbtiefe an sich ist dieselbe, nur hat man bei 16Bit mehr Abstufungen, was bei der Bildbearbeitung von Vorteil sein kann. Trotzdem kann man keine Zeichnung in den Lichtern retten wie man es bei RAW gewöhnt ist. 8Bit und 16Bit enthalten unabhängig vom Format (TIFF, TNG, PNG usw.) nur INT Werte. 32Bit dagegen ist Float, und normalerweise wird hier der normale Farbraum von 0-1 mit Dezimalen gespeichert, alles über 1 sind Highlights. Da in 32Bit der Wert weit über 1 gehen kann, ist Float (Nur Nichtkenner sagen 32Bit) hat er eine fast unendlich Dynamik. Deswegen sind alle HDR's in Float, 16Bit kann das nicht.

Long Story Short:
RAW -> 16Bit = zusätzliche Informationen in den Highlights tot

edit: noch deutlicher -> Der max. Dynamikumfang ist in 8 und 16 Bit derselbe.. genauso wie in 1Bit (schwarz-weiss)
 
@Sven77:

Super Erklärung! Vielen Dank!

Dann ist der einzige Vorteil eines 16bit Bildes auch nur der, dass man bei Tonwertkorrekturen nicht so schnell sichtbare Abstufungen bekommt wie in 8bit, ja?

Wenn ein Bild also fertig bearbeitet ist und nur noch angesehen werden will, bringen einem 16bit also gar keinen Vorteil mehr, da man das dann weder auf einem Monitor oder einem Papierbild sehen würde, richtig?

Gruß, Markus
 
Richtig.

Und eine Tonwertkorrektur brauchst du eigentlich nicht wirklich wenn das RAW entsprechend bearbeitet wird.

Ich würde wenn dann Überhaupt eine Konvertierung in DNG in Betracht ziehen. Alles andere ist Quatsch. Es ist einfach sinnlos 10MB RAWs in 50MB Tiffs zu konvertieren wenn man doch eh alle Informationen im RAW hat.

Ich frage mich sowieso warum so viele RAW-Fragen ständig auftauchen. Das RAW-Format war einer der Hauptgründe für mich, damals mit dem Kauf der 350D, in die DSLR-Fotographie einzusteigen. Informiert sich eigentlich niemand mehr über die Features von Produkten bevor man die dann kauft? Ich wusste quasi schon alles über RAW und hatte noch nicht mal eine Kamera. :(
 
Wenn ein Bild also fertig bearbeitet ist und nur noch angesehen werden will, bringen einem 16bit also gar keinen Vorteil mehr, da man das dann weder auf einem Monitor oder einem Papierbild sehen würde, richtig?

Richtig! Dein Monitor kann sehr wahrscheinlich ohnehin nur 8bit/Kanal darstellen (gibt wenige Ausnahmen... z.B. Matrox-Karten an Analog-Monitoren: 10bit/Kanal)
 
Richtig.

Und eine Tonwertkorrektur brauchst du eigentlich nicht wirklich wenn das RAW entsprechend bearbeitet wird.

Es sein denn man will in PS noch am Bild rumbasteln.....

Ich würde wenn dann Überhaupt eine Konvertierung in DNG in Betracht ziehen. Alles andere ist Quatsch. Es ist einfach sinnlos 10MB RAWs in 50MB Tiffs zu konvertieren wenn man doch eh alle Informationen im RAW hat.

Das habe ich jetzt auch erkannt. Den Vorteil von DNG sehe ich noch nicht- aber das ist sicher ein anderes Thema....

Ich frage mich sowieso warum so viele RAW-Fragen ständig auftauchen. Das RAW-Format war einer der Hauptgründe für mich, damals mit dem Kauf der 350D, in die DSLR-Fotographie einzusteigen. Informiert sich eigentlich niemand mehr über die Features von Produkten bevor man die dann kauft? Ich wusste quasi schon alles über RAW und hatte noch nicht mal eine Kamera. :(

Ich habe mir die 450D gekauft, weil ICH die Bilder wieder machen wollte und die Nase voll von diesen IXUS Dingern hatte. Nach 10Jahren zurück zur SLR.....

Vielen Dank schonmal, Markus
 
Das habe ich jetzt auch erkannt. Den Vorteil von DNG sehe ich noch nicht- aber das ist sicher ein anderes Thema....

Offenes, markenunabhängiges RAW-Format.
D.h. wenn in 20 Jahren keiner mehr mit den unzähligen verschiedenen RAW-Formaten umgehen kann, lassen sich DNGs immernoch öffnen, da das Format offen spezifiziert ist.
Es ist ja heute schon ein Problem, dass nicht jeder RAW-Konverter jedes Format versteht... spätestens wenn neue Kameras erscheinen.
 
Der Vorteil von DNG wird wahrscheinlich die Langlebigkeit des Formates sein.

Es ist heute schon so das z.B. neue RAW-Konverter die 10D oder die 300D nicht mehr unterstützen. Bei zig unterschiedlichen Formaten, auch bei gleichem Hersteller ist das nur verständlich das die Entwickler in 10 jahren nicht mehr jedes uralt Format unterstützen wollen. DNG könnte das ganze recht elegant umgehen.

Ein großer Vorteil von DNG ist auch das z.B. Metainfos in der Datei gespeichert werden können. Also das was z.B. Lightroom momentan mit externen Dateien macht (das Speichern der Arbeitsschritte) könnte man auch bequem im DNG speichern und bräuchte sich keine Gedanken mehr um die Metadaten zu machen.

Leider kommt man wenn man DNG nutzen will nicht so wirklich um Adobe drum herum. :(

Edit: da war wohl jemand schneller. :)
 
Man sollte sich einfach klar machen, das ein RAW an sich kein Bildformat ist. RAW ist ein Datensatz mit den Werten die der Sensor aufgenommen hat. Diese Werte des "Bayer-Patterns" enthalten keinerlei Farbinformationen. Der Pixel weiss nicht, ob er nur Rot, Grün oder Blau aufzeichnet, das wird erst durch ein entsprechendes Programm interpretiert, und entwickelt. DNG ist praktisch eine Umwandling von RAW in ein RAW-ähnliches Format inkl. Farbinformationen.

Auch darf man beispielsweise die 10Bit eines RAWs nicht mit den 8/16Bit eines normalen digitalen Bildes verwechseln. Das ist wieder was ganz anderes (Stichwort 10Bit Log). Ich hab mal ne Arbeit darüber geschrieben, nicht DSLRs betreffend, sondern Filmkameras. Falls ich sie finde, lade ich sie mal hoch, dürfte die meisten Klarheiten beseitigen ;)
 
Alles was heller, als Weiss in 8Bit ist (255, 255, 255), ist in 16Bit genauso verloren. Die Farbtiefe an sich ist dieselbe, nur hat man bei 16Bit mehr Abstufungen, was bei der Bildbearbeitung von Vorteil sein kann. Trotzdem kann man keine Zeichnung in den Lichtern retten wie man es bei RAW gewöhnt ist. 8Bit und 16Bit enthalten unabhängig vom Format (TIFF, TNG, PNG usw.) nur INT Werte.
Ja und nein. Es ist richtig. Weiss ist weiss. ABER. Bei RAW nach 8-bit (TIFF oder JPEG) muss ein Tone-Mapping durchgeführt werden. Dieses Tone-Mapping kontrolliert man über die Regler "Lichter" und "Tiefen". Nichts anderes machen diese Regler. Bei RAW nach 16-bit oder gar 32-bit muss ebenfalls ein Tone-Mapping durchgeführt werde und zusätzlich später wenn es auf das Ausgabemedium angepasst wird, sei es Bildschirm oder Druck.
Ein Tone-Mapping muss immer durchgeführt werden, sonst ist weiss nicht mehr weiss. Ohne Tone-Mapping würde bei der Wandlung von 8-bit zu 16-bit das Weiss selbst im 16-bit mit 255,255,255 kodiert was dann aber nur noch grau ist. Deshalb auch die Gamma-Kurve. Sie erlaubt die Interpolation von Zwischenwerten bei solchen Wandlungen. Sie ist ebenfalls nichts anderes als ein Tone-Mapping. Soviel Namen und doch ist es mathematisch immer wieder das Selbe. ;)
Der Unterschied ist nur, dass bei der Wandlung von RAW nach 16-bit die Werte gespreizt werden weil 12-bit (bzw. neuerdings 14-bit) auf 16-bit abgebildet werden. Damit gewinnt man an Farbtiefe und verliert nichts. Wenn dagegen der RAW-Converter bei der Wandlung den Farbraum erst zusammenstaucht, um ihn danach wieder zu spreizen, dann macht der RAW-Konverter etwas falsch.
32Bit dagegen ist Float, und normalerweise wird hier der normale Farbraum von 0-1 mit Dezimalen gespeichert, alles über 1 sind Highlights. Da in 32Bit der Wert weit über 1 gehen kann, ist Float (Nur Nichtkenner sagen 32Bit) hat er eine fast unendlich Dynamik.
32-bit ist nicht Float und Float wird nicht per Definition in 32-bit kodiert. Selbst mit 32-bit Float kann man nicht unendlich darstellen. Selbst mit 64-bit Float ist das nicht möglich. Es gibt übrigens auch eine 16-bit Float-Abbildung (hat wir gerade die Diskussion, ob wir so etwas in unser System eindesignen sollen oder nicht - ich bin dagegen, weil es in meinen Augen keinen Sinn macht).

PS: Gerade die Tage gab es die Diskussion zur Genauigkeit bei Float kurz angerissen in einem anderen Forum: http://www.macuser.de/forum/f25/pi-berechnung-perl-433746/
edit: noch deutlicher -> Der max. Dynamikumfang ist in 8 und 16 Bit derselbe.. genauso wie in 1Bit (schwarz-weiss)
Ich habe mit dieser "Einheit" ja gar nicht angefangen. Diese ist ja nur für Nichttechniker eingeführt wurden, die in ihrer Welt leben um es etwas verständlicher zu machen ;)
 
Man sollte sich einfach klar machen, das ein RAW an sich kein Bildformat ist. RAW ist ein Datensatz mit den Werten die der Sensor aufgenommen hat. Diese Werte des "Bayer-Patterns" enthalten keinerlei Farbinformationen. Der Pixel weiss nicht, ob er nur Rot, Grün oder Blau aufzeichnet, das wird erst durch ein entsprechendes Programm interpretiert, und entwickelt. DNG ist praktisch eine Umwandling von RAW in ein RAW-ähnliches Format inkl. Farbinformationen.
Stimmt auch nur zum Teil. RAW ist ein Bildformat. Was macht ein Bildformat aus? Was sind die Eigenschaften das einen Datensatz als Bildformat qualifiziert und einen anderen nicht?
RAW ist sehr wohl ein Bildformat. Genau genommen ein S/W-Bildformat. Dieses S/W-Bildformat ist aber keine Abbildung der Umwelt als solches sondern wurde durch einen Farbfilter verändert; zumindest bei den meisten Kameras, bei den Sigma nicht wirklich.
Bei der Farbbildberechnung wird nun aus der Information des S/W-Bildes und den bekannten Informationen des verwendeten Filters die Zielinformation berechnet.
Auch darf man beispielsweise die 10Bit eines RAWs nicht mit den 8/16Bit eines normalen digitalen Bildes verwechseln. Das ist wieder was ganz anderes (Stichwort 10Bit Log). Ich hab mal ne Arbeit darüber geschrieben, nicht DSLRs betreffend, sondern Filmkameras. Falls ich sie finde, lade ich sie mal hoch, dürfte die meisten Klarheiten beseitigen ;)
Das da ggfs. noch Verstärkungsfaktoren zu berücksichtigen sind, macht die Sache auch nicht anders.
 
...
1. Bilder in JPEG und in RAW machen.
Ja!
...
3. RAW's gesondert speichern und für große Bilder Abzüge oder Nachbearbeitung aufheben und die JPEGS für den normalen Gebrauch.
Ja!
Ausschuss löschen und wichtige RAWs aufheben. Für den Normalgebrauch die Jpegs verwenden - entweder die aus der Kamera oder je nach Anforderung die von Dir aus RAW entwickelten.

Es ist eigentlich ähnlich wie in Analogzeiten: RAW sind die "Negative" und JPEG sind die Bilder. Man kann die Bilder vom Fotogeschäft = Kamera-JPGs nehmen oder in der Dunkelkammer = Software selbst entwickeln...

Gut Licht
Christian
 
Stimmt auch nur zum Teil. RAW ist ein Bildformat. Was macht ein Bildformat aus? Was sind die Eigenschaften das einen Datensatz als Bildformat qualifiziert und einen anderen nicht?
RAW ist sehr wohl ein Bildformat. Genau genommen ein S/W-Bildformat. Dieses S/W-Bildformat ist aber keine Abbildung der Umwelt als solches sondern wurde durch einen Farbfilter verändert; zumindest bei den meisten Kameras, bei den Sigma nicht wirklich.
Bei der Farbbildberechnung wird nun aus der Information des S/W-Bildes und den bekannten Informationen des verwendeten Filters die Zielinformation berechnet.

Ich gebe dir Recht. Ich versuche aber jemandem, der nicht fit in der Materie ist, es so zu erklaeren. Das funktioniert ganz gut.
 
Ein Tone-Mapping muss immer durchgeführt werden, sonst ist weiss nicht mehr weiss. Ohne Tone-Mapping würde bei der Wandlung von 8-bit zu 16-bit das Weiss selbst im 16-bit mit 255,255,255 kodiert was dann aber nur noch grau ist.

Das stimmt. Das ist bei jeder Umwandlung so. Denke das wurde auch nicht hinterfragt.

Der Unterschied ist nur, dass bei der Wandlung von RAW nach 16-bit die Werte gespreizt werden weil 12-bit (bzw. neuerdings 14-bit) auf 16-bit abgebildet werden. Damit gewinnt man an Farbtiefe und verliert nichts. Wenn dagegen der RAW-Converter bei der Wandlung den Farbraum erst zusammenstaucht, um ihn danach wieder zu spreizen, dann macht der RAW-Konverter etwas falsch.

Nein, denn die meisten RAW-Converter arbeiten ja nach dem what-u-see-is-what-u-get-prinzip. Natuerlich kann man ein 10bit-RAW verlustfrei in einem 16Bit INT Bild abspeichern, das wuerde aber haesslich und flach aussehen (je nach Dynamik der Szene), also hoechstens nur zur weiteren Verarbeitung taugen. Wenn mans so macht, kann man aber direkt bei RAW bleiben.

32-bit ist nicht Float und Float wird nicht per Definition in 32-bit kodiert. Selbst mit 32-bit Float kann man nicht unendlich darstellen. Selbst mit 64-bit Float ist das nicht möglich. Es gibt übrigens auch eine 16-bit Float-Abbildung (hat wir gerade die Diskussion, ob wir so etwas in unser System eindesignen sollen oder nicht - ich bin dagegen, weil es in meinen Augen keinen Sinn macht).

Sagen wir so: 32Bit INT und 16Bit Float finden in der Praxis kaum bis keine Anwendung. Zumindest sind sie mir ausser in der Informatikvorlesung noch nicht ueber den Weg gestolpert ;)

Und Dynamik unendlich, naja, sagen wir sie ist fuer fast alles ausreichend.
 
Es wäre wundervoll wenn du deine These mal mit Argumenten und Fakten untermauern könntest. Ansonsten würde ich eher sagen: Das ist absoluter Quatsch. ;)

Ich kram den Thread nochmal hervor.

Deine Frage war, warum bei der Umwandlung von RAW nach 16bit sRGB mehr Information verloren geht als bei der Umwandlung nach 16bit AdobeRGB oder eben einen noch größeren Farbraum.

Meine Antwort:
das liegt daran, dass der gängige RAW-Konverter Farben im Zielbild möglichst so aussehen lassen, wie in Original. Die Prozesskette bis das Bild im RAW-Konverter auf deinem Bildschirm erscheint sieht so aus:

1. RAW einlesen
2. Weißabgleich, Tiefen, Lichter, Gamma einstellen (automatisch oder von Hand)
3. Bild in sehr großes internes Farbmodell/Farbraum umrechnen (z. B. 32bit Gleitkomma Lab oder ProPhotoRGB) -> das ist der eigentliche RAW-Interpreter
4. Bild ins Monitorprofil umrechnen (im Zweifel sRGB, wenn kein anderes Profil ausgewählt ist)
5. Bild zum Monitor senden

Der Export der fertigen Bilder unterscheidet sich erst ab Punkt 4 von dieser Prozesskette. Punkt 4 ist aber genau der, wo Informationsverlust, nämlich in Form von Gammut-Clipping, auftritt. Damit an dieser Stelle beim Export noch 16bit-TIFF in sRGB kein Verlust auftritt müsste man im RAW-Konverter so lange an den Reglern spielen bis alle Farbwerte (dargestellt im riesigen internen Farbraum) innerhalb des Ziel-Gammuts zu liegen kommen. Das würde deutliche Farbverschiebungen ergeben.

Da der Fragesteller aber von einem solchen Vorgehen nicht die kleinste Andeutung gemacht hat, ist es sinnvoller lieber im Zweifel den Ziel-Gammut entsprechend groß zu wählen, damit möglichst wenig geclippt wird.

Gruß
barfoos

PS: ich verbürge mich natürlich nicht für die Richtigkeit meiner Darstellung.
Insbesondere kann ich mir auch gut vorstellen, dass im Prozess Punkt 2 und 3 vertauscht sind, und das auch noch viele andere Details zu berücksichtigen sind. Aber ich hoffe dennoch, die Sache soweit verstanden zu haben. Bitter klärt mich auf, wenn ich daneben liegen sollte.
 
Der Export der fertigen Bilder unterscheidet sich erst ab Punkt 4 von dieser Prozesskette. Punkt 4 ist aber genau der, wo Informationsverlust, nämlich in Form von Gammut-Clipping, auftritt. Damit an dieser Stelle beim Export noch 16bit-TIFF in sRGB kein Verlust auftritt müsste man im RAW-Konverter so lange an den Reglern spielen bis alle Farbwerte (dargestellt im riesigen internen Farbraum) innerhalb des Ziel-Gammuts zu liegen kommen. Das würde deutliche Farbverschiebungen ergeben.

Da der Fragesteller aber von einem solchen Vorgehen nicht die kleinste Andeutung gemacht hat, ist es sinnvoller lieber im Zweifel den Ziel-Gammut entsprechend groß zu wählen, damit möglichst wenig geclippt wird.

Ich hab mal eben bei ACR 4.6 ein bißchen mit den Farbraum-Einstellungen rumgespielt (arbeite normalerweise nur in sRGB)... diese wirken sich direkt auf das angezeigte Histogramm aus. Man sollte also an sich keine Verluste durch Clipping haben, egal, in welchem Farbraum man sich befindet, wenn man (in ACR) auf ein sauberes Histogramm achtet. Wäre jedenfalls das, was ich von einem guten Konverter erwarte :angel:
 
Ich hab mal eben bei ACR 4.6 ein bißchen mit den Farbraum-Einstellungen rumgespielt (arbeite normalerweise nur in sRGB)... diese wirken sich direkt auf das angezeigte Histogramm aus. Man sollte also an sich keine Verluste durch Clipping haben, egal, in welchem Farbraum man sich befindet, wenn man (in ACR) auf ein sauberes Histogramm achtet. Wäre jedenfalls das, was ich von einem guten Konverter erwarte :angel:

Wie stellst du dir das vor?

Es gibt definitiv Farben, die in AdobeRGB noch drin sind (in ProPhoto erst recht), in sRGB aber nicht. Was soll mit den Farben passieren, wenn du das Bild nach sRGB konvertierst? Ich vermute eine der drei Berechnungsarten "absolut farbmetrisch", "relativ farbmetrisch" oder "perzeptiv" kommt zum Einsatz. Absolut farbmetrisch sicher nicht, denn das würde zu hartem Gammut-Clipping führen. Aber auch egal, denn keine der drei Berechnungsvorschriften lässt sich umkehren. Also aus einem einmal konvertierten Bild kannst du nicht mehr das Original herstellen. Eben weil du nicht weißt wie sehr der Gammut gestaucht werden musste damit alles reinpasst. Darin sehe ich schon einen Informationsverlust.

Zumal ich vermuten würde, dass es trotz 16bit Farbtiefe eben passieren wird, dass bei dieser Umwandlung zwei Pixel mit Farbwerten, die sich vor der Umwandlung noch differenzieren liesen, durch die Umwandlung endgültig den selben Farbwert zugewiesen bekommen.

Und selbst wenn es dank 16bit klappt, alle Farben des Originals auf eindeutige Farben im sRGB-Raum zu mappen, wüsste man am Ende immernoch nicht, wie grün das ursprüngliche grün mal war. Also ob beispielsweiße der Farbraum in a-Richtung stärker gestaucht werden musste als in b-Richtung.

Gruß
barfoos
 
Also ich habe den Tread ja mal eröffnet und bin mit den Antworten schon viel schlauer. Aber auch noch viel mehr offene Fragen, die aber wohl eher theorerischer Natur sind.

Fasse mal ganz kurz zusammen:

1. Also RAW oder DNG als Negativ behalten, da alle Infos enthalten.
2. Bearbeiten im 16bit Modus, da rrelativ Verlustfrei.

Prima, aber was ich mich jetzt noch Frage:

Was bringt einem ein srgb oder proPhoto Farbraum?

Wenn ich das Bild zeigen will, geht das in der Regel doch sowieso nur im www
oder als Druck oder ausbelichtet.

Und was soll man dann da noch mit 16bit oder geschweige denn mit einem erweitertem Farbraum.

Kann man so einen Farbraum drucken oder belichten???

Vielen Dank nochmal für die ausführlichen Antworten, Markus
 
WERBUNG
Zurück
Oben Unten