• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Sony versus Fuji - Farben

Meine Erfahrung ist ebenfalls, dass man mit Herumfriemeln die Files einer Sony oder Nikon recht nahe an das Fuji- Ergebnis bringt, aber auf den dauernden Kampf mit schlechten Farben OOC habe ich keine Lust.

Dann könnte ich die Oli Schiene empfehlen.
 
das ganze hat auch viel mit Sehgewohnheiten zu tun.

Das bringt es auf den Punkt :)

Ein Aspekt der oft vernachlässigt wird ist m.E. die Sättigung.
Meist geht es um die Farben selber, also deren Verhältniszueinander. Also "etwas rötlicher" "zu gelblich" usw
Die Sättigung hat entscheidenden Einfluss darauf wie Farben wirken, auch die Farbhelligkeit.

Digitale Aufnahmemedien wie eben ein Kamera-Sensor bietet die Farben gewöhnlich meist "übersättigt" an. Das macht auch Sinn, da es sinnvoller ist, Sättigung ggf zu reduzieren, als sie einzig softwarebasiert ("künstlich") erhöhen.
Was dann u.U. zu Tonwertabrissen, Farbrauschen etc führen kann.

Zudem scheint mir auch, dass sowohl per default JPG sowie die dargestellte Mitte der Sättigung in Bearbeitungsprogrammen näher am Maximu sind, als tatsächlich "in der Mitte". Also nicht linear.
Ist aber eher ein beobachteter Eindruck.

Nicht umsonst bietet es sich an, in einem Farbraum/modell zu bearbeiten, der Sättigung, Farbigkeit (Farben zueinander) sowie Helligkeit unabhängig von den anderen beiden Faktoren, behandelt.
Was in RGB oder sRGB ja nicht der Fall ist.

So sind auch Einstellungen farbgetrennt einstellbar.
Man muss sich vor Augen halten, dass im RGB-Modell aufgenommen wird - also einzig in drei Grundfarben aus denen dann unzählige Farben bzw Farbtöne generiert werden.
Die Farbinterpolation im Demosaicing.
 
bei 500 Bildern einer Portraitsession, synchronisiere ich den WB mit einem Klick. Und ich würde auch den Fuji WB anpassen da er mit zu kalt ist.
Und du kannst ach die Farben nicht vor der Auslösung beurteilen, da weder der Sucher noch der Monitor farbecht ist.
Das wird an einem kalibrierten Monitor gemacht.

Mich würde mal interessieren was passiert, wenn man beide raw files mit einem auto WB bearbeitet. das kann man dann sogar beim importieren machen. Was gibt LR oder CO als Farbtemperatur an? Ist da schon ein Unterschied?

Im Studio gebe ich dir absolut recht, da ist es kein problem. Outdoor habe ich noch keine Lösung gefunden um massen weissabgleiche zu korrigieren. Wie machst du das da?
 
Meiner Meinung ist das alles Geschmackssache. Ich habe mittlerweile bis auf Pentax so ziemlich jede Kameramarke besessen. Meine Farbhitlist wäre

1. Olympus (mal Robin Wongs Fotos anschauen, ich habe bisher nur mit dieser solch Farben hingekriegt)

2. Canon (Insgesammt sehr Harmonische Farben, Hauttöne sehen eigentlich immer gut aus, selten etwas zu Magentalastig)

3. Fuji (Nimmt sich kaum was mit Canon, manchmal etwas zu Kühl oder Magentalastig)

4. Nikon (Etwas zu Warm in Weißabgleich, mit Grüntönen hab ich öfter Probleme gehabt)

5. Sony (Ist mir häufig zu Grün oder Blaustichig gewesen bei meiner A7, meine Rx100 iv ist allerdings genau das Gegenteil, die würde bei mir auf Platz 3 liegen. Die hat sehr tolle Farben und hat bisher immer den Weiß-Abgleich gut getroffen.


Man muss aber auch sagen, man sieht es häufig nur im Direkten Vergleich, vor allem wenn man die Raws bearbeitet und etwas anpasst.
 
dann mach es doch richtig und benutzt eine graukarte :)

Wenn schon, eine Kalibrierungskarte.

Es geht hier ja un die unterschiedlichen Farbgebungen der Kameras bzw Hersteller und obschon der WB einen Einfluss darauf hat, ist er dafür nicht verantwortlich.

Der WB ist quasi eine feste, geichte Grösse, was bereits beim Sensor bzw den Dioden/Pixel die sich in den RGB-Grundfarben aufteilen, beginnt.
Bereits diese sind sowohl als Einzelfarben als auch im Zusammenspiel auf eine Farbtemperatur geeicht. Müssen sie ja schliesslich auch sein.
Ich gehe mal davon aus, dass dies bei den allermeisten - wenn nicht gar allen Kameras - auf ca 5500K sein wird.

Entscheidender als der WB in der Frage warum unterschiedliche Farben entstehen, ist die Farbinterpolation, das Demosaicing. Weil die Engines (welche die Hersteller i.d.R. als "Prozessor XY" angegeben) der Kameras die Farben nach unterschiedlichen Algoritmen zusammen rechnen.
Und darin enthalten sind nicht "nur" Farbwerten sondern eben auch Helligkeitswerte, Kontraste, Sättigung.

Die Schwierigkeit besteht darin, dass aus eigentlich sehr wenig Basis-Werten (nur drei Grundfarben welche der Sensor liefert) möglichst viele Farben usw dargestellt werden müssen.

Da liegt es auf der Hand, dass sich eine "neutrale" Darstellung/Wiedergabe von "Mischfarben" sehr schwierig zu realisieren ist, weil diese schnell mal zum kippen neigen. Umso mehr bei "Mischfarben" die sich am gegenüberliegenden Punkt des Sepktrums im Farbraum befinden. Bei Purpur etwa.

Ähnlich problemtaisch sind schwach gesättigte Farben, wie etwa Hauttöne.

Mit einer Graukarte bzw einzig per WB lässt sich dies natürlich nicht realisieren.
 
Bei RAW wird eigentich noch nichts durch die den Sensor oder die Kamera an den Farben abgeglichen, das heißt die RAW-Dateien sind farblich noch wirklich RAW und noch total "off".

Die Kamera hat aber natürlich eine Vorstellung über den Weißabgleich. Die wird dann in den RAW-Metadaten mitgegeben, als Anweisung für den RAW-Converter.

Der wichtigste Schritt ist aber die Farbraum-Umrechnung eines RAW-Sensor-Farbraums in den Wunsch-Farbraum des RAW-Converters.

Farbraumumrechnung ist für einen Converter ja viel mehr als nur "weißabgleich und dann ein bischen an RGB-Curves rum-machen" ;) Im einfachsten Fall lineare Algebra, im komplexeren Fall LUTs (Lookup-Tables), womit dann alle Kombinationen von Farbton/Helligkeit/Sättigung nach woanders hin umgebogen werden. Das ist dem Konverter überlassen. Offenere RAW-Formate wie DNG haben für sowas aber auch Metadaten, also Anweisungen für den RAW-Converter. Bei DNG sogar abhängig von der ursprünglichen Farbtemperatur vor dem Weißabgleich (Tages- versus Kunstlicht).

Damit wird das Problem näherungsweise angegangen, dass Weißabgleich (etwa von Kunstlicht auf Tageslicht) tatsächlich nicht ganz reicht für eine finale Farbumsetzung. Denn es unterscheidet sich nicht nur die Temperatur an sich , sondern eben das gesamte Farbspektrum der Lichtsituation. Also muss sich die Farbumsetzung NACH dem Weißabgleich auch noch etwas unterscheiden, wenn man genau sein will.
 
Zuletzt bearbeitet:
Der wichtigste Schritt ist aber die Farbraum-Umrechnung eines RAW-Sensor-Farbraums in den Wunsch-Farbraum des RAW-Converters.

Dazu würde ich meinen - jein.
Denn eine Farbraumumrechnung ist theoretisch nicht mal zwingend. Und zwar sofern im selben Farbraum aufgenommen, als auch bearbeitet und betrachtet wird.
Mit RGB ist das möglich.

Doch selbst bei identischer Aufnahme und WB von unterschiedlichen Kameras resultieren ohne sog. Kamerakalibrierung unterschiedliche Ergebnise.
Der Grund - die (unterschiedliche) Farbinterpolation.

Rohdaten eines Fotos kriegen wir ja nie zu Gesicht, sondern immer eine Interpretation der Bildinformation - es erfolgte also schon mal ein Demosaicing inkl. Farbinterpolation.

Das erklärt auch, weshalb jedes Kameramodell einen anderen RAW-Codec hat und die Kamerahersteller sind natürlich bemüht, eine weitgehendst identische Farbastimmung über die gesamte Modellpalette zu bieten.

Die Farbinterpolation ist etwas, das im Verborgenen bleibt.
Regler zur Farbverstellungen in Kamera oder Bearbeitungsprogramm sind lediglich grafisch dargestellte Funktionen.

Dabei findet ja auch nicht nur die Konfiguration an den Farben statt, sondern generell das Demosaicing, ohne dass in einer Pixelgrafik kein Motiv, kein Gegenstand im Motiv erkennbar wäre.

Diese Arbeit kann ein RAW-Konverter nur verrichten, indem er weiss, wie die einzelnen Bilddaten überhaupt zu interpretieren sind, was sie bedeuten. Dazu ist der RAW-Codec da.
Beim DNG ist dies standardisiert.

Wie "roh" ein RAW wirklich ist, ist umstritten. Denn durch den Codec lassen sich Arbeiten "erzwingen" von denen man natürlich nichts merkt, da sie im Demosaicing/Farbinterpolation stattfinden.
 
Das ist schnell verwirrend, wenn man alles zugleich betrachten will :)

Ich würde Demosaicing aus der Farbengeschichte raushalten, das sind wohl auch technisch getrennte Stufen.

Zuerst kommt das Demosaicing, durch das ja überhaupt erstmal Roh-Farben entstehen.
Innerhalb des Demosaicing gibt es zwar auch den Begriff "Interpolation" manchmal, der heißt dann aber was anderes. Letztlich, dass all die schwarzen Löcher in den R/G/B-Kanälen erstmal zugespachtelt werden.

Dann kommt das, was du Farbinterpolation nennst? Die Überführung von Roh- in Arbeits-Farben. Da kommen dann Beauty-Tricks und Geheim-Rezepturen der Kamerahersteller in Spiel. Oder bei Adobe halt das, was Adobe für vernünftig hält.

Das würd ich dann eher Farbinterpretation nennen. Oder Farb-Transformation. "Interpolation" ist eigentlich immer die Schätzung eines unbekannten Wertes mit Hilfe von zwei oder noch mehr schon bekannten Werten. Gibt es durchaus auch hier, z.B. sind Farb-Lookup-Tabellen (LUTs) ja nicht groß genug, um die Billionen der denkbaren Farben unserer Welt zu speichern. Da muss dann eben mit hilfe von weniger Farben "interpoliert", also ein bischen überbrückt werden. Das meinst du vermutlich. Ist aber nur ein technischer Teil-Aspekt des ganzen, der auch nicht zwingend ist. LUTs sind ja nicht zwingend. Den ganzen "Job" würde ich deshalb eher allgemeiner als Farb-Transformation oder so bezeichnen.

Eigentlich würde "Film-Simulation" auch passen für diese Art von Job, nur geht es ja nicht immer um irgendwelche altbekannten Analog-Filme. "Look-Simulation" wäre vielleicht besser da allgemeiner.

Klar, da hat jeder Hersteller einen gewissen Haus-Look und Haus-Geschmack, den er einigermaßen konsistent halten will, stimmt :)

Wie stark sich Adobe daran orientiert, oder sich sogar von den Herstellern deren "Haus-Geschmack" bei Farben diktieren lässt, weiß ich ehrlichgesagt garnicht. Dachte aber immer bisher, Adobe ist autonom und ermittelt einigermaßen vernünftige Farben selber. Jedenfalls bis vor kurzem, als es nur die "Adobe-Standard"-Profile gab.
 
Zuletzt bearbeitet:
Das ist schnell verwirrend, wenn man alles zugleich betrachten will :)

Ich würde Demosaicing aus der Farbengeschichte raushalten, das sind wohl auch technisch getrennte Stufen.
Nein.
Das Demosaicing hängt sogar ganz direkt mit den Farben zusammen, schon deshalb weil dieser Prozess die Daten aus den Farbdaten entnehmen muss.



Dann kommt das, was du Farbinterpolation nennst? Die Überführung von Roh- in Arbeits-Farben. Da kommen dann Beauty-Tricks und Geheim-Rezepturen der Kamerahersteller in Spiel. Oder bei Adobe halt das, was Adobe für vernünftig hält.

Das würd ich dann eher Farbinterpretation nennen. Oder Farb-Transformation. "Interpolation" ist eigentlich immer die Schätzung eines unbekannten Wertes mit Hilfe von zwei oder noch mehr schon bekannten Werten. Gibt es durchaus auch hier, z.B. sind Farb-Lookup-Tabellen (LUTs) ja nicht groß genug, um die Billionen der denkbaren Farben unserer Welt zu speichern. Da muss dann eben mit hilfe von weniger Farben "interpoliert", also ein bischen überbrückt werden. Das meinst du vermutlich.
Auch hier - nein. Die Farbinterpolation ist Bestandteil des Demosaicing.
Denn die Farben brauchen für das richtige "zusammensetzen" korrekt interpretiert werden.
Ja, es geht darum, die Bildpunkte sowohl geometrisch (Pixelgrafik) als auch farblich richtig zusammensetzen. Dass zB Flächen auch wie Flächen aussehen, Strukturen erkennbar sind usw.

Du siehst das aber schon insofern richtig, dass es einen Unterschied gibt zwischen dem eigentlichen Auslesen der Sensor-Eingangssignale und dem RAW in das ja meist noch ein JPG usw eingebettet ist.
Man könnte sagen - die RAW-Datei ist ein unfertiges Bild.
Aus diesem Grund spricht man ja auch oft vom "Digitalen Negativ", welches zwar auch bereits das an sich fertige Bild ist, aber noch nicht darstellbar.
Während dieser Prozess beim analogen Farbnegativ von der Chemie bestimmt wird, ist im digitalen Prozess der RAW-Codec und die auslesende Software dafür verantwortlich.

Weil RAW-Konverter aber eben nicht nur die Datei in eine darstellbares Bild "übersetzen", sondern bereits Bearbeitungstools' sind, tun sie noch ihr Übriges hinzu.
Am deutlichsten wird dies beim freien RAW-Konverter DCRaw der i.d.R. lediglich als Backend (also im Hintergrund eines eigentlichen Programms mit grafischer Oberfläche und ansonsten nur per Kommandozeile bedienbar ist) werkelt. DCRaw kann nur das Demosaicing inkl der Farbinterpolation vornehmen.

Wie stark sich Adobe daran orientiert, oder sich sogar von den Herstellern deren "Haus-Geschmack" bei Farben diktieren lässt, weiß ich ehrlichgesagt garnicht. Dachte aber immer bisher, Adobe ist autonom und ermittelt einigermaßen vernünftige Farben selber.

Ja, das ist eine wichtige Frage - ob nun bei Adobe, PhaseOne/CaptureOne, DCRaw usw usw
Die Hersteller lassen sich da nicht in die Karten blicken. Wohl aus Angst, dass freie Konverter oder die Konkurrenz davon profitieren könnten.

Viel spricht dafür, dass die Kamerahersteller den SoftwareAnbietern wie Adobe die RAW-Codex lizenziert verkaufen. Ich vermute mal bei Adobe ist das Fall, was dafür spricht, als Adobe bei Lightroom einst von DCRaw auf das hauseigene CameraRAW wechselte.
Aber offenbar kaufen manche Softwareanbieter nicht von allen die Codecs', oder nicht alle Kamerahersteller verkaufen. Bei Fuji sieht's jedenfalls so aus, dass einer der beiden Fälle zutrifft.

Ich denke, als Besitzer eine Fujifilm Kamera mit X-Trans Sensor lohnt es sich besonders, sich der Thematik anzunehmen.
Anders als beim klassischen Bayer-Aufbau, verfügt X-Trans zB in jeder Sensorzeile alle drei Farben.
 
Wie immer hier toben sich die Spezialisten hier aus und fachsimpeln in einer Tiefe, die der Fragesteller oft nicht benötigt und ihn mehr verwirrt als das es ihm hilft.

Auf den Weißabgleich bezogen: Ich habe den bei Fuji zu > 95% so belassen, wie ihn mir die Kamera angeboten hat. D.h. ich fand ihn sehr passend. Dazu brauche ich weder eine Weiß- oder Graukarte oder kalibrierte XY-Karte. Wenn man ihn systematisch anders haben will, kann man das ja auch einstellen und gut ist.

Weißabgleich ist für mich bei Fuji nichts, was ich regelmäßig anfassen muss, außer bei extremen Lichtsituationen wo ich ganz bewusst Stimmungen noch verändern will.
 
Nein.
Das Demosaicing hängt sogar ganz direkt mit den Farben zusammen, schon deshalb weil dieser Prozess die Daten aus den Farbdaten entnehmen muss.

Ich wollte dich ja nur darauf hinweisen, dass du den Begriff Interpolation ständig falsch benutzt hast, bzw. nicht relevant im Sinne der Farben dieses Threads.

Demosaicing und dessen "Interpolation" hat (im Sinne dieses Threads) halt
> GARKEINEN <
Einfluss auf Farbnuancen, Farbunterschiede zwischen Fuji, Sony, Nikon, Canon und anderen.

Deshalb ging ich davon aus, dass du die Bedeutung von Interpolation immer falsch verstanden oder falsch eingeordnet hattest.

Somit hattest du das Thread-Thema nicht verstanden, oder Interpolation nicht (oder vielleicht auch beides nicht so ganz im hier relevanten Zusammenhang).

Dem Demosaicing-Algorithmus und dessen Interpolation ist es egal, ob jemand die drei Zahlenmatritzen "R","G","B" nennt oder "Karlheinz","Fritz","Fridolin" ;) Das ist nur reine Mathematik, die also solche eigentlich von Natur aus farbenblind ist.

Erst DANACH kommen dann Farb-Überlegungen der Hersteller über Farblooks, Filmlooks, Farbharmonien, oder alles was sonst noch mit Farben zu tun hat (aus Fotografen-Sicht, so wie auch in diesem Thread). Das Demosaicing (mitsamt "Interpolation") hat mit alledem noch nichts am Hut ;)

Das ist so, als wenn sich hier Köche über Geschmacks-Nuancen von Curry-Sorten unterhalten wollen.
Und du dann Vorträge hältst, ob man in Indien Kurcuma-Pflanzen im Abstand von 10 oder 12 cm einpflanzen sollte
Und drauf bestehst, das sei relevant, weil Kurcuma-Pflanzen doch irgendwann einmal in den Curry Einzug halten.


Weil Farb-Interpolation thematisch nichts mit dem Farb-Thema des Threads zu tun hat, könnte man sich sogar auch ein Demosaicing ohne jegliche Interpolation vorstellen. Das würde auch gehen, würde das Thread-Thema aber genauso wenig beeinflussen.
 
Zuletzt bearbeitet:
@Tommy

Einige Seiten vorher ging es ganz konkret um das Problem dass zwei verschiedene Kameras (Fuji + Nikon) in der gleichen Situation unterschiedliche Farben (auch im RAW-Konverter) liefern und es viel Zeit kostet diese aneinander anzugleichen.
Und genau in der Situation spart man Zeit wenn die Kameras den Weißabgleich auf die gleiche Grau/Weißkarte machen. Dadurch werden die Farben nicht unbedingt gleich aber man muss in der Nachbearbeitung weniger verändern um die Looks aneinander anzupassen.
Das ist ein ganz praktischer "quick and dirty" Ansatz.
 
Dem Demosaicing-Algorithmus und dessen Interpolation ist es egal, ob jemand die drei Zahlenmatritzen "R","G","B" nennt oder "Karlheinz","Fritz","Fridolin" ;) Das ist nur reine Mathematik, die also solche eigentlich von Natur aus farbenblind ist.

Erst DANACH kommen dann Farb-Überlegungen der Hersteller über Farblooks, Filmlooks, Farbharmonien, oder alles was sonst noch mit Farben zu tun hat (aus Fotografen-Sicht, so wie auch in diesem Thread). Das Demosaicing (mitsamt "Interpolation") hat mit alledem noch nichts am Hut ;)
...
Weil Farb-Interpolation thematisch nichts mit dem Farb-Thema des Threads zu tun hat, könnte man sich sogar auch ein Demosaicing ohne jegliche Interpolation vorstellen. Das würde auch gehen, würde das Thread-Thema aber genauso wenig beeinflussen.


Ich denke, dass Du hier Dinge trennst, die man nicht trennen kann. Die Farb-Interpolation ist definitiv eine Stellschraube, ber der jeder Hersteller sein eigenes Süppchen kochen kann und Fuji kocht ja ganz extrem ein eigenes Süppchen, indem man das XTRANS und nicht das Bayer-Pattern verwendet. Hier ist ja schon die zu interpolierende Datenbasis völlig unterschiedlich. Wieso gehst Du davon aus, dass sich das nicht auf die Farben auswirken kann?

Bei den aktuellen Sensoren ist die Farbauflösung ggü. der Helligkeitsauflösung immer reduziert und die Art und Weise, wie man diese Reduzierung durchführt ist eine Stellschraube der Hersteller.
 
die Art und Weise, wie man diese Reduzierung durchführt ist eine Stellschraube der Hersteller.

Die Art und Weise dreht aber noch nicht an den Farben von "normalen" Motivteilen (die ja größer oder dicker sind als nur so 1 Pixel). Im Demosaicking-Stadium geht es farblich nur darum, wie verhindere ich echte Fehler an den Auflösungsgrenzen des Sensors, oder wenn sie auftreten, wie repariere ich die.

Das sind dann aber immer echte Falschfarben (z.B. was grau ist wird grün oder lila, wie z.B. bei Moire-Muster-Falschfarben).
Oder, pixelkleine Mikrodetails werden "sicherheitshalber" entsättigt (wie Sterne im Nachthimmel).

Beim Thread-Thema geht es ja aber um ganz normale Motivwelten, wo alle relevanten Motivteile ja größer oder dicker sind als nur 1 Pixel. Wie z.B. Hauttöne, Landschaftsgrün, und sowas.

Damit kommen alle Demosaicing-Verfahren für alle Sensor-Typen gleich gut klar, führen deshalb da auch keine individuellen Farbfehler ein.

Im Thread geht es ja nur um das Farbgeschmacks-Cooking der Hersteller.
Das findet noch nicht im Demosaicing statt, das ist eine noch viel zu frühe Vorstufe im Gesamt-Workflow.
 
Zuletzt bearbeitet:
Bilder 4, 5, 6 } nur die Thumbnails angeschaut, wg. des Himmelsblaus.

Dann habe ich ein Vergleichsbild gemacht (X-E1, proNegHi) und gesehen, dass bei dieser Filmsimu der Himmel eigentlich nicht so blau wird und das Gras auch nicht ins "blaue" geht, sondern eher Richtung gelb. Deswegen

Bilder 4 und 6 bleiben übrig; leider sehen sich die Farben für mich so ähnlich, dass ich hier keine vernünftige Entscheidung treffen mag; Herz sagt 5263, Kopf sagt 5265 = FUJI.

Sorry für die späte Rückmeldung, Du hast ein gutes Herz,
Bild 4 war es.

5 und 6 sind von der TZ202, 1+2 Sony RX100, die letzten beiden Pen!

 
Wie immer hier toben sich die Spezialisten hier aus und fachsimpeln in einer Tiefe, die der Fragesteller oft nicht benötigt und ihn mehr verwirrt als das es ihm hilft.
Das ist inetwa so, als würde man sagen : "kümmere dich nicht um Blende und Verschlusszeit, stell' einfach auf Automatik".
Ok, kann durchaus legitim sein, aber um etwas zu verstehen braucht es halt manchmal etwas thematische Tiefe.

Im Thread geht es ja nur um das Farbgeschmacks-Cooking der Hersteller.
Das findet noch nicht im Demosaicing statt, das ist eine noch viel zu frühe Vorstufe im Gesamt-Workflow.
Du willst es eben nicht wahrhaben :)

Aber nochmals : WB und Farbräume sind feste Grössen.
5500K ist bei jedem Hersteller 5500K. Insofern kann zB der WB gar keine "Variable" sein die trotz identischer Einstellung zu unterschiedlichen Ergebnisen führt.
Auch das RGB-Grün, das RGB-Rot und RGB-Blau sind fest definiert.
Und genauso verhält es sich mit den diesbezüglichen Einstellungen in einer RAW-Entwcklung; Einstellungen die dann eben auf's Demosaicing dessen Bestandteil die Farbinterpolation ist, angewandt werden.
Die Ursache der Unterschiede müssen ja woanders liegen.

Aber "gut ist", es bringt nichts, sich deswegen im Kreis zu drehen.
Schlussendlich muss jeder selber wissen, wie er die Sache verstehen will. Hauptsache die Farben die man kriegt gefallen :)
 
Die Art und Weise dreht aber noch nicht an den Farben von "normalen" Motivteilen (die ja größer oder dicker sind als nur so 1 Pixel). Im Demosaicking-Stadium geht es farblich nur darum, wie verhindere ich echte Fehler an den Auflösungsgrenzen des Sensors, oder wenn sie auftreten, wie repariere ich die.

Ich würde das weniger trivial sehen: der Knackpunk ist, dass ja gar nicht die Farbe für jedes Pixel erfasst wird. Genau genommen wird für keines der Pixel überhaupt die Farbe erfasst, sondern die Pixel werden in rot, grün und blau aufgeteilt und für jedes einzelne Pixel wird dann nur der Helligkeitswert der zugeordneten Grundfarbe ermittelt.

D.h. im Falle des XTRANS-Pattern hat man für 9 Pixel 5 Helligkeitswerte für Grün, 2 Helligkeitswerte für Rot und 2 Helligkeitswerte für Blau. Daraus müssen dann aber eben bis zu 9 verschiedene „echte“ Pixelfarben interpoliert werden und natürlich haben die Hersteller hierauf einen enormen Einfluss, der auch zu verschiedenen Farben führen kann.

Man muss bedenken, dass auch Flächen und Hautpartien nicht einfarbig sind, sondern Farb- und Helligkeitsverläufe aufweisen, von denen jedes erfasste Pixel einer minimal anderen Farbe entsprechen kann. Diese minimalen Farbänderungen mit einem „demosaicten“ RGB-Pattern richtig wiederzugeben ist nicht trivial und auch nicht eindeutig.

Im Thread geht es ja nur um das Farbgeschmacks-Cooking der Hersteller.
Das findet noch nicht im Demosaicing statt, das ist eine noch viel zu frühe Vorstufe im Gesamt-Workflow.

Aber das ist meines Erachtens genau das Missverständnis, das manche haben. Man stellt sich „Herstellerfarben“ vor wie eine Art Instagram-Filter, der über ein Bild gelegt wird, bei dem die realen Pixelfarben alle bekannt sind. Aber die wirklichen Farben eines jeden Pixels sind im gesamten Prozess an keiner Stelle bekannt.
 
das Missverständnis, das manche haben. Man stellt sich „Herstellerfarben“ vor wie eine Art Instagram-Filter, der über ein Bild gelegt wird, bei dem die realen Pixelfarben alle bekannt sind. Aber die wirklichen Farben eines jeden Pixels sind im gesamten Prozess an keiner Stelle bekannt.

Ja das stimmt :)
Der Punkt ist aber auch, dass weder das Demosaicing noch irgendwelche Interpolationen irgendwas zu einer "Farbwahrheit" beitragen können. In diesem Sinne also farb-"neutral" sind. Oder meinetwegen "farbenblind", weil "neutral" zu sehr nach "wahr" klingen könnte.


Richtig farben-treue Fotografie (z.B. für wissenschaftliche Zwecke) ist immer Spektral-Fotografie, also etwas ganz spezielles. Dagegen ist unsere RGB-Farbfotografie technisch grob-schlächtig, oder sagen wir mal etwas pauschal, schwammig und ungenau. Hauptsache eben "bunt und am Ende ist es ganz hübsch" ;)

Wie das erreicht wird, sei es durch Instagram-Filter (äh, Filmsimulationen), und/oder spezielle Farbraum-Umwandlungen mit eingebautem "Geschmack", und/oder speziele RGB-Kurven-Akrobatik, LUTs.... das ist dann Privatsache (und Geheimsache) eines Herstellers.

Hast aber völlig recht:
Nicht alles was man am Ende sieht ist völlige Absicht des Herstellers. Der schwimmt bei Ausgangs-Farben ja auch genauso im Ungewissen. Vieles ist tatsächlich schlecht "verschätzt". Guter (automatischer) Weißabgleich ist auch so eine Farb-Wissenschaft für sich. Sieht man ja daran, wie schlecht LR/Photoshop darin ist.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten