sorry aber man muss gar nichts beweisen, da du auch nichts beweisen kannst mit deiner Idee.
Was passiert ist doch folgenes: nehmen wir an, wir haben ein Elektroauto und ein Fahrzeug mit Verbrennungsmotor. Jetzt behauptet jemand, dass die beide gleich schnell beschleunigen.
Deine Argumentation ist nun die, dass gleiche Beschleunigung angenommen werden kann ohne weiteren Beweis, weil es auch Unterschiede in der Beschleunigung der Verbrennungsmotoren gibt. Das ist aber nicht richtig.
Es gibt Unterschiede in der Beschleunigung, die der unterschiedlichen Leistung der Verbrennungsmotoren gschuldet sind und es gibt Unterschiede in der Beschleunigung, die dem unterschiedlichen Antriebskonzept geschuldet sind.
Nur weil die Betrachtung komplex ist und sich Ergebnisse überschneiden, kann man diese Tatsachen nicht ignorieren.
Es gibt keine Kameras mit Bayer und mit X-trans Sensor die verglichen mit anderen Kameras gleicher Sensoren die gleichen Farben liefern, Es liefern nicht mal die Kameras die gleichen Farben, die den gleichen Sensor eingebaut haben. Sony A7 und D750 wäre nur ein Beispiel, andere wären alle auf Sony basierenden Bayer Kameras. Warum meinst du also, es müßte überhaupt eine absolute gleicheit geben.
Ich beziehe mich überhaupt nicht auf einzelne Farben, sondern auf ein Farbpotenzial. Nimm doch mal z.B. ein MacBook von 2005 und eines von 2017. Die können bei weitem nicht den selben Farbumfang darstellen, weil völlig unterschiedliche Displays verbaut sind.
Du kannst nun diese Tatsache nicht mit der Begründung in Abrede stellen, dass es auch 2005 schon Unterschide in den darstellbaren Farben bzgl der einzelnen Modelle gegeben hat.
Es gibt beides und beides hat verschiedene Ursachen und die gilt es zu trennen.
Wir betrachten hier die Unterschiede, die es wohl aufgrund des X-Trans-Sensors gibt und das ist zumindest ein Interpolationsunterschied auf Auflösungsebene.
Da ist schon die Grundlage deiner Annahme falsch. Wenn du nun sagst, das bayer und x-trans die farben anders abbilden, und die unterschiede sind nur marginal, dann kannst du daraus nicht auf unterschiede in der interpolation schließen, da ja die kameras mit gleichem Muster sich auch unterscheiden. Da sind nun mal zu viele Variablen in der gleichung die wir nicht kennen. Die Signalverarbeitung ist eine sehr komplexe Sache und ohne Einblick gibt es da auch nicht zu beweisen.
wie ich oben schrieb, interpoliert wird immer, egal ob aus drei oder vier pixel, damit wird für jeden deiner 24 mpix ein wert interpoliert 24 millionen mal. solange die Näherung nah genug ist, ist alles im lack, egal wie du interpolierst. ohne den algorithmus zu kennen, wirst du nicht beweisen können das die eine "farbauflösung" besser als die andere ist.
Dass "alles im Lack" bei einem gewissen Betrchtungsabstand ist, sehe ich auch so. Das Auge wird aus unterschiedlich interpolierten Einzelpixeln in der Gesamtbetrachtung das selbe Bild mit sehr ähnlichen Farben assoziieren. Aber trotzdem denke ich, dass der Unterschied in den Einzepixeln zu etwas führen kann, was als "Fujifarben" wahrgenommen wird.
wenn deine annahme, die du nicht beweisen kannst, stimmen würde, dann wäre es definitiv ein Nachteil, da Fuji ja ein Interpolationsfehler, bzw einen größeren als Bayer hat. Das kann man schwer als Vorteil sehen.
Ja und das kann sein. Wobei Vor- und Nachteil im Auge des Betrachters liegt. ich bin auch nie der Meinung gewesen, dass Fuji die echtesten Farben produziert, aber eben schöne. Keine der Filmsimulationen erzeugt echte Farben, aber trotzdem sind sie sehr beliebt.
Fotografie gibt einem u.a. die Möglichkeit die Wirklichkeit zu dramatisieren bzw. zu überhöhen. Und hier haben eben auch Farben ihren Anteil. genau das macht man doch in Lightroom: man dreht doch nicht die Klarheit rein oder verstärkt lokal bestimmte Farben, weil es dann realistischer wird, sondern weil es einem besser gefällt.
Von daher ist realitätsgetreuer nicht automatisch besser. Und "Fuji-Farben" habe ich zu keinem Zeitpunkt so gesehen, als dass es "noch realitätsgetreuere Farben" wären.
Zuletzt bearbeitet: