• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Problem bei Fujifilm X-Trans ? (Raw Entwicklung + JPG)

Genau genommen wäre es kein RAW, wenn es vor der JPG-Engine passiert.

Scheint aber keine Firma groß zu kümmern. ;)
 
Desewegen gibt’s in Lightroom ja den Maskieren–Regler.

+1

Mein bisheriger Workflow mit moderater Nachschärfung oder gar nur den Standardeinstellungen war bisher völlig ausreichend. Und wenn es doch mal ein wenig mehr sein muss dann kommt zu erst der Maskieren Regler mit gedrückter ALT-Taste zum Einsatz, um wirklich nur das wesentliche im Bild, was auch in der Schärfeebene liegt, zu schärfen. Und auch dann nur moderat.

Viel lieber arbeite ich mit Klarheit, auch punktuell via Pinselwerkzeug.
 
Hast Du da fundierte Informationen oder ist das eine Vermutung?

ISO Boosting wird so implementiert. Der Sensor gibt das nicht her, also werden im Raw-Bild die Werte angepasst auf die gewünschte Sensitivität. Kann man z.B. anhand der Helligkeitswerte auch nachvollziehen. Ehrliche Hersteller beschränken den Boost dann auf die jpeg Ausgabe.

Keiner der Hersteller wird das offen legen und ohne Reverse Engineeren der Hardware wird man das auch nicht nachvollziehen können. Aber ich würde es für nicht unwahrscheinlich halten, das Rauschreduktion und Hotpixel Entfernung/Minimierung auch bereits auf Raw-Daten angewandt werden. Genauso bereits ein gewisses Schärfen. Alles eher Dinge die man macht um Mängel an der Hardware zu umgehen.

Das ist allerdings durchaus Legitim und muss nichts schlechtes sein: Wenn ich die Hardware ganz genau kenne, dann macht es Sinn gewisse Berechnungen direkt in Hardware bereits auf den Rohdaten zu machen.
 
ISO Boosting wird so implementiert. Der Sensor gibt das nicht her, also werden im Raw-Bild die Werte angepasst auf die gewünschte Sensitivität. Kann man z.B. anhand der Helligkeitswerte auch nachvollziehen. Ehrliche Hersteller beschränken den Boost dann auf die jpeg Ausgabe.

... Aber ich würde es für nicht unwahrscheinlich halten, das Rauschreduktion und Hotpixel Entfernung/Minimierung auch bereits auf Raw-Daten angewandt werden. Genauso bereits ein gewisses Schärfen. Alles eher Dinge die man macht um Mängel an der Hardware zu umgehen.

Ich wäre eher vorsichtig mit solch pauschalen Aussagen.

Dass bei den sog. 'ISO-losen' Sensoren (also solchen, bei denen Leserauschen praktisch nicht existent ist) bei bestimmten Sprüngen (zB ab 800 ISO) nur noch digital addiert, also nicht analog verstärkt wird, ist kein Geheimnis. Bei manchen ISO-Sprüngen wird nicht einmal addiert, da kommt einfach der Hinweis für den Raw-Konverter in die EXIFs: 'um 2 EV anheben, please'. Dass man dann auch das Boosten so macht, liegt auf der Hand. Man kann das übrigens so machen, weil der Sensor *gut* genug ist, dass analoge Verstärkung nicht mehr bringt als digitale Addition.

Tote Pixel rausmappen ist eine einfache Softwareoperation: Schau in einer Tabelle nach, welche Pixel als defekt markiert sind, die werden nicht rausgeschrieben.

Hotpixelerkennung, Rauschen, Schärfen dagegen benötigt Rechenzeit, da ja Bildbereiche analysiert werden müssen: Ein einzelnes Pixel hat kein Rauschen, keine Schärfe, kann nicht aus sich heraus als 'hot' identifiziert werden.
Also würden sich die Hersteller ins eigene Bein schießen: Entweder ordentlicher Algorithmus (braucht aber Zeit, Raw wird schweinelahm) oder schneller Algorithmus (bügelt Details weg) -> beides ist Mist ... und der Nutzer hätte nicht einmal etwas davon, da er am PC viel feiner parametrieren kann und mehr Rechenzeit hat.

C.
 
...Rauschen, Schärfen dagegen benötigt Rechenzeit, da ja Bildbereiche analysiert werden müssen: Ein einzelnes Pixel hat kein Rauschen, keine Schärfe, ...

Zustimmung (y)

Zur von Dir schon angesprochenen Analyse nach einem Demosaicing käme dann noch die Ausführung des Entrauschens, Schärfens oder ... dazu und zum Schluß muss das dann alles wieder "vermosaict" werden, denn es geht ja um die RAWs.

Das alles dafür, dass das RAW schärfer oder rauschärmer aussieht? Wo wir doch alle wissen, dass sowieso je nach RAW- Konverter unterschiedliche Ergebnisse rauskommen :confused:

Diesen unsinnigen Aufwand wird kein Kamerahersteller treiben.

Gruß
ewm
 
Tote Pixel rausmappen ist eine einfache Softwareoperation: Schau in einer Tabelle nach, welche Pixel als defekt markiert sind, die werden nicht rausgeschrieben.

Wird trotzdem gerne On-The-Fly auf den Weg ins Raw gemacht, eben weil es super einfach ist.

Hotpixelerkennung, Rauschen, Schärfen dagegen benötigt Rechenzeit, da ja Bildbereiche analysiert werden müssen: Ein einzelnes Pixel hat kein Rauschen, keine Schärfe, kann nicht aus sich heraus als 'hot' identifiziert werden.
Also würden sich die Hersteller ins eigene Bein schießen[\b]: Entweder ordentlicher Algorithmus (braucht aber Zeit, Raw wird schweinelahm) oder schneller Algorithmus (bügelt Details weg) -> beides ist Mist ... und der Nutzer hätte nicht einmal etwas davon, da er am PC viel feiner parametrieren kann und mehr Rechenzeit hat.

C.


Ich habe mal einen markanten Teil markiert. Die Hersteller geben das meiste ihrer Kohle für die Entwicklung der eigenen Prozessoren aus, DIGIC, BIONZ, EXR, Expeed und wie sie alle heißen. Die sollen genau das machen, bei dem Jpeg Export auf die SD Karte das Bild nachbearbeiten, also Schärfen usw. ausführen. Das ganze in maximaler Geschwindigkeit.

Schärfen und entrauschen ist aber auch kein Hexenwerkprozess, sondern bei bekannter Bildgröße ein ziemlich starrer Prozess (selber schon in Hardware implementiert) bei dem man Parameter benutzt die häufig auch Starr sind (Iso-empfindlichkeit, Belichtungszeit etc.). Auf dem Raw wendet man das evntl nur anders an, vor allen Dingen beim entrauschen. Da muss nicht unbedingt vorher interpoliert werden um bisschen was zu drehen.
 
Zuletzt bearbeitet:
Iridient X-Transformer von Iridient.
Einfach mal danach googeln. Soll das Problem lösen, falls es überhaupt eins gibt. Ich habe Iridient und Lightroom mal sehr laienhaft miteinander vergleichen und dann keinen großartigen Unterschied feststellen können.
Obwohl ich einen Mac 5k-Montor habe.
Aber wie gesagt, laienhaft verglichen. Einfach nur ein paar Bilder mal eben hin und her verglichen.

rola
 
Wird trotzdem gerne On-The-Fly auf den Weg ins Raw gemacht, eben weil es super einfach ist.

Genau, so war's gemeint.

Schärfen und entrauschen ist aber auch kein Hexenwerkprozess, sondern bei bekannter Bildgröße ein ziemlich starrer Prozess (selber schon in Hardware implementiert) bei dem man Parameter benutzt die häufig auch Starr sind (Iso-empfindlichkeit, Belichtungszeit etc.). Auf dem Raw wendet man das evntl nur anders an, vor allen Dingen beim entrauschen. Da muss nicht unbedingt vorher interpoliert werden um bisschen was zu drehen.

Jo, so'n schneller Pseudo-Median geht bestimmt (und bei jpeg wird das ja auch gemacht). Frage ist halt nur, ob wirklich auch beim Raw gefiltert wird.

DPReview, die ja bei der E2 noch schrieben, dass vielleicht vor dem Raw ein Filterchen läuft, schließen bei der T20 nicht aus, dass es auch am X-Trans/Demosaicking liegen könnte (so wie ich es weiter oben vermutet habe).

Wir werden es nicht klären können. Vielleicht leakt Fuji ja mal was...

C.
 
Wird trotzdem gerne On-The-Fly auf den Weg ins Raw gemacht, eben weil es super einfach ist.



Ich habe mal einen markanten Teil markiert. Die Hersteller geben das meiste ihrer Kohle für die Entwicklung der eigenen Prozessoren aus, DIGIC, BIONZ, EXR, Expeed und wie sie alle heißen. Die sollen genau das machen, bei dem Jpeg Export auf die SD Karte das Bild nachbearbeiten, also Schärfen usw. ausführen. Das ganze in maximaler Geschwindigkeit.

Schärfen und entrauschen ist aber auch kein Hexenwerkprozess, sondern bei bekannter Bildgröße ein ziemlich starrer Prozess (selber schon in Hardware implementiert) bei dem man Parameter benutzt die häufig auch Starr sind (Iso-empfindlichkeit, Belichtungszeit etc.). Auf dem Raw wendet man das evntl nur anders an, vor allen Dingen beim entrauschen. Da muss nicht unbedingt vorher interpoliert werden um bisschen was zu drehen.

Was soll der Sinn davon sein die Bildbearbeitung auf vor und nach der JPG-Engine aufzuteilen? Im Prinzip wird ja der Sensor zeilenweise ausgelesen, d.h. da kommt ein sequenzieller Datenstrom, der irgendwohin geschrieben werden muss. Dass man irgendwas mit dem gerade zu schreibenden Pixel macht (zB. Helligkeit anpassen), bevor es gespeichert wird, kann ich mir noch vorstellen, aber dass man eine bildbezogene Veränderung vornimmt (d.h. alle Pixel werden erst irgendwo nacheinander gespeichert und dann werden alle nochmal hervorgeholt um eine Kontext-bezogene Veränderung am Bild vorzunehmen um dann erst das RAW zu schreiben) wäre technisch doch wenig sinnvoll. Dann könnte man ja gleich den ganzen Weg gehen und als TIFF abspeichern.
 
Zuletzt bearbeitet:
Was soll der Sinn davon sein die Bildbearbeitung auf vor und nach der JPG-Engine aufzuteilen? Im Prinzip wird ja der Sensor zeilenweise ausgelesen, d.h. da kommt ein sequenzieller Datenstrom, der irgendwohin geschrieben werden muss. Dass man irgendwas mit dem gerade zu schreibenden Pixel macht (zB. Helligkeit anpassen), bevor es gespeichert wird, kann ich mir noch vorstellen, aber dass man eine bildbezogene Veränderung vornimmt (d.h. alle Pixel werden erst irgendwo nacheinander gespeichert und dann werden alle nochmal hervorgeholt um eine Kontext-bezogene Veränderung am Bild vorzunehmen um dann erst das RAW zu schreiben) wäre technisch doch wenig sinnvoll. Dann könnte man ja gleich den ganzen Weg gehen und als TIFF abspeichern.

Für Entrauschen oder Schärfen braucht man nicht alle Pixel, sondern immer nur eine Submatrix.

Es gibt da mehrere Puffer der Verlauf wird aber bei allen Kameras ähnlich sein:

Das Bild wird Zeilenweise aus dem Sensor geholt und für den Prozessor gepuffert, logisch fände ich eine Puffergröße von 8 Zeilen, denn Jpeg verwendet 8x8 Blöcke. Auf dem Puffer werden dann Demosaicing usw. ausgeführt, sowie entrauschen und die ganzen anderen Bildverbesserungen angewandt und dann wieder gepuffert.
Danach wird das Bild jpeg kodiert und wieder zum schreiben gepuffert, der Puffer kann aber klein sein, weil die Jpegs klein sind.

Zum schärfen und entrauschen, braucht man nur submatrizen von 3x3 Pixeln, größer ist für einige Dinge besser aber nicht für alle. Nichts in der Kamera ist wirklich Kontextbezogen, wenn damit gemeint ist, dass man das ganze Bild zur Verfügung hat. Aber selbst das ist möglich, gibt ja Gesichtsretouche automatisiert bei einigen Kameras, wobei das auch Farbbasiert ist meistens. Hotpixel usw. könnte man damit sogar finden, es werden bei vielen Kameras auch Doppelbilder bei Langezeit-NR verarbeitet usw.

Für die Raw-Files existiert dann ein großer Puffer zur SD Karte (wegen der geringen Komprimierung) wo die Bilddaten zum schreiben landen. Nachdem das Jpeg fertig ist, wird es dort ebenfalls eingebaut und das ganze dann auf die SD Karte geschoben.

Ob man jetzt den Pufferinhalt vor oder nach den Kamera internen Verbesserung in den Raw Puffer schmeißt, spielt von der Geschwindigkeit her keine Rolle. Die Raws können ja auch Entwickler infos haben (für die Hauseigenen Tools z.B.) und eine ganze Menge anderer weiterer Infos tragen.

Das was ich damit sagen will: Es ist technisch eigentlich schon seit den EOS 3xxD Kameras kein Problem das zu tun. Mittlerweile sind die Prozessoren schnell genug und der Speicher billig genug da einen ganzen Haufen Dinge zu verarbeiten. Wenn ein Hersteller das nicht macht, dann nur weil er es nicht möchte, nicht weil er es nicht könnte.
 
Wenn ich von Stuttgart nach München fahren will, kann ich auch vorher noch nach Frankfurt fahren. Dass ich es nicht tue, liegt nicht daran, dass ich es nicht könnte, sondern daran, dass es keinen Sinn ergäbe. :)
 
Wenn ich von Stuttgart nach München fahren will, kann ich auch vorher noch nach Frankfurt fahren. Dass ich es nicht tue, liegt nicht daran, dass ich es nicht könnte, sondern daran, dass es keinen Sinn ergäbe. :)

So ein Schwachsinn. Die Hersteller haben die Option, Schwächen ihres Sensors durch billige Software auszugleichen, anstatt den Sensor für viel Geld zu verbessern. Das bringt mehr Geld weil es mehr Marketing bringt. [ironie]Aber darauf verzichten Kamerahersteller natürlich gerne[/ironie]
 
So ein Schwachsinn. Die Hersteller haben die Option, Schwächen ihres Sensors durch billige Software auszugleichen, anstatt den Sensor für viel Geld zu verbessern. Das bringt mehr Geld weil es mehr Marketing bringt. [ironie]Aber darauf verzichten Kamerahersteller natürlich gerne[/ironie]

ich behaupte nicht, dass Hersteller nicht den Sensor durch Software optimieren würden, ich behaupte, dass dies in der JPG-Engine bzw. im RAW-Konverter passiert.

Die einzigen, gegenüber denen man was verbergen könnte wären doch ohnehin nur die RAW-Konverter-Hersteller. Der Kunde sieht immer ein konvertiertes Bild und wenn das schlechter als die OOC JPGs aussieht, fällt es auf den Hersteller des RAW-Konverters zurück (siehe LR).

Wenn wir uns einfach mal auf die Fakten beschränken: bekannt ist z.B., dass Fuji die Info in die RAWs packt, wie die Dynamik-Einstellung im RAW-Konverter zu interpretieren ist. Wenn man schon vor dem RAW-schärft und entrauscht, warum lässt man dann solch eine 08/15-Aktion den RAW-Konverter machen?
 
Hast Du da fundierte Informationen oder ist das eine Vermutung?

Ein Faktum zu Sony habe ich oben verlinkt. Zu Fuji und wie die Raws oberhalb 800 intern aufbereitet werden, gab es mal einen Artikel, aber ich habe keinen Link mehr zur Hand. Soweit ich mich erinnere wird alles oberhalb ISO 800 bei Fuji aus der ISO 800 Stufe gepusht. Dabei passiert beteits per Definition eine Vorabbearbitung der RAWs. Schaut man sich dann noch das Rausch- und Detailverhältnis in Abhängigkeit zur ISO an, wird schon deutlich, dass dort eingegriffen wird. Oder siehst du das anders?
 
... Schaut man sich dann noch das Rausch- und Detailverhältnis in Abhängigkeit zur ISO an, wird schon deutlich, dass dort eingegriffen wird. Oder siehst du das anders?


Derzeit stehen Aussagen gegen Aussagen, ohne dass bisher jemand eine Quelle genannt hat.

Über selbige Quelle, so sie denn belastbare Fakten enthält und nicht nur weitere Spekulationen im Stil dieses Threads enthält, könnte man ja dann wenigstens diskutieren.

Zu diesem Zeitpunkt würden Fakten diesen Thread gut tun.

Bevor dieser zu in einer weiteren fruchtlosen Diskussion zu "Ist so/Sollte so sein/Könnte so sein/Hab ich mal gelesen/..." verkommt!
 
Zu diesem Zeitpunkt würden Fakten diesen Thread gut tun.

Wahrscheinlich sind wir dem streng gehüteten Fuji-Geheimnis auf die Spur gekommen: Rauschunterdrückung bei hohen ISOs *ohne* jeden Detailverlust... :rolleyes:

Schaut mal hier:
https://www.dpreview.com/reviews/fujifilm-x-t20-review/4
Im zweiten Absatz unter der Testszene auf 'further detail loss' klicken, dann lädt ein Vergleichsausschnitt in der Testszene. Frappant, wie Fuji da die Nase vorn hat.

C.
 
Ein Konkretes Beispiel habe ich schon genannt. Der ISO Boost wird nicht nur bei ISO Less Sensoren angewendet, das wird auch bei DSLR/Spiegellosen benutzt. Sieht man z.B. dadurch, das bestimmte Helligkeitswerte nicht auftauchen oder das Bild nur "gerade" Werte enthält (einfach verdoppelt).

Das trifft nicht einfach so auf alle Ranges zu, aber Expandable ISO nach oben (12800+) habe ich das selber schon mal ausprobiert (rohdaten anschauen).

Es kann da mehrere Gründe geben warum das auch auf ein Raw angewendet wird. Bei Fuji würde ich davon ausgehen, dass der ISO boost "künstlich" abläuft eben weil nur ein Jpeg rauskommt. Aber ansonsten hätte man den Nachteil das man ein Jpeg hätte, zu dem das entsprechende Raw nicht äquivalent ist (als Ausgangsbasis). Umgekehrt würde man das dem Entwickler überlassen, dann hätte man kein Jpeg Bild.


Jetzt stelle ich mal eine Behauptung auf: Es wird sowas evntl. gemacht um z.B. Tote/Hot Pixel die bereits beim Einbau bekannt sind zu eliminieren und damit den Yield bei der Herstellung zu steigern.

Am Ende habe ich aber nur dargelegt das und wie es möglich ist.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten