• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Demosaicing vs default setting

Was ne Erbsenzählerei hier wieder mal. Da werden selbst Worte die aus gutem Grund
in Gänsefüßchen gesetzt wurden noch zerpflück :rolleyes:

Mir ist letztentlich schxxxxegal wie es genannt wird - wichtig ist doch nur wie gut es
mal erst umgesetzt wird bevor die manuelle (oder per Automatiken unterstützte)
Entwicklung beginnt. Diese erste Umsetzung passt voll umfänglich in Wikipedias
Definition durchaus rein:
"Als Demosaicing bezeichnet man in der Digitalfotografie die Rekonstruktion einer
farbigen Rastergrafik aus den unvollständigen Farbwerten eines mit Mosaik-Farbfiltern
überlagerten Bildsensors."


Genau das macht C1 hervorragend. Da hier nichts sinnvolles mehr kommt bin ich hier auch raus.
Und Desas, du musst zukünftig mit deinen überflüssigen Anspielungen hinter meinem Rücken
weitermachen da ich dich mit auf die Ignorierliste setze. Welches Bild das dann von dir
zeichnet ist alleine dein Problem.
 
Diese erste Umsetzung passt voll umfänglich in Wikipedias
Definition durchaus rein:
"Als Demosaicing bezeichnet man in der Digitalfotografie die Rekonstruktion einer
farbigen Rastergrafik aus den unvollständigen Farbwerten eines mit Mosaik-Farbfiltern
überlagerten Bildsensors."
Nein passt sie nicht, aber dann müsste man sich ja etwas tiefgehender damit befassen :rolleyes:
Nur Demosaicing auf die Rohdaten anzuwenden, produziert eben noch lange kein Bild, was man als ansehnlich erachten würde. In dieser Rekonstruktion ist noch nicht einmal der Weißabgleich mit inbegriffen.
 
Wir drehen uns nur im Kreis. Mir ist schon ganz schwindelig...

Halten wir fest:
Demosaicing ist fest und klar definiert! (siehe Beitrag #1!)
Mach aus einem Bayerpattern mit rbgg eine Pixelgrafik, in der jedem Pixel durch Interpolation mit den benachbarten Bayerpixeln ein Mischwert aus RGB zugewiisen wird!

Es gibt verschiedene Algorithmen, mit unterschiedlichen Stärken und Schwächen. Um diese Unterschiede klar zu erkenenn, muß man soweit vergrößern, daß man die Pixel einzeln sehen kann.
Grundeinstellungen, erweiterte Grundeinstellungen nichtweiterdefinierte Grundeinstellungen, Esoterik und Voodoo haben mit Demosaicing nichts zu tun, können aber leicht den analytischen Blick auf's Demosaicing verschleiern.

Wenn man ein RAW bei neutraler Reglerstellung in verschiedene Konverter lädt, erhält man unterschiedliche Bilder. Diese Unterschiede könnten evtl. auch etwas mit dem Demosaicing zu tun haben, können aber auch ganz andere, nachgeschaltete Ursachen haben.
Um das zu untersuchen müßte man etwas tiefer in die Materie gehen. Dies ist nur in Vergrösserungen möglich, die überhaupt eine Begutachtung der einzelnen Pixel zulassen.
Da der einzige hier anwesende Verfechter der Theorie des 'besseren Demosaicings von C1' keine Lust hat, sich mit solchem Pixelpeepen zu beschäftigen, ich einen Linuxrechner habe und es nicht einsehe, extra dafür Windows zu installieren (meinen letzten Windowsrechner habe ich noch mit Mark bezahlt), und es den anderen wahrscheinlich zu blöd ist, sowas zu untersuchen, denke ich, wir sind hier fertig mit dem Thema.
Wir bräuchten Beweise anhand von Bildvergleichen, alles andere bringt uns nicht weiter.

Niemand muß einen anderen missionieren. Die Fakten wurden- soweit hier und jetzt möglich, aufgezeigt, man kann sie akzeptieren, oder ignorieren- jeder wie er mag.
 
Du willst unbedingt zu einem gütlichen Ende kommen. Oder?
Schätze, dazu ist es zu spät. Entweder ist der letzte Beitrag ein hinlänglich bekanntes Geplärre oder das Knarren des Schlosses.

Wir drehen uns nur im Kreis. Mir ist schon ganz schwindelig...
Du wirst uns doch jetzt nicht aus der Kurve fliegen. :lol:

Die Fakten wurden- soweit hier und jetzt möglich, aufgezeigt, man kann sie akzeptieren, oder ignorieren- jeder wie er mag.

Ginge es um Fakten, wäre dieses Thema so ungefähr nach deinem Eingangsbeitrag durchgewesen, spätestens aber nach #7. Es dürfte klar sein, daß es um etwas anderes geht. Wieder einmal. :rolleyes:
 
Ja, ich finde Harmonie toll! :o

Aus der Kurve fliege ich so schnell nicht, habe aber stets eine Tüte in greifbarer Nähe, falls mir doch nochmal 'was durch den Kopf gehen sollte'...

Auch wenn sachlich nicht sehr viel zusammengekommen ist, hilft es doch, die Aussagen der werten Teilnehmer etwas besser einzuschätzen...

Wie gesagt, für genauere Aussagen ,müsste man tiefer einsteigen. Vielleicht ist mir ja irgendwann langweilig und zeitgleich hab ich ein paar Hunnies für Software zu Testzwecken über...
 
Wenn man ein RAW bei neutraler Reglerstellung in verschiedene Konverter lädt, erhält man unterschiedliche Bilder. Diese Unterschiede könnten evtl. auch etwas mit dem Demosaicing zu tun haben, können aber auch ganz andere, nachgeschaltete Ursachen haben.

Da der einzige hier anwesende Verfechter der Theorie des 'besseren Demosaicings von C1' keine Lust hat, sich mit solchem Pixelpeepen zu beschäftigen, ich einen Linuxrechner habe und es nicht einsehe, extra dafür Windows zu installieren ...
Die Ursachen sind doch im Prinzip shitegeal wichtig ist nur das was nach einer ersten
Umwandlung bei raus kommt. Ebenso shitegal ist ob man die Maßnahmen die dafür
nötig sind noch zum Demosaicing zählen kann oder nicht. Wen ich es dann als
Grundinterpretation bezeichne ist es ja auch nicht recht :rolleyes:

Wenn man natürlich wegen Linux gar nicht mit Capture One vergleichen kann wundert es
mich nicht wenn man nicht versteht von welchen Qualitätsunterschieden ich überhaupt rede.
Es macht kaum Sinn sich mit jemandem über Unterschiede zwischen A und B zu unterhalten
wenn der B gar nicht kennt und auch nicht kennen lernen möchte. Ich hatte übrigens
geschrieben das ich auch auf Pixelebene verglichen habe, deine Unterstellung ist daher falsch.

Immerhin hat dein Beitrag dazu geführt das sich nun in anderen Beiträgen keiner
mehr Demosaicing zu sagen traut:
"Generiertes Ausgangsbild
ohne große Eingriffe hervorragende Bildqualität
überzeugende "Out-of-the-box"-Bildqualität
wesentlich besseres Ausgabematerial
Grundinterpretation ..."

Wer seinen Planeten nicht verlassen möchte wird natürlich nie nachvollziehen können
wovon die da überhaupt reden. Ein gute Qualität ist wahrscheinlich nur erzielbar
wenn nicht nur direkte Nachbarpixel in die Berechnungen einbezogen werden um aus
den unvollständigen Farbwerten des Sensors eine Rastergrafik zu rekonstruieren.
Ich schrieb ja bereits das dies für mich nach Wikipedias Definition mit hineinfällt.
Das ist nur meine überprüfte Meinung und da vertraue ich eher Wikipedias Definition
als deiner persönlichen die mit einem in Frage stellendem "eigentlich" beginnt.
 
Zuletzt bearbeitet:
Die Ursachen sind doch im Prinzip shitegeal wichtig ist nur das was nach einer ersten
Umwandlung bei raus kommt. Ebenso shitegal ist ob man die Maßnahmen die dafür
nötig sind noch zum Demosaicing zählen kann oder nicht. Wen ich es dann als
Grundinterpretation bezeichne ist es ja auch nicht recht :rolleyes:
Spätestens wenn Dir Demosaicing-Artefakte das Bild zerkloppen, wirst Du Dir Gedanken machen müssen, und die meisten kommerziellen Programme in der Hinsicht geben Dir dann keine weiteren Optionen (sprich Du brauchst eine komplett andere Software).

Auf der anderen Seite spielen aber Schärfungsalgorithmen gerne mal verrückt, und manchmal ist es die Kombination aus Demosaicing + Schärfung, welche Dir viel Freude geben. Das geht teilweise so weit, daß man keinerlei Zoom braucht, man sieht den Spaß selbst in verkleinerten Ansichten noch, weil da häßliche, mehr oder weniger regelmäßige Muster hinterlassen werden. Moiré kann auch in verkleinerten Ansichten noch bildstörend wirken, mal so im Vergleich.

Im Netz findet sich so einiges bzgl. Demosaicing und Artefakten, wobei sich manchmal aus herausstellt, daß die Probleme an anderer Stelle liegen (u.a. Nachschärfung).

Und klar, Demosaicing an sich ist erstmal "nur" eine Transformation von einem unvollständigen Farbbild zu einem vollständigen (d.h. bei der jeder Pixel dann nicht nur eine, sondern alle Farbkomponenten enthält). Ob man dabei nur die Nachbarpixel oder ganze Regionen mit einbezieht, ist dann letztendlich egal. Eine primitive Lösung wäre z.B. jeden 2x2-Block in ein Pixel umzuwandeln¹; dadurch hat man alle Farbkomponenten zusammen, reduziert aber die Auflösung entsprechend (die resultierende Bildgröße muß bei dem Vorgang nicht zwangsweise gleich bleiben).


¹ Die übliche Bayer-Matrix vorausgesetzt. Gibt ja noch viele andere Ansätze, auch mit anderen Farbkomponenten als RGB.
 
Die Ursachen sind doch im Prinzip shitegeal wichtig ist nur das was nach einer ersten
Umwandlung bei raus kommt. Ebenso shitegal ist ob man die Maßnahmen die dafür
nötig sind noch zum Demosaicing zählen kann oder nicht. Wen ich es dann als
Grundinterpretation bezeichne ist es ja auch nicht recht :rolleyes:
Du reduzierst eben deine Position bezüglich RT auf reine, nervige Nörgelei, die nicht konkret nachzuvollziehen ist. Es ist ja in Orndung zu kritisieren, aber warum so destruktiv? Wenn die Kritik nachvollziehbar wäre, hätte sie einen Nutzen, aber so...

Natürlich kann jeder selber vergleichen, nur woher soll man wissen, ob man das sieht, was du siehst. Ja, auch ich habe verglichen, andere auch, wie oben nachzulesen. Nur was soll's? Wenn mein Ergebnis nun ist, dass mir C1 keine Vorteile bringt, bin ich ja vermutlich nur ein inkompetenter Ungläubiger, der es einfach nicht sehen will oder kann. Eine religiöse Diskussion brauche ich nicht auch noch führen.

Immerhin hat dein Beitrag dazu geführt das sich nun in anderen Beiträgen keiner
mehr Demosaicing zu sagen traut:
Hauptsache der Begriff wird passend verwendet.

Ein gute Qualität ist wahrscheinlich nur erzielbar
wenn nicht nur direkte Nachbarpixel in die Berechnungen einbezogen werden um aus
den unvollständigen Farbwerten des Sensors eine Rastergrafik zu rekonstruieren.
Ich schrieb ja bereits das dies für mich nach Wikipedias Definition mit hineinfällt.
Das ist nur meine überprüfte Meinung und da vertraue ich eher Wikipedias Definition
als deiner persönlichen die mit einem in Frage stellendem "eigentlich" beginnt.
Es steht so viel präziseres im Netz über Demosaicing zu finden als der kleine Wikipedia-Artikel... Wenn man sich mal ansähe, was Demosaicing-Algorithmen wirklich tun und auch mal ihre Rolle und Positionierung in einer Entwicklungs-Pipeline betrachten würde, dann verstünde man auch besser, was man in die Wikipedia-Definition reininterpretieren darf und was nicht. Wenn man sich aber nur die Quellen nimmt, die zur eigenen Meinung vermeintlich passen, dann ist man wieder auf der religiösen Ebene.
 
Spätestens wenn Dir Demosaicing-Artefakte das Bild zerkloppen, wirst Du Dir Gedanken machen müssen ...
Wenn dem bei C1 so wäre täte ich das auch, aber wahrscheinlich hätte ich mir dann C1 gar nicht gekauft.
Ein zerklopptes Bild ist mir in C1 noch nicht vorgekommen von daher mache ich mir darüber auch keine
Gedanken. In Lr, was die Artefakte betrifft auch nicht, da liegt das "Manko" gegenüber C1 (in
kritischen Mischlicht-Situationen wie bspw. Konzerte mit Farbstrahlern, Leuchtreklame...)
eher bei der Farbinterpretation. Auch die Hautfarbe passen so gut wie bei keinem anderen.

Ich kann jedoch nachvollziehen warum man sich bei einer selbst auferlegten Beschränkung auf einen
Konverter der mit so viel Demosaicing-Verfahren daherkommt das Pixelpeepen anfängt um die
Unterschiede auszumachen. Bei Betrachtungen des Mikrokosmos verliert man den Macrokosmos gerne
mal aus den Augen.
 
Demosaicing ist fest und klar definiert! (siehe Beitrag #1!)
Mach aus einem Bayerpattern mit rbgg eine Pixelgrafik, in der jedem Pixel durch Interpolation mit den benachbarten Bayerpixeln ein Mischwert aus RGB zugewiisen wird!

Ja, genauso wie 'Autofahren' auch fest und klar definiert ist ... bewege ein Auto mit der Kraft seines Motors von A nach B. Keine Rede vom Starten, Kuppeln, von Getriebe oder Tanken, vom Bremsen oder Lenken, von BMW oder Lada etc.

Wenn Du oben 'mach' und 'Mischwert' schreibst, hast Du wenig an Präzision gewonnen, da kann man auch bei demosaicing bleiben.

Weiter oben schrieb jemand, dass es ja nicht so klar und einfach sein kann, wenn man bei manchem Konverter 7 versch. Algorithmen wählen kann. Oder zu manchen Algorithmen noch unterschiedliche Grade der Falschfarbenbeseitigung. Jemand anderes schrieb, dass zum Algorithmus der Farbgenerierung gehört, zu erkennen, ob eine Fläche vorliegt oder nicht.

Und so weiter, und so weiter, dieses Spielchen mit Zusatz-'Regeln' hört erst beim Expor des jpegs oder TIFFs auf. Die Grenze zwischen 'das ist noch Demosaicing' und 'das nicht mehr' ist kaum zu finden oder zu definieren.

C.
 
minimalVng.jpg
Ich habe hier mal zwei Screenshot aus darktable. Was man dort sieht ist gewissermaßen eine minimale Ausgangsposition (Grundinterpretation) in darktable (das es so sch***e aussieht, ist nicht der Punkt). Weniger Operationen erlaubt das Programm nicht. Die Ausführungsreihenfolge ist von unten nach oben. Warum ist es so grün? Weil hier nicht einmal ein Weißabgleich durchgeführt wird. Das Demosaicing ist nur ein Schritt. Hier im Bild VNG als Algorithmus, im anderen Amaze (in RT oder PL kann man dann ja noch deutlich mehr Methoden wählen). Man kann nicht behaupten, dass der Algorithmus die Charakteristik des Bildes wesentlich ändert. Ebenso haben die Parameter des Demosaicings nur einen geringen Einfluss auf das Gesamtbild. Unterschied sieht man vornehmlich stark reingezoomt. Einen wirklich massiven Einfluss hätte in dieser Minimal-Konfiguration hingegen die Änderung des Eingangsfarbprofils (ein icc-Profil).

Diese exemplarische Minimal-Ausgangsposition ist natürlich nicht Praxis-relevant. Es kommen sonst z.B. noch Weißabgleich, Drehung in Hoch- oder Querformat gemäß Metadaten, Spitzlichtrekonstruktion, eventuell eine Tonwertkurve, etwas Schärfung... Das ist letztlich eine Konfigurationsfrage. Der Stapel an Operationen würde einfach nur größer werden und es könnte ihm jede Operation hinzugefügt werden, die darktable beherrscht.

Hingegen nach der Vorstellung einiger hier wäre das Demosaicing der gesamte Stapel aus Operationen, so wie er eben gerade als Vorgabe durch den Benutzer definiert ist. Es sollte eigentlich einleuchten, dass dies nicht gerade eine geschickte Definition wäre. Was in dem tatsächlichen Demosaicing-Schritt geschieht ist hingegen eng umrissen, auch wenn es eine Vielzahl unterschiedlicher Algorithmen gibt.

Man könnte dort im Demosaicing-Schritt auch einen "Algorithmus" wählen, der die Werte der einzelnen Sensel einfach nur als Grauwert durchschleift (die fehlenden Farbkanäle des jeweiligen Pixels erhalten den Wert des vorhandenen). Es findet dann als überhaupt kein Demosaicing statt. Das käme z.B. für die Leica Monochrom zum Einsatz, die überhaupt kein Demosaicing benötigt.

Etwas mehr zum Demosaicing-Modul in darktable kann man hier lesen.
 

Anhänge

Zuletzt bearbeitet:
Ich kann jedoch nachvollziehen warum man sich bei einer selbst auferlegten Beschränkung auf einen Konverter der mit so viel Demosaicing-Verfahren daherkommt das Pixelpeepen anfängt um die Unterschiede auszumachen. Bei Betrachtungen des Mikrokosmos verliert man den Macrokosmos gerne mal aus den Augen.
Je nach Bild können die Unterschiede zwischen den Demosaicing-Verfahren auch im Makrokosmos sichtbar werden. Kleinskalieren beseitigt einige Probleme eben nicht. Vergleiche dazu einfach mal ein leicht verwackeltes Bild (warum auch immer) mit einem perfekt aufgenommenen, idealerweise gleiches Motiv, gleiches Framing, skaliere die Auflösung runter und dann schau mal, wie klein beide sein müssen, damit die Wahrnehmung, daß da irgendwas nicht 100%ig ist, verschwindet. Diese digitale Bilderwelt ist ein fieser Haufen von Komplexität, auch wenn gerne mal analoge Analogien argumentiert werden, um die Dinge einfach zu halten :D
 
Was in dem tatsächlichen Demosaicing-Schritt geschieht ist hingegen eng umrissen, auch wenn es eine Vielzahl unterschiedlicher Algorithmen gibt.

Von Capture One weiß ich, dass einige 'höhere' Operationen (wie zB Beseitigung von CAs) direkt zurück auf das Demosaicking wirken (merkt man zB daran, dass C1 einem mitteilt, diese oder jene Funktion beim Fuji-X-trans nicht zu können). Da wird also mehr gemacht, als nur am RGB-Interpolationsergebnis zu arbeiten, da wird nicht säuberlich 'gestapelt'. Bei CAs ist es zB fürs Bild besser, wenn nicht die RGB-Werte korrigiert werden, sondern wenn das Demosaicking gleich mit entspr. Korrekturen arbeitet.

Man könnte dort im Demosaicing-Schritt auch einen "Algorithmus" wählen, der die Werte der einzelnen Sensel einfach nur als Grauwert durchschleift (die fehlenden Farbkanäle des jeweiligen Pixels erhalten den Wert des vorhandenen). Es findet dann als überhaupt kein Demosaicing statt. Das käme z.B. für die Leica Monochrom zum Einsatz,

Denkfehler. Selbst bei SW müssen erst Farben interpoliert werden, denn bei dem einem Sensel kommt der Wert aus einem Rotfilter, beim anderen aus einem Grünfilter usw. - um zu entscheiden, welchen man dem Pixel dann als 'Grauwert' gibt, muss man wissen, welche Farbe in der Realworld dahintersteht...

C.
 
Von Capture One weiß ich, dass einige 'höhere' Operationen (wie zB Beseitigung von CAs) direkt zurück auf das Demosaicking wirken (merkt man zB daran, dass C1 einem mitteilt, diese oder jene Funktion beim Fuji-X-trans nicht zu können). Da wird also mehr gemacht, als nur am RGB-Interpolationsergebnis zu arbeiten, da wird nicht säuberlich 'gestapelt'. Bei CAs ist es zB fürs Bild besser, wenn nicht die RGB-Werte korrigiert werden, sondern wenn das Demosaicking gleich mit entspr. Korrekturen arbeitet.
Du solltest etwas vorsichtiger mit Schlussfolgerungen sein. Wenn C1 sagt, dass es CA-Beseitigung nicht für X-Trans gibt, könnte damit genau das gleiche gemeint sein wie in darktable, wo es nämlich auch nicht für X-Trans geht. Das liegt in darktable daran, dass die bisherige CA-Beseitigung vor dem Demosaicing stattfindet und auf einem Bayer-Muster beruht. Hier die Pipeline wie oben mit aktivierter CA-Korrektur:
minimalMitCA.jpg
Die CA-Beseitigung erfolgt also noch auf Daten, die noch nicht durchs Demosaicing gegangen sind.
Im übrigen siehst du in C1 nichts von "Stapeln", weil das UI das nicht anzeigen kann und vorm Benutzer verbirgt. Ich vermute sehr stark, dass intern sehr wohl mit einer sequentiellen Pipeline gearbeitet wird, die sich auch in einem solchen Stapel visualisieren ließe.


Denkfehler. Selbst bei SW müssen erst Farben interpoliert werden, denn bei dem einem Sensel kommt der Wert aus einem Rotfilter, beim anderen aus einem Grünfilter usw. - um zu entscheiden, welchen man dem Pixel dann als 'Grauwert' gibt, muss man wissen, welche Farbe in der Realworld dahintersteht.
Lies doch bitte genauer :rolleyes: Ich sprach gezielt als Beispiel von der Leica Monochrom, die einen SW-Sensor ohne CFA besitzt. Ebenso gibt es Kameras, die zu Monochrom-Kameras umgebaut wurden durch Entfernen des CFA. Die brauchen eben kein Demosaicing. Wenn du die genannte Methode auf ein Bayer- oder Xtrans-Raw anwendest, ist es in der Tat nicht sinnvoll mit der Methode zu arbeiten.
Der Punkt ist aber, warum ich überhaupt von den Monochrom-Kameras rede, dass es zeigt das Demosaicing bei bestimmten Sensoren überhaupt nicht stattfinden muss, weil es nichts zu interpolieren gibt [1][2]. Dennoch kann man sich beliebig viele Grundinterpretationen auch für solche Bilder vorstellen, weil z.B. unterschiedliche Tonwertkurven verwendet werden.

[1] https://www.darktable.org/usermanual/ch03s04.html.php#demosaic
[2] http://rawpedia.rawtherapee.com/Demosaicing
 
Zuletzt bearbeitet:
Von Capture One weiß ich, dass einige 'höhere' Operationen (wie zB Beseitigung von CAs) direkt zurück auf das Demosaicking wirken (merkt man zB daran, dass C1 einem mitteilt, diese oder jene Funktion beim Fuji-X-trans nicht zu können). Da wird also mehr gemacht, als nur am RGB-Interpolationsergebnis zu arbeiten, da wird nicht säuberlich 'gestapelt'. Bei CAs ist es zB fürs Bild besser, wenn nicht die RGB-Werte korrigiert werden, sondern wenn das Demosaicking gleich mit entspr. Korrekturen arbeitet.
C.
Selbstverständlich funktioniert sauberes Demosaicing nur, wenn RGB-Kanäle deckungsgleich sind. Deshalb muss die CA-Korrektur der erste Schritt in dr Verabeitungskette sein.

Denkfehler. Selbst bei SW müssen erst Farben interpoliert werden, denn bei dem einem Sensel kommt der Wert aus einem Rotfilter, beim anderen aus einem Grünfilter usw. - um zu entscheiden, welchen man dem Pixel dann als 'Grauwert' gibt, muss man wissen, welche Farbe in der Realworld dahintersteht...

C.
Die Quelltexte freier Algorithmen wie amaze oder lmmse legen genau den umgekehrten Weg nahe: Erst wird der L-Kanal des Bildes erzeugt und anschliessend mit ab-Werten gefüllt. Nur so können wir mit Helligkeitsauflösungen an der Nyquist-Frequenz arbeiten. Nach einer verlässlichen Farbauflösung fragt niemand; die wird stets unterhalb der Auflösung des kritischen RB-Kanals liegen.
 
Siehe DerDude … und auch bei Farbe kann man ums Demosaicing herumkommen.

Ja, ohne Bayer-Filter (Leica Mono) oder bei drei Farbauszügen (R,G,B, Pentax Pixelshift) muss man nicht de-bayern. Nicht überraschend.

Die Quelltexte freier Algorithmen wie amaze oder lmmse legen genau den umgekehrten Weg nahe: Erst wird der L-Kanal des Bildes erzeugt und anschliessend mit ab-Werten gefüllt..

Das ist ja zwangsläufig so - man hat ja zunächst nur L-Werte. Aber für ein SW-Bild kann man die nicht einfach nehmen (welchen denn, bitte - den vom grünen, roten oder blauen Sensel!?) Wenn man die durchreicht, kriegt man ein kräftiges Schachbrettmuster. Wenn man die global ausgleicht (zB R*2, B*1.4), bleibt bei bunten Vorlagen (Welt, tagsüber:-) immer noch ein Muster übrig. Wenn man mittelt, verliert man massiv an Auflösung.

In Darktable-Stapel kommt 'Monochrom' übrigens viel später als Demosaic, es liegt zwischen Tonwertkurven, Tiefen/Lichter und Schärfen... Aber der DT-Stapel ist ja eh kein Beweis...

C.
 
Ja, ohne Bayer-Filter (Leica Mono) oder bei drei Farbauszügen (R,G,B, Pentax Pixelshift) muss man nicht de-bayern. Nicht überraschend.
Gut, dass es dich nicht überrascht. Jene, die Demosicing gleichsetzen mit einer ganzen Grundinterpretation könnte es durchaus überraschen, dass es Grundinterpretationen ganz ohne Demosaicing geben kann.
De-Bayern ist auch nur ein anderes Wort für Demosaicing bezogen auf Sensoren mit Bayer-CFA.

In Darktable-Stapel kommt 'Monochrom' übrigens viel später als Demosaic, es liegt zwischen Tonwertkurven, Tiefen/Lichter und Schärfen...
Ja.... und? Hast du dir auch angesehen, wofür das Monochrom-Modul dient? Es ist gerade für die Umwandlung von Farbbildern in SW und außerdem nur ein Weg von mehreren in darktable :rolleyes:

Aber der DT-Stapel ist ja eh kein Beweis...
Nein, kein "Beweis" :rolleyes:, aber ein gutes Argument. Ich denke, es ist nicht so abwegig anzunehmen, dass andere Konverter im Grunde ähnlich in einer sequentiellen Pipeline arbeiten. In darktable ist es erklärtes Ziel die Pipeline auf der Benutzeroberfläche sichtbar zu machen. In vielen anderen Programmen kannst du es leider nicht sehen, aber was im Hintergrund passiert ist eben eine andere Sache.
 
Nein, kein "Beweis" :rolleyes:, aber ein gutes Argument. Ich denke, es ist nicht so abwegig anzunehmen, dass andere Konverter im Grunde ähnlich in einer sequentiellen Pipeline arbeiten.

Klar, im Kreis rechnen die nicht :rolleyes:. Aber, His Dudeness, vielleicht täuscht die Stellung im Stapel ja darüber, was wirklich passiert...

Überleg mal - wenn zB ein Rotpixel einmal aus WB-Gründen * 0.9 genommen werden muss, dann wg. Lichterretten * 0.6, dann beim de-bayern *1.4, dann aus Farbraumgründen * 1.1; ja mei, diesen 'Stapel' von vier Multiplikationen wird man, wenn das irgend geht, zusammenfassen; das spart Zeit und Rundungsfehler. In diesem Fall würde 'im Stapel vor demosaic' einfach nur bedeuten: bei Änderung von (WB, Lichter, Farbraum) muss neu demosaict werden, und zwar mit anderen Parametern.

Schönes Herbstwochenende,

C.
 
WERBUNG
Zurück
Oben Unten