• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

originalraw: RAW Bilder mit einem Klick nach jpg umwandeln.

Ich finde es schade, dass sich Zeeshan nicht ernsthaft mit der geäusserten Kritik befasst. Es wurde ja auch teilweise sehr sachlich vorgetragen was an dem Konzept von originalraw unverständlich ist.
Und ja, ich habe den Text der Homepage gelesen.
 
Der Grund für die Verwendung des Schalters h (bei dcraw) würde mich auch mal interessieren. Auf Dave Coffins Seite findet man lediglich den Hinweis, daß durch Halbierung oder genauer, Halbierung im Quadrat, also Viertelung der Auflösung die Bearbeitung beschleunigt wird, klar, aber ich hab hinterher eben auch nur 25% der ursprüngl. Auflösung.
 
... Was auf Safari ein mühsames Unterfangen und nahe an der Zumutung ist ...

Da muss ich leider zustimmen. Ich frage mich, wie man als Dienstleister u.A. für Webdesign einen solchen Internetauftritt haben kann. Werbung sieht anders aus.

Zumal inhaltlich auf der Webseite wirklich viel Unfug steht, gerade was Bildformate und Bayer-Pattern angeht. :grumble:

Zu dem Programm selbst: Ich habe versucht es nachzuvollziehen, nur verstehe ich ehrlich gesagt den Sinn dahinter nicht. Alleine durch das Zusammenfassen eines Bayer-Patterns verliert man 75% der Auflösung...

Ich glaube du solltest alles über den Haufen werfen und einfach eine Kamera mit FOVEON-Sensor kaufen, schon kannst du dir alles sparen und hast eine bessere Qualität als mit deinem Workflow.

Und wenn du eh schon im RAW Modus die Bilder auf nimmst, warum willst du im Gottes Namen unbedingt JPG als finales Format nehmen? Warum bleibst du nicht bei einem verlustfreien Format, wenn du schon nicht das RAW selbst behalten willst?
 
Das alles verstehen einige hier nicht. Das scheint dem Entwickler aber nicht zu interessieren, auf Kritik geht er nicht ein. Was solls. Soll das Program nutzen wer es für nützlich erachtet und soll die Hompage lesen wer sonst nichts zu tun hat.
 
"Back to the roots!" dachte ich beim Lesen deiner Homepage und fühlte mich an die Anfänge der Datenverarbeitung erinnert. Wirklich schön! Wie BS2000 damals, oder CBM3032, oder Univac. Aber die waren bloß mit grüner Schrift auf schwarzem Hintergrund - noch schöner!

Vielen Dank für deine mühevolle Arbeit, die du auch noch kostenlos verfügbar machst. Aber auf so eine ultramoderne Software, die mir alles abnimmt was mir an gestalterischen Freiheiten bei der Bildnachverarbeitung meiner RAWs bleibt, will ich doch lieber verzichten.

Da bevorzuge ich die manuelle Bearbeitung meiner RAW-Bilder mit meinem altmodischen ACDSee Pro. Das dauert dann zwar immer ein wenig, weil ich jede Aufnahme, die es wert ist ganz individuell optimiere. Es macht aber auch Spaß und die Ergebnisse sind dann genau so, wie ich es gerne hätte.

Also, interessant zu lesen, aber leider...;)
 
...

1.
Alleine durch das Zusammenfassen eines Bayer-Patterns verliert man 75% der Auflösung...

2.
Warum bleibst du nicht bei einem verlustfreien Format, wenn du schon nicht das RAW selbst behalten willst?

1. Es kommt immer darauf an aus welcher Sicht man argumentiert... Nehmen wir mal ein Beispiel:
Ein Hersteller X verkauft Kamera Y mit der Herstellerangabe: 24 Megapixel (nur eine Farbe pro Pixel).
Für dich Ultrazauberer sind die 24 MP 100 % Auflösung.

Für mich aber nicht.
Du betrachtest deine Bilder (wie jeder andere auch) auf einen Bildschirm, auf dem für JEDES Pixel 3 Farbwerte erforderlich sind. Keines der 24 MP Herstellerangabe hat 3 Farbwerte. Deshalb werden die fehlenden Farbwerte von benachbarten Pixeln mit unterschiedlichsten Demosaicing-Algorithmen verrechnet/berechnet/erraten ==> hier wird EINE bereits DARGESTELLTE Information MEHRMALS verwendet (wie oft hängt vom Verfahren ab), und das ist nichts anderes als Interpolation (Hochskalieren von Bildern).
Somit entsprechen die 24 MP Herstellerangabe 400 % Auflösung, hochskaliert von 100 %.
Jetzt fragst du bestimmt, was sind dann 100 %.
==> 100 % Auflösung hast du dann, wenn eine Information NUR EINMAL verwendet wird. Dies hast du, indem du aus einem 2x2 Bayer-Pattern einen RGB-Pixel bildest [auch Super-Pixel genannt] (völlig ohne jegliche Interpolation versteht sich). Bei einer Kamera mit 24 MP Herstellerangabe sind das 6 MP RGB-Auflösung.
Falls dir die 6 MP RGB-Auslösung zu wenig sein sollten, und du unbedingt 24 MP brauchst, dann musst du eben eine Kamera mit 96 MP Herstellerangabe kaufen, diese hat dann tatsächlich 24 MP (RGB-Auflösung).
Fazit: Man verliert nicht 75 % Auflösung, sondern man bekommt 100 % (native RGB) Auflösung. Jede andere Aufläsung, die über die native RGB Auflösung hinausgeht, wurde mit Interpolation berechnet. Es ist ein Irrglaube zu denken man hätte dadurch mehr Details oder ein höheres Auflösungsvermögen. Selbst aufwändige mathematische Verfahren können die Bilder nur "aufblasen" aber nicht zaubern, mehr Details bekommt man damit nicht. Wenn das so wäre, würden die Leute mit Handys 5 MP Bilder aufnehmen und es kommen dann 500 MP große Bilder nach den Berechnungs-Verfahren wieder raus... mit Details, wovon kein Mensch je zuvor auch nur träumen konnte... dass dies nicht der Fall ist, liegt in den Naturgesetzen begraben.
Fotografieren bedeutet "Festhalten von Informationen".
Alles was DANACH kommt, ist EBV bzw Malerei, und das ist das Gegenteil von Fotografie.

2.
Wer sagt dass ich die RAW nicht behalten will ? ET der Außerirdische ? Obi-Wan Kenobi ? Oder (wieder einmal) jemand der sich mit dem Programm nicht auseinandergesetzt hat und mit Falschaussagen Panik verbreiten möchte... ?

Ich habe inzwischen eine modifizierte dcraw (dcraw_zero_mod)
http://www.zeeshan.de/dcraw_zero_mod/0_dcraw_zero_mod.htm
mit der ich erneut meine ca 2500 RAW-Dateien mit originalraw nach jpg umgewandelt habe. Auf der
http://www.zeeshan.de/dcraw_zero_mod/
kannst du meine erneut nach JPG umgewandelten JPGs anschauen.
Wie du siehst habe ich noch alle RAWs im Schrank.
 
Bleiben wir doch mal bei den Tatsachen.

Eine Sensorzelle von 2x2 Pixeln hat: 1x rot, 2x gruen und 1x blau.

G R
B G

Berechnest Du jetzt daraus Deinen "Superpixel", dann machst Du vor allem zwei Dinge: Gegeneinander verschobene Informationen zusammenrechnen (der B- und der R-Pixel sind um sqrt(2)*pixelpitch gegeneinander verschoben) und Informationen wegwerfen (die des zweiten gruenen Pixels).

Die boese, boese Interpolation des Bayer-Patterns ist heute absolut hervorragend, weil da sehr viel Forschung rein gegangen ist. Hast Du mal den Output von Deiner Superpixel-viertel-die-Aufloesung-Methode mit der vom z.B. aktuellen ACR verglichen? Klar, die Kameras leisten nicht wirklich das, was man in der nominellen Aufloesung darstellen koennte (Bilder aus der D800 auf 12MP verkleinert zeigen mehr Details aus Bilder aus der D700, selber verglichen), aber ein Verkleinern auf 3MP zeigt noch weniger Details. Insofern schmeisst Du vor allem Details weg.

Ich wuerde schaetzen, dass die D800 mit einem guten Demosaicing-Algorithmus auf den realen Informationsgehalt eines RGB-Bildes mit zwischen 18 und 24 Megapixel in RGB kommt. Wie das gehen soll, wenn 18 RGB-MP doch insgesamt 18*3=54 Millionen Informationen entsprechen? Ganz einfach: Reale Bilder folgen gewissen statistischen Regeln. Tatsaechlich kann man in 18MP RGB mehr Informationen speichern, als in 36MP hinter Bayer-Muster. Aber gewisse Muster, die man im RGB-Bild darstellen koennte, kommen in der Realitaet schlicht nicht vor. Das machen sich gute Algorithmen zunutze.

Die gegeneinander verschobenen Subpixel produzieren Dir zudem Artefakte, sollten sie zumindest. Beispielsweise an sehr harten Kontrastkanten, wo es zu Farbverfaelschungen kommen kann.


Im Anhang: Zwei Ausschnitte aus der D800. Einmal 100% Crop, einmal das Gleiche, aber erst herunterskaliert (Faktor 2 in beiden Richtungen), dann wieder heraufskaliert. Das ist der Detailgrad, den man in 1/4 der Aufloesung darstellen kann. Wie man sieht, das nicht-skalierte, interpolierte Bild zeigt mehr Details. Irrglaube hin oder her.

Dein Post zeigt leider vor allem, dass Dir ein paar technische Grundlagen fehlen.
 

Anhänge

Ich kenne kein RAW, welches ich unbearbeitet jemals irgendwo vorgezeigt, ausgedruckt, ins Netz gestellt oder sonstwas damit gemacht hätte. Kann mir auch keine Situation vorstellen in der das sinnvoll wäre.

Bei mir ist es so, dass ich strikter Anhänger fertiger Bilder aus der Kamera bin, ohne Sichtung und Kontrolle jedoch nichts in der Bearbeitung automatisieren wollte (wäre der Schritt von der Bearbeitung zur Ver-Arbeitung) und ich will keine RAWs löschen lassen ohne das Bearbeitungsergebnis gesehen zu haben.

Das Programm ist geeignet für Bilder einfachster Art, ohne *jeglichen* Anspruch.
 
2.
Wer sagt dass ich die RAW nicht behalten will ? ET der Außerirdische ? Obi-Wan Kenobi ? Oder (wieder einmal) jemand der sich mit dem Programm nicht auseinandergesetzt hat und mit Falschaussagen Panik verbreiten möchte... ?

Dann stimmt halt deine Beschreibung nicht…

Wenn du als mögliches Ziel Zeitersparnis angibst, gut; solls Programm werkeln, während du etwas anderes machst. Du schriebst aber, es solle den Speicherplatz auf der Karte freimachen.
 
Zuletzt bearbeitet:
Danke Char, so viel Geduld hatte ich nicht, um das hier so ausführlich zu beschreiben. Ein paar Besuche bei Vorlesungen in Medientechnik würden zeeshan sicherlich nicht schaden.

Zumal die Argumentation völlig daneben ist. So gut wie jedes Display nutzt Subpixel zum darstellen der Farben. Dort liegen also die Farbinformationen auch nicht 100% übereinander. Gleiches gilt für meinen Tintenstrahldrucker.

Zumal Interpolation überhaupt nichts böses ist. Im Gegenteil, es gibt absolut geniale Algorithmen zur Auflösungssteigerung: beispielsweise können bei benachbarten 2x2 Bayer Pattern die Subpixel um eins verschoben werden, um wieder ein neues 2x2 Bayer Pattern zu bilden. Allein diese Möglichkeit geht dir durch deine Superpixelbildung verloren. Das Schlimme ist aber, dass du auf deiner Homepage die falschen Aussagen als richtig propagierst.

Hast du dich mal gefragt, warum 2 grüne Pixel im 2x2 Pattern sind? Das menschliche Auge nimmt wesentlich mehr Grünabstufungen war als andere Farben. Das liegt einfach an der Evolution und daran, dass in unserer bekannten Natur sehr viel Grün ist. Somit gibt man dem Grün Anteil auf dem Sensor einfach mehr Fläche.

Noch was: wenn für dich 24MP nur 6MP real oder brauchbar sind, warum treibst du so ein Hexenwerk mit deinem verhunzten Workflow und setzt nicht auf einen Foveon Sensor, der für dich viel besser geeignet sein sollte? Dort hast du dann keine versetzten Subpixel und die Auflösung kannst du so belassen. All die "schlechten" Interpolationsverfahren auf Grund des Bayer Patterns entfallen dann. Aber wer seine Spiegelreflex nur mit Liveview nutzt, was will man da schon erwarten...
 
Fotografieren bedeutet "Festhalten von Informationen". Alles was DANACH kommt, ist EBV bzw Malerei, und das ist das Gegenteil von Fotografie. (....)
"Fotografie oder Photographie (aus griechisch φῶς, phos, im Genitiv: φωτός, photos, „Licht (der Himmelskörper)“, „Helligkeit“ und γράφειν, graphein, „zeichnen“, „ritzen“, „malen“, „schreiben“) ...."
(Quelle: Wiki)
 
Zuletzt bearbeitet:
Das Programm ist geeignet für Bilder einfachster Art, ohne *jeglichen* Anspruch.

So in der Art schätze ich das auch ein. Nur wenn das so ist, hat das nichts mit Fotografie (s. die oben zitierte Definition), und schon gar nichts mit einem künstlerischen Ansatz zu tun. Und _ich_ würde auch niemandem solche Bilder zeigen wollen, da ich vor allem an _mich_ und _meine_ Bilder einen (wie auch immer gearteten) Anspruch habe.
 
Deshalb werden die fehlenden Farbwerte von benachbarten Pixeln mit unterschiedlichsten Demosaicing-Algorithmen verrechnet/berechnet/erraten ==> hier wird EINE bereits DARGESTELLTE Information MEHRMALS verwendet (wie oft hängt vom Verfahren ab), und das ist nichts anderes als Interpolation (Hochskalieren von Bildern).
Es ist etwas völlig anderes. Viel aufwändiger und überhaupt nicht mit einem einfachen Hochskalieren zu vergleichen.

Dein Post zeigt leider vor allem, dass Dir ein paar technische Grundlagen fehlen.
Dieser Einschätzung schließe ich mich an (und da bin ich hier wohl nicht der einzige).

Edit: @zeeshan: Noch so als Denkanstoß: Wenn das wirklich so wäre wie Du beschrieben hast, wieso stecken dann Kamera- und Softwarehersteller (einsch. Dave Coffin mit dcraw) so viel Aufwand in die Entwicklung von Demosaicing-Algorithmen? Warum skalieren sie nicht einfach auf 1/4MP runter? Das sind definitiv alles keine Marketing-Gags. Und davon kann man sich ganz leicht mit einem Blick auf ein paar Beispielbilder selbst überzeugen, siehe z.B. das was Char gepostet hat.

Edit 2: Zu dcraw_zero_mod: Das was Du als "höhere Auflösung im Grün" beschreibst, ist in Wirklichkeit einfach nur mehr Aliasing-Artefakte durch die jetzt viel kleiner gewordene "Abtast-Fläche" (1 G-Pixel statt 2 G-Pixel). Stärkere Aliasing-Artefakte werden von vielen Leuten (und offenbar auch von Dir) fälschlicherweise als höhere Detailgenauigkeit/Schärfe wahrgenommen. Das ist aber ein Trugschluss. Das sieht man übrigens überdeutlich an Deinem Beispiel mit den Nährstoffangaben. Die Buchstaben sind bei dcraw_zero_mod mitnichten detaillierter, sondern einfach nur "zerhackter". Guck Dir einfach mal das "d" von "davon Zucker" an. Da wo das Einzel-Pixel zufällig auf das Druck-Schwarz getroffen hat, sieht es gut aus, dort wo nicht sehr viel schlechter. Beim Motorrad-Sitz sieht man das verschlimmerte Aliasing auch sehr sehr deutlich.

Edit 3: Im Übrigen gilt (wahrscheinlich - ist aber nur eine Vermutung von mir [hatte Char aber auch schon geschrieben]) das gleiche auch für den "Half-Size"-Modus des normalen dcraw: Es werden einfach nur die RGB-Werte von vier Pixeln zu einem zusammengefasst, ohne Rücksicht auf die Position der Sub-Pixel. Das alleine dürfte schon für Aliasing-Artefakte in dem runterskalierten Ergebnis sorgen. Ich schätze mal, dass ein durch ein gutes Demosaicing (für das die Sub-Pixel-Positionen extrem wichtig sind!) gelaufenes und erst danach auf die Hälfte runterskaliertes Bild besser aussieht, als das was dcraw im "Half-Size"-Modus generiert (vom dcraw_zero_mod mal ganz zu schweigen).
 
Zuletzt bearbeitet:
und das ist nichts anderes als Interpolation (Hochskalieren von Bildern)
Es ist, wie wumi bereits gesagt hat, keine einfache Interpolation, sondern, wenn Du so willst, der Versuch, die fehlende Farbinformation aufgrund der Informationen (hinsichtlich Farbe und Struktur) der umliegenden Pixel zu erraten. Dieses Raten geht häufig ganz gut und manchmal auch gar nicht, weswegen Du richtig sagst, dass ein 24-MP-Bayer-Sensor eine schlechtere echte Auflösung erreicht als ein 3x24-MP-Foveon-Sensor. Es sind allerdings im Normalfall schon deutlich mehr als nur 6 MP...

Gruss
Bezier
 
Und genau deshhalb haben sich die Spekulationen aus früheren Zeiten als unbrauchbar erwiesen, welche astronomische Auflösungen man erreichen müsse um die Qualität von Filmmaterial zu erreichen. Man ging halt am Beginn der Digitalfotografie von der logischen Überlegung aus daß die Auflösung nur ein Viertel der Megapixel sei (was Anfangs wohl auch hinkam).
Inzwischen sind wir klüger.
 
Im Anhang: Zwei Ausschnitte aus der D800. Einmal 100% Crop, einmal das Gleiche, aber erst herunterskaliert (Faktor 2 in beiden Richtungen), dann wieder heraufskaliert. Das ist der Detailgrad, den man in 1/4 der Aufloesung darstellen kann. Wie man sieht, das nicht-skalierte, interpolierte Bild zeigt mehr Details. Irrglaube hin oder her.

Dein Post zeigt leider vor allem, dass Dir ein paar technische Grundlagen fehlen.

Und dein Post mit den 2 Bildern zeigt lediglich dass du hier Äpfel mit Birnen vergleichst.
Du willst Beispiel-Bilder zu Vergleichs und Beweiszwecken vorzeigen ? Dann aber bitte, solche, die den Kern Sache treffen:
Meine Aussage hast du wohl nicht so richtig verstanden.
Ich sage dass die Adressierbarkeit auf einen EINZELNEN Pixel in dem von mir vorgeschlagenen Super-Pixel Verfahren am Maximum liegt, das bedeutet maximale Pixeleffizienz weil jedes Pixel EINZELN angesprochen werden kann. Verstehst du was davon ?

In KEINEM von dir gepredigten Demosaicing/Interpolations Verfahren (egal welches[!!!] es ist) wird jemals die maximale Pixeleffizienz, also DURCHGEHEND die Adressierbarkeit eines einzelnen Pixels, erreicht!

Und wenn du diese beide Verfahren miteinander Vergleichen willst, dann bitte gescheit vergleichen:
Du wills unbedingt die Nikon D800 Vollformat als Beispiel nehmen, also gut, machen wir:
Es sind 2 Kameras im Vollformatsensor mit identischem Objektivanschluss erforderlich, auf denen jeweils mit weitgehendst identischen Einstellungen ein RAW Bild aufgenommen wird:
* eine Kamera ist die Nikon D800 mit 36 MP Herstellerangabe
* die andere Kamera ist die Nikon D??? mit 144 MP Herstellerangabe

Nun generierst du einmal aus der D800 dein tolles interpoliertes 36 MP Bild auf der einen Seite und generierst aus der 144 MP Kamera ein mit den von mir vorgeschlagenen Superpixel Verfahren ein 36 (nativ RGB) MP Bild.
BEIDE Bilder haben jetzt 36 MP [Endlich kannst du Äpfel mit Äpfel und/oder Birnen mit Birnen vergleichen].
So mein lieber, und JETZT darfst du beide Bilder vergleichen und beweisen wie recht du doch hast...
Du wirst zu folgendem Ergebis kommen:
Leider wird das interpolierte 36 MP Bild aus der Nikon D800 nicht im geringsten mit den Details des 36 MP Bild der 144 MP Kamera mithalten können.

Du siehst das wird schwierig im Fall einer D800 einen passenden Kokurrenten mit dem von mir vorgeschlagenen Verfahren zu finden. Es muss aber nicht die D800 sein und es muss auch nicht eine Vollformatkamera sein.

Bayer-Sensoren gibts schon länger, und wenn du eine Nikon im Vollformat mit 9 MP Herstellerangabe findest, dann hast du einen IDENTISCHEN Vergleich, selbst wenn die 9 MP Kamera schon etwas älter ist, Verlgleichbilder immer vom Stativ, ISO 100, Festbrennweite, kritisch Blende usw... sollte dir klar sein, wir wollen das Auflösungsvermögen testen und nicht ISO 25600.

Ich selbst habe die Sony SLT-A65 mit 24MP Herstellerangabe, diese könnte ich für den oben genannten Vergleichsverfahren mit identishem Objektiv gegen die Minolta Dynax 5D oder Dynax 7D (beide 6 MP Herstellerangabe) vergleichen und dir den direkten Beweis erbringen, dass die interpolierten Bilder mit Bildern von Superpixel Verfahren, was die Details betrifft, nicht im geringsten mithalten können. Zusätzlich zu den Details (Schärfe) kommen dann aber noch die originaltreue Farben und der bessere Kontrast, der bei Anwendung von Interpolation immer darunter leidet.

Hat jemand eine Dynax 5D oder Dynax 7D, die er/sie mir für diesen Vergleich zur Verfügung stellen würde ? Gerne führe ich diesen Bildvergleich durch.

Aber selbst eine 5D/7D für ca 300 Euro kaufen nur um dir den Beweis zu liefern werd ich nicht, denn das wäre vergleichbar damit, wenn ich zum Mond fliegen würde einzig um dir zu beweisen dass es da oben einen Mond gibt.
 
Ich werde morgen deinen Post erläutern. Trotzdem nochmal die Zwischenfrage: Warum hast du keine Sigma mit Foveon Sensor? Der müsste für dich ja das Optimum sein, wenn man so eine zwanghafte Abneigung gegen das Bayer-Pattern hat!

Edit: Deine Argumentation hat einen Haken: Warum sollte man für seine Kamera ein qualitativ schlechteres Verfahren nehmen, wenn das Interpolationsverfahren bessere Ergebnisse liefert? Char hat schon alles richtig verglichen.
 
Zuletzt bearbeitet:
Und dein Post mit den 2 Bildern zeigt lediglich dass du hier Äpfel mit Birnen vergleichst.

Nein. Zur Vergleichbarkeit habe ich allerdings das verkleinerte Bild (das einem Ausschnitt aus dem von Dir propagierten 9MP-Bild entspricht) wieder hochskaliert. Haette ich natuerlich auch lassen koennen.


In KEINEM von dir gepredigten Demosaicing/Interpolations Verfahren (egal welches[!!!] es ist) wird jemals die maximale Pixeleffizienz, also DURCHGEHEND die Adressierbarkeit eines einzelnen Pixels, erreicht!

Erstens: Ich predige nicht, dazu bin ich in diesem Zusammenhang einfach zu wenig fanatisch/religioes und zu pragmatisch veranlagt.

Zweitens: Adressieren kann ich die Pixel dennoch. Die Werte sind einfach interpoliert. Dass dem so ist (und dass den Werten keine realen Sensorwerte entsprechen) habe ich nie bestritten.

Nun generierst du einmal aus der D800 dein tolles interpoliertes 36 MP Bild auf der einen Seite und generierst aus der 144 MP Kamera ein mit den von mir vorgeschlagenen Superpixel Verfahren ein 36 (nativ RGB) MP Bild.
BEIDE Bilder haben jetzt 36 MP [Endlich kannst du Äpfel mit Äpfel und/oder Birnen mit Birnen vergleichen].
So mein lieber, und JETZT darfst du beide Bilder vergleichen und beweisen wie recht du doch hast...

Mit welcher Behauptung? Ich habe nie behauptet, dass die D800-Bilder mit einem herunterskalierten Bild einer 144MP-Kamera mithalten koennen. Im Gegenteil habe ich sogar darauf hingewiesen, anhand des Beispiels der D700 gegen D800 herunterskaliert, dass dem nicht so ist. Dennoch ist ein interpoliertes 36MP-Bild aus der D800 immer noch von den Details einem "direkten" Konvertieren und Erzeugen eines 9MP-Bildes weit ueberlegen. Das und nichts anderes ist meine Aussage.

So, und damit reden wir vielleicht mal ueber dasselbe, das waere irgendwie hilfreich.


Ein Vergleich ist doch nur innerhalb derselben Kamera sinnvoll, wenn man konkret die RAW-Dateien aus einer Kamera vorliegen hat und die Wahl zwischen Deinem originalraw und einem anderen RAW-Konverter, beispielsweise ACR hat. Und da muss ich sagen: ACR liefert mehr Details als die von Dir vorgeschlagene Loesung. Willst Du das bestreiten?
 
Zuletzt bearbeitet:
Leider wird das interpolierte 36 MP Bild aus der Nikon D800 nicht im geringsten mit den Details des 36 MP Bild der 144 MP Kamera mithalten können.
Hier hat doch niemand das Gegenteil behauptet. Hier fragen sich nur gerade viele, warum Du unbedingt für heutige, existierende Kameras die Hälfte der Auflösung (bzw. ein Dreiviertel der Flächen-Auflösung) opfern willst, nur weil die Demosaicing-Verfahren nicht die vollständige "Original-Auflösung" wiederherstellen können (was ja ebenfalls keiner bezweifelt).

Anders ausgedrückt: Warum sollte man mit 50% der Auflösung leben, wenn die Demosaicing-Verfahren 80% oder vielleicht sogar nur 60% (Hausnummern) liefern?

Und - wie gesagt - warum sollte man im "Half size mode" von dcraw die durch die Subpixel-Positionen unvermeidlichen Aliasing-Artefakte in Kauf nehmen? Evtl. sogar noch verschlimmert durch Deine dcraw-Modifikation?

Edit: Ich hab mal testweise den "Half Size Mode" von dcraw über ein paar Testbilder von mir gejagt. Es ergeben sich an besonders an Kontrastkanten starke rote und blaue Farbsäume, die man im normalen Modus nicht sieht. Der Grund ist eben das unvermeidliche Aliasing im Rot- und Blaukanal, weil man beim Erzeugen des "Superpixels" (wie Du ihn nennst) nicht wissen kann, ob evtl. eine Lichtkante gerade nur den roten oder blauen Pixel trifft - der gesamte Superpixel wird dann fast komplett rot bzw. blau. Das Anti-Aliasing-Filter der Kamera kann da auch nichts mehr retten, weil das nicht soweit geht, dass ein Lichtpunkt über eine kompletten 2x2er-Bayer-Block verschmiert wird (ein Testbild kam aus einer 40D - nicht gerade für einen "dünnen" AA-Filter bekannt). Ein vernünftiger Demosaicing-Algorithmus kann so etwas an der Umgebung erkennen und im Endergebnis vermeiden! Der "Half Size Mode" von dcraw ist für eine vernünftige Raw-Entwicklung also komplett unbrauchbar und wahrscheinlich nur als Experiment bzw. für schnelle Vorschau-Aufgaben gedacht (wenn man das Bild eh noch viel weiter runterskaliert). Und Dein dcraw_zero_mod verschlimmert das Ganze noch dadurch, dass Aliasing-Artefakte auch noch verstärkt im Grünkanal und damit in der Helligkeit eingeführt werden (worauf Du ja noch nicht eingegangen bist). Außerdem wird übrigens durch die Halbierung des Nutzsignals auch noch das Rauschen verstärkt. Alles in allem würde ich also vom "Half Size Mode" und damit von originalraw und insb. von dcraw_zero_mod dringend abraten, wenn es um hohe Bildqualität geht.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten