• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Vergrößerungs-Potential Foveon-Fotos vs. Bayer-Fotos

Der Sensor der SD14 liefert dagegen 2640 Pixel x 1760 Pixel = 4.646.400 Pixel direkte Farbinformationen.

Preisfrage : "Bei welchem Sensor wird nun mehr geraten ?"

Schau Dir mal mein Beispielbild an. Die Sigma hat ein dermaßen hohes Rauschlevel, daß es kaum genaue Farbinformationen gibt. Ein großer Teil ist schlichtweg interpoliert aus Informationen der Nachbarpixel. Du solltest SPP etwas kritischer betrachten.

Das Du überhaupt der Meinung bist, daß die SD14 auch nur annährend die Auflösung der 5D MKII erreicht, ist völlig absurd. Das gezeigte Beispiel hat zur Beurteilung weder genügend Detailgenauigkeit, noch waren es identische Objektive und Fokuspunkte. Ich vermute es wurde nicht mal ein Stativ verwendet.

Gruß Ingo
 
Sagt mal.. ist das nur mein Eindruck, dass die Diskussion sich im Kreis dreht?
1. Die Qualität pro Pixel ist beim Foveon natürlich besser.
2. Wenn die Fotos der 5DII zum Vergleich größer ausgedruckt werden sollen als die der SD14, ist das die gleiche Fläche pro Pixel, also nichts anderes als 1. Dafür muss man nicht ausdrucken.
3. Wenn man aber eine bestimmte Ausgabegröße benötigt, braucht man nicht Qualität pro Pixel, sondern Qualität pro Gesamtbild. Die setzt sich aber dummerweise aus 1. multipliziert mit Auflösung zusammen und die SD14 verliert gegen die 5DII deutlich.

Auflösung/Bild = Pixel/Bild * Auflösung/Pixel
SD14 = 4,7M * 1
5DII = 21M * (0,25..0,33 je nach Sichtweise)

Welches Musikstück hört man lieber - 16 Bit, 11 KHz (X3) oder 8 Bit, 22 KHz (CFA)? Möchte die NASA lieber farblich exakte vermatschte Fotos oder hochauflösende mit einfach etwas weniger genauen Farben? Hat Windows auf alten Grafikkarten einen Modus 320x200-Modus mit 256 Farben angeboten (obwohl der ja standardisiert war) oder einen mit 640x480 bei 16 Farben? Der X3 ist pro Sample (Pixel) unbestritten prima, aber das interessiert niemanden. Er verliert bei der Detailauflösung (Nyquist-Shannon, speziell im Grün-Bereich) und bei der Möglichkeit, Zwischenwerte zu interpolieren. Man könnte also allenfalls sagen, dass er bessere Farben hat - was auch für mich lange Zeit der Grund war, die SD14 noch zu behalten - aber auch das ist inzwischen widerlegt.

All das wurde hier und anderswo schon mehr als genug geschrieben, jegliches Aufbäumen dagegen würde ich als Folge kognitiver Dissonanz sehen..
 
2 grüne, 1 blaues und 1 rotes Pixel ergeben 1 Pixel CFA-Farbinformation. Das ergibt bei günstigster Interpolation mit genauester Farbreferenztabelle im Vergleich zum Foveon ein Verhältnis von 2,5 : 1.
Stimmt.
Teile ich nun die Anzahl der Sensor Pixel der EOS 5D Mark II durch diesen Faktor ergibt das 5616 Pixel / 2,5 = 2264 Pixel horizontal mal 3744 Pixel / 2,5 = 1498 Pixel vertikal.
D.h. der Sensor der EOS 5D Mk II liefert 2264 Pixel x 1498 Pixel = 3.391.472 Pixel annähernd direkte Farbinformationen.
Der Sensor der SD14 liefert dagegen 2640 Pixel x 1760 Pixel = 4.646.400 Pixel direkte Farbinformationen.
Au au au.. das ist mathematisch aber ganz großer Quatsch. Das Verhältnis 2,5:1 bezieht sich auf die Pixelfläche. Du musst also entweder die Gesamte (2D)-Auflösung durch 2,5 teilen (also rund 8 MP direkte Farbinfo) oder jede Dimension nur durch die Wurzel aus 2,5.
Preisfrage : "Bei welchem Sensor wird nun mehr geraten ?"
Eben. Ich hoffe Du siehst jetzt, dass meine bisherige Angabe von CFA:X3 = 4:1 noch sehr auf Deiner Seite stand - aber selbst diese hat sich mit der 5DII eben erledigt. Wie gesagt, ich hatte selbst beide jetzt ca. 1 Jahr parallel. Und ohne Frage, die SD14 macht tolle Fotos. Aber die 5DII ersetzt sie nicht. Sie ist also eher ein flexibler (z.B. Reise-) Ersatz mit schönen Bildern.
 
So, hier noch mal ein Vergleich 5D MKII vs DP1.
(Sorry Browny, wenn er für Dich nicht zulässig ist, aber für den einen oder anderen mag es trotzdem interessant sein.)

Ich habe an der Vergrösserung des DP1 Bildes sehr lange optimiert und das Beste aller Tests (SPP, Silkypix, Photoshop Bikubisch, Genuine Fractals, Photozoom Pro) genommen. Auch habe ich zugunsten des Foveon genau 200% skaliert, auch wenn es eher 213% sein müssten um auf die Grösse des Canon Fotos zu kommen.
Des Weiteren darf ich zugeben, dass ich Sigma/Foveon "Fan" bin und vom Output meiner DP1 begeistert bin. Versuche hier also bestimmt nicht zugunsten der Canon zu testen.
Aber mit meinem Epson 3800 habe ich eben auch den realen Vergleich eines A2 Prints. Mit viel Aufwand und je nach Sujet kriege ich ein befriedigendes Resultat hin. Bei Fotos der MKII drucke ich einfach aus und das Bild wird knackscharf.
Für 90% aller Fälle (Arbeit und Privat) bevorzuge ich allerdings meine DP1/DP2, da der Output für Bildschirm oder max. A3 Print perfekt ist. Weder CA's, weiche Ecken oder Vignette sind ein Thema. (Im Gegensatz zu der Canon mit 17-40L)
Vom Verhältnis Kamera-Grösse zu Bildqualität ganz zu schweigen.

Lange Rede kurzer Sinn, hier die Vergleichsbilder:

5D_Uebersicht.jpg
DP1_Uebersicht.jpg


DP1_crop_100Prozent.jpg

DP1_PhotozoomPro.jpg

5DMKII_crop.jpg


Qimage würde mich für Prints sehr interessieren.
Gibts keine Möglichkeit, es zu testen?
 
Was erwartest Du, wenn nicht einmal jedes 10. Pixel echt ist??? :rolleyes:

Alles was man meint an zusätzlichen Details zu sehen, hat mit dem Originalbild so viel zu tun, wie die Rauheit der Unterlage, auf die gedruckt wird.
...sieht u.U. schick aus, hat aber mit der Realität, also echten Details, nix zu tun! :ugly:

Mal abgesehen davon, zeig doch mal eine Version, die aus dem kleinen .jpg generiert wurde, die deines Erachtens geht... :angel:

Schade, die Silkypix-Version geht ja mal garnicht. Da fehlt ja jegliches Detail. Klar, nen bissl mehr Farbsaettigung ist drin, aber fast alle Details sind verloren gegangen :(.

Falls ihr es immernoch nicht mitbekommen habt. Qimage sollte als ein quasi Druckertreiber gesehen werden und nicht als ein Skalierungsprogramm.
Es beinhaltet sowohl bikubische, Spline basierte sowie fraktale Berechnung, soweit ich das noch richtig in Erinnerung habe.
Es koennen direkt RAW,Tiff, JPG von SD9-SD14 und Tiff und Jpeg von der DP-Serie eingelesen werden.
Die Ergebnisse im Print sind gut bis sehr gut und definitiv besser als ein reiner Lanczos-Filter.
 

Hier auf der vorigen Seite:

https://www.dslr-forum.de/showpost.php?p=6802274&postcount=196

Ich nehme an, er bezog sich auf dieses Bild:

Anhang anzeigen 1363152

um mehr als den Faktor 11 aufgebläht aus exakt diesem .jpg:

Anhang anzeigen 1363153

Da scheint Jemand ernsthaft auf eine Detailvermehrung gehofft zu haben... :eek:

Schade, die Silkypix-Version geht ja mal garnicht. Da fehlt ja jegliches Detail. Klar, nen bissl mehr Farbsaettigung ist drin, aber fast alle Details sind verloren gegangen :(.
 
Sagt mal.. ist das nur mein Eindruck, dass die Diskussion sich im Kreis dreht?
1. Die Qualität pro Pixel ist beim Foveon natürlich besser.
2. Wenn die Fotos der 5DII zum Vergleich größer ausgedruckt werden sollen als die der SD14, ist das die gleiche Fläche pro Pixel, also nichts anderes als 1. Dafür muss man nicht ausdrucken. ...
...exakt. Es geht um die Qualität des elektronischen, vom Sensor gelieferten, Pixel-bezogenen Informationsgehaltes und wo mehr berechnet (geraten / gemalt) werden muss, CFA- oder X3 -Sensor.

Alles nach dem Sensor ist Bildbearbeitung (Interpolation etc.). Und hier ist eben die zur Verfügung stehende Information des Foveon X3 Sensors einfach besser.

Die Probleme für Sigma liegen nicht beim Sensor, sondern in der Verarbeitung der vom Sensor gelieferten Informationen. Die Technologie des Sensors ist richtig. Mit dem 3-kanaligen TRUE- / TRUE II -Prozessor ist man in der Entwicklung nun auf dem Stand, dass man 3 Kanäle separat verarbeiten kann. Auch dieses Konzept ist richtig.

An der Art der kamerainternen Verarbeitung (Signalweg / Signalaufbereitung und Verrechnungsalgoritmen) muss man arbeiten und diese verbessern. Ebenso bewegte sich die Entwicklung des RAW-Konverters SPP mit der Version 4.0 in eine zu hinterfragende Richtung, denn auch er ist, sowohl vom Interface, wie auch von der "Entwicklung" der RAW-Daten her fehlerbehaftet.

Solange diese Probleme bestehen ist es ziemlich sinnlos mit einem grösseren Foveon X3 Sensor auf den Markt zu gehen, denn er würde die Probleme und die Kosten in der weiteren Hard- und Software-Entwicklung nur unverhältnismässig stark vergrössern.

Was Sigma hier fehlt ist eine stringente Koordination von Hardware- / Firmware- und Software-Entwicklung. Dieses Problem versucht man offenbar Schritt für Schritt und mit der SD15 schon einmal teilweise in den Griff zu bekommen.

Nichts desto trotz ist es jedoch auch jetzt schon möglich mit geeigneten Tools Bildergebnisse zu drucken, die anderen, wesentlich aufwändigeren und teureren Kameras in Nichts nachstehen. Der Print ist letzlich für mich das Ausschlaggebende und um den so gut wie irgend möglich zu erreichen habe ich hier einen Weg aufgezeigt. Andere haben, auch in einem anderen Thread, hier gezeigt was an Details und Auflösungsmöglichkeiten mit verschiedenen Software-Lösungen darstellbar ist und wenn sich daraus nun jemand einen individuellen Workflow erstellt, kann er sich das Geld für eine wesentlich teurere Kamera - auch von Sigma - wenigstens noch für die nächsten 2 Jahre sparen. Er sollte lieber in etwas sinnvolleres investieren statt für sein Hobby, wegen einer Linie am Rollladen eines 500m entfernten Hauses in einer Weitwinkelaufnahme, 500,- oder 1000,- Euro mehr in einen in 2 Jahren ohnehin überholten Kamera-Body zu stecken.

Berufsfotografen, welche extreme Auflösungen benötigen, steht der Weg zum Mittelformat offen und der wird auch, entsprechende Bonität vorausgesetzt, finanziert.

Alle anderen Argumente hier halte ich für zwar am Bildschirm oder theoretisch darstellbar, deswegen aber noch lange nicht für unbedingt richtig. Wichtig für die Aufnahme ist das direkte vom Sensor gelieferte Signal und für den Ausdruck auf Papier der richtige Weg dieses Signal optimal wiederzugeben.
Alles andere ist Kaffesatzleserei. Jede Kamera, die aus den Sensordaten dann ein mehr oder weniger "gutes" Bild produziert ist nichts anderes als ein Bildbearbeitungsrechner der mir eine vom Kamerahersteller vorgegebene Bildvariante liefert, die eventuell nicht meinen Vorstellungen, oder der fotografierten Realität entspricht und die ich nur in begrenztem Umfang nach meinen Vorstellungen bearbeiten kann. Bei den Sigma Kameras habe ich, aufgrund des Umstandes, dass Kamera und RAW-Konverter als EIN System direkt zusammenarbeiten, wenigstens noch die Möglichkeit mit relativ einfachen Mitteln das Erscheinungsbild der Aufnahme direkt zu beeinflussen.

Diese Möglichkeit möchte ich mir persönlich nicht nehmen lassen. Klaus Rickert hat u.A. mit seinen Aufnahmen ja gezeigt was reproduzierbar möglich ist und wer nun behauptet diese Bilder seien mit jeder x-beliebigen anderen Kamera ebenso möglich soll sich halt einmal anstrengen und den Beweis antreten.

Wenn wir dann über die Investitionen ins Hobby sprechen will ich einmal sehen, wer besser abschneidet. Und für den der mehr will steht, wie gesagt digitales Mittelformat zur Verfügung. Es muss ja nicht gleich ´ne Leica S2 sein.

Gruss,

Browny.
 
Stimmt.
Au au au.. das ist mathematisch aber ganz großer Quatsch. Das Verhältnis 2,5:1 bezieht sich auf die Pixelfläche. Du musst also entweder die Gesamte (2D)-Auflösung durch 2,5 teilen (also rund 8 MP direkte Farbinfo) oder jede Dimension nur durch die Wurzel aus 2,5. ...
... eben nicht, denn dann fange ich schon wieder an Pixelflächen zu interpolieren und das fällt in die Kategorie Bildbearbeitung. ;)
 
...exakt. Es geht um die Qualität des elektronischen, vom Sensor gelieferten, Pixel-bezogenen Informationsgehaltes
Nein. Der Informationsgehalt pro Pixel ist nur für Pixelpeeping relevant. In allen anderen Fällen betrachtet man das gesamte optische Abbild, welches auf dem gesamten Sensor erfasst wurde. Unterhalb der Auflösung des menschlichen Auges ist dabei egal, wie quantisiert wurde. Und darüber verliert leider gerade der Foveon, weil das RGGB des CFA die höhere Sensitivität des menschlichen Auges im Grün berücksichtigt (deswegen auch X3:CFA = 2,5:1 und nicht 3:1 wie von Sigma angegeben).
Alles nach dem Sensor ist Bildbearbeitung (Interpolation etc.). Und hier ist eben die zur Verfügung stehende Information des Foveon X3 Sensors einfach besser.
Aber eben auch zahlenmäßig geringer. Wie gesagt, informier Dich mal bitte über Quantisierung. Für diese ist nicht allein die Qualität des einzelnen Samples relevant, sondern auch die Anzahl der Messstellen.
Die Probleme für Sigma liegen nicht beim Sensor, sondern in der Verarbeitung der vom Sensor gelieferten Informationen.
Leider ist auch gerade das nicht richtig. Das Problem ist nicht die Verarbeitung der Signale, sondern neben ihrer sauberen Trennung im Sensor vor allem ein systemimmanentes. Nämlich genau das, was die 3 Farben pro Pixel ermöglicht, ist gleichzeitig das Problem: die unterschiedliche Eindringtiefe der unterschiedlichen Wellenlängen. Die blaue Schicht ist im Vergleich zur grünen und roten so dünn, dass der Blaukanal immer sehr schlecht aufgelöst ist. Das sieht man in der Kameraanzeige nach der Aufnahme bei schlechtem Licht: die Bilder werden gelblich.
Nun hat ein CFA nicht unbedingt bessere Blauempfindlichkeit. Aber durch die RGGB-Filter kann er die Empfindlichkeit besser gegeneinander ausgleichen - z.B. Rot und Grün etwas stärker dämpfen, damit das Verhältnis R/G/B besser ist (tatsächlich dämpft die 5DII Rot recht stark und liefert ohne jeglichen Weißabgleich stark gelblich-grüne Bilder ab -> siehe UniWB).
Nichts desto trotz ist es jedoch auch jetzt schon möglich mit geeigneten Tools Bildergebnisse zu drucken, die anderen, wesentlich aufwändigeren und teureren Kameras in Nichts nachstehen
Das ist Ansichtssache; ich entnehme den Fotos eher, dass das Hochskalieren einer SD14-Aufnahme der 5DII sogar deutlich hinterhersteht.
Berufsfotografen, welche extreme Auflösungen benötigen, steht der Weg zum Mittelformat offen und der wird auch, entsprechende Bonität vorausgesetzt, finanziert.
Wozu sich finanziell ruinieren, wenn es mit aktuellen KB-Kameras wie 5DII und D3x sehr gute Kompromisse gibt?
Jede Kamera, die aus den Sensordaten dann ein mehr oder weniger "gutes" Bild produziert ist nichts anderes als ein Bildbearbeitungsrechner
Nach meinem Eindruck bastelt die SD14 an den Daten deutlich mehr herum als die Canons oder Nikons.
 
Zuletzt bearbeitet:
Nichts desto trotz ist es jedoch auch jetzt schon möglich mit geeigneten Tools Bildergebnisse zu drucken, die anderen, wesentlich aufwändigeren und teureren Kameras in Nichts nachstehen.

Hallo Browny,

es tut mir leid, aber ich sehe gravierende Unterschiede in der Auflösung, die selbst in einem A3 Print sichtbar sind.

Ich hoffe der freundliche Tester erlaubt mir, die zwei crops mal zu zeigen. Da liegen Welten dazwischen. Das gelb eingekreiste ist die Scheinauflösung der DP1. Da sind Buchstaben zu sehen, die gibt es jedenfalls nicht in unserem Alphabet.

Anhang anzeigen 1363259

Gruß Ingo
 
... eben nicht, denn dann fange ich schon wieder an Pixelflächen zu interpolieren und das fällt in die Kategorie Bildbearbeitung. ;)
Ich finde es immer ein wenig unpassend, wenn Leute in einer (hoffentlich) sachlichen Diskussion einen ";)"-Smiley zeigen. Soll das den Anderen als Dummerchen denunzieren? Das wäre unsachlich und wenn es nicht hinhaut, weil man selbst etwas nicht verstanden hat, sogar peinlich.

Zum Thema: Ein CFA ist zwangsläufig immer Interpolation, aber - auch wenn Du da protestieren wirst - der X3 interpoliert auch (!). Während ein CFA räumlich interpoliert, interpoliert der X3 im Wertebereich. Wenn Du das also bereits als Bildbearbeitung ansiehst, musst Du es konsequenterweise bei beiden als solche sehen. Darüber hinaus kommst Du beim Vergleich unterschiedlicher Auflösungen um eine Interpolation selten herum - selbst bei gleicher Technologie, also wenn Du z.B. SD14 mit SD10 vergleichst.

Und zum Mathematischen: Ein Color Field Array enthält - der Sensitivität des menschlichen Auges nachempfunden - 2x Grün auf 1x Rot und 1x Blau. D.h. er löst innerhalb dieser 4 Subpixel mehr Farben auf als ein X3 RGB-Pixel, wodurch sich dann das Verhältnis von 2,5:1 (oder etwa 4:1,6) ergibt. Mal abgesehen davon, dass es akademisch ist, auf welcher Seite das Komma steht (man könnte sich genausogut auf den Standpunkt stellen, der X3 löst Grün zu schlecht auf und muss darum beim Hochskalieren dort mehr interpolieren!) - ist das ein Verhältnis pro Pixel, also in der Fläche. Und genau deswegen kannst Du nicht Länge und Breite der 5DII einfach durch 2,5 teilen. Sonst könnte Sigma nämlich für die SD14 mit.. hui.. 4,7*2,5*2,5 = 29,4 MP werben. Warum tun die das dann nicht?
 
Da Vergleiche ja so schön anzuschauen sind, hier noch als Bonus die SD9 neben der SD14 jeweils mit Zeiss Planar in ungeschärfter Variante mit verschiedenen Konvertern.
Da ja das x3f-tool nur SD14 liest, habe ich mal das gute alte SPP2.0 auf die Platte gespielt.
Es ist die erste SPP-Version mit Filllight, aber noch ohne internen Rauschfilter gegen die lila Flecken.


Anhang anzeigen 1363763

Gruß Ingo
 
Hallo Browny...

...einfach per Qimage skalieren und z.B. als .jpg mit der gleichen Kompression, wie meine anderen Beispiele abspeichern: :D

Anhang anzeigen 1363804Anhang anzeigen 1363805

Links mit Qimage (Standardeinstellung), rechts mit XnView und Lanczos
Beide mit der gleichen Kompression (98) abgespeichert.

Ich finde es schon seltsam, dass Du diese Abspeichermöglichkeit in Qimage anscheinend bisher nicht kanntest, obwohl Du ja eben dieses Programm selbst in´s Feld geführt hattest... :angel:
Ebenso, hätte ich eher von motionride dieses nun von mir gebrachte Beispiel erwartet...

motionride schrieb:
Falls ihr es immernoch nicht mitbekommen habt. Qimage sollte als ein quasi Druckertreiber gesehen werden und nicht als ein Skalierungsprogramm.
Es beinhaltet sowohl bikubische, Spline basierte sowie fraktale Berechnung, soweit ich das noch richtig in Erinnerung habe.
Es koennen direkt RAW,Tiff, JPG von SD9-SD14 und Tiff und Jpeg von der DP-Serie eingelesen werden.
Die Ergebnisse im Print sind gut bis sehr gut und definitiv besser als ein reiner Lanczos-Filter.

... sag mal - wie kriege ich den Print über´s WEB, so dass er hier begutachtet werden kann ?

P.S.:
Ich dachte, dass Ich mir zumindest die Zeit für das Einstellen der Qimage Bilder sparen könnte, da Du und motionride ja scheinbar die Qimage Anwender seid, oder? :grumble:

https://www.dslr-forum.de/showthread.php?t=683169&page=19

https://www.dslr-forum.de/showpost.php?p=6789896&postcount=182


Uli
 
Zuletzt bearbeitet:
Da Vergleiche ja so schön anzuschauen sind, hier noch als Bonus die SD9 neben der SD14 jeweils mit Zeiss Planar in ungeschärfter Variante mit verschiedenen Konvertern.
Da ja das x3f-tool nur SD14 liest, habe ich mal das gute alte SPP2.0 auf die Platte gespielt.

Herzlichen Dank für die Mühe!!
Den Vergleich mit der SD9 find ich ausgesprochen interessant... könntest Du evtl. noch einen "ungeschminkten" Roh-Auszug (Silky-Pix oder x3f-tool) des SD9-Crops danebenstellen, damit man mal die nackte Wahrheit über den "Fortschritt" bei den Foveon-Sensoren von der SD9 zur SD14 anschauen kann?
 
Herzlichen Dank für die Mühe!!
Den Vergleich mit der SD9 find ich ausgesprochen interessant... könntest Du evtl. noch einen "ungeschminkten" Roh-Auszug (Silky-Pix oder x3f-tool) des SD9-Crops danebenstellen, damit man mal die nackte Wahrheit über den "Fortschritt" bei den Foveon-Sensoren von der SD9 zur SD14 anschauen kann?

Hallo,

der Karl hat es ja schon geschrieben, SIlkypix und x3f-tool geht nicht. Also deshalb nur "halbnackt" mit alten SPP-Versionen, aber auch da gibt es schon Unterschiede. Das lila Farbrauschen auf der Schattenseite und im Himmel ist in der 2.0er noch präsent, aber natürlich schon etwas unterdrückt.

Hat jemand noch eine ältere SPP Version als 2.0?

Hier noch mal die SD14 und SD9 Dateien aufgeblasen nebeneinander. Man kann schön sehen, daß die SD9 leider zu diesem unschönen Fringing neigt. Sind keine CAs, wie viele glauben.

Anhang anzeigen 1364013

Viele Grüße

Ingo
 
2 grüne, 1 blaues und 1 rotes Pixel ergeben 1 Pixel CFA-Farbinformation. Das ergibt bei günstigster Interpolation mit genauester Farbreferenztabelle im Vergleich zum Foveon ein Verhältnis von 2,5 : 1.

Teile ich nun die Anzahl der Sensor Pixel der EOS 5D Mark II durch diesen Faktor ergibt das 5616 Pixel / 2,5 = 2264 Pixel horizontal mal 3744 Pixel / 2,5 = 1498 Pixel vertikal.

D.h. der Sensor der EOS 5D Mk II liefert 2264 Pixel x 1498 Pixel = 3.391.472 Pixel annähernd direkte Farbinformationen.

Der Sensor der SD14 liefert dagegen 2640 Pixel x 1760 Pixel = 4.646.400 Pixel direkte Farbinformationen.

Preisfrage : "Bei welchem Sensor wird nun mehr geraten ?"

Oh nein -- die Förderschulen-Arithmetik hatten wir doch schon, und dieses Sigma-Werbe-Vuvuzela-Getröte ist immer noch so falsch dass noch nicht mal das Gegenteil richtig ist...
Du unterstellst hier -- wieder mal -- den Ingenieuren von Canon dass sie den dümmstmöglichen Algorithmus zum Demosaicing anwenden, der bei dem je 4 CFA-Pixel zu genau einem Pixel in der Ausgabe zusammengefasst werden (und der so doof ist dass er normalerweise nur erwähnt wird um zu zeigen wie man's nicht machen sollte). Ich hab langsam den Eindruck dass Du das mit System tust, und damit wird's zur Unverschämtheit... es ist (Gottseidank) nicht jeder so inkompetent wie Du was Demosaicing-Interpolation betrifft.

Wenn Du irgendwelche interpolierten Bild-Anteile gegeneinander aufrechnen willst musst Du das schon auf Ebene der Farb-Komponenten pro Pixel tun: In jedem digitalen Bild das auf RGB-Basis kodiert wird gibt es Pixelzahl x 3 Farbkomponenten, bei CFA-Bildern sind insgesamt 2 Drittel dieser Farb-Anteile interpoliert. Dabei geht aber jeder farbgefilterte CFA-Pixel in die Interpolation der entpsr. Farb-Komponenten (mindestens) aller seiner Nachbar-Pixel ein!!
Das heißt einfach mal die Auflösung eines CFA-Sensors um irgendeinen Faktor passend runterskalieren damit der überholte Foveon besser dasteht klappt nur bei monochromen Motiven in rot, blau oder grün. Aber selbst im »CFA-pathologischen« Fall rote Schrift auf blauem Grund hat die 5DII für jede Grund-Farbe mehr Pixel als der Foveon!

Selbst wenn man nun unterstellt dass die Foveon-Daten nicht interpoliert werden müssen -- was ja totaler Unfug ist wie man an den ohne Entrauschen (=Interpolieren!!) mit SilkyPix oder x3f-tool entwickelten Bildern von Ingo sehr gut sehen kann -- gibt es einen Vergrößerungs-Faktor ab dem das aufgeblasene Foveon-Bild mehr komplett interpolierte Farbwerte enthält als das CFA-Bild wenn der CFA-Sensor ein Mehrfaches der Pixel-Zahl des Foveon-Sensors aufweist.

Theoretisch - ja, aber eben diese "korrekt implemetierten" Interpolationsverfahren stehen in keinem anderen Programm zur Verfügung. Das schon gar nicht mehr, wenn der Drucker mit mehr als vier Farben arbeitet.

Unbewiesenes Werbe-Geplapper. Woher willst denn ausgerechnet Du wissen welche Interpolationsverfahren mit anderen Programmen zur Verfügung stehen?
Wenn Du hier -- wieder mal -- so vollmundige Marketing-Soße ablassen musst dann beweise das doch einfach mal mit entspr. Bildmaterial!
Schau Dir doch die Crops an die Uli mit QImage und XnView aufgeblasen und hier eingestellt hat -- wo ist denn da irgendein relevanter Unterschied erkennbar??
Nur weil die Implementierung von jemand gemacht wurde der vor 4 Jahren einen Test mit für Sigma-Kameras günstigem Ergebnis publiziert hat führt das noch lange nicht zu irgendwelchen magischen Ergebnissen... Lanczos bleibt Lanczos, und der in QImage ist kein bisschen besser als der in anderen Aufblas-Werkzeugen.

Dazu bin ich irgendwie zu dumm, denn ich habe den Trick noch nicht raus, wie ich das bedruckte Photopapier hier posten könnte.

Was willst Du damit sagen -- dass QImage es nicht zulässt die auf eine bestimmte Ziel-Auflösung aufgeblasenen Bilder auch als TIF abzuspeichern, anstatt sie zu einem Drucker zu schicken?
Oder dass Du der einzige QImage-Anwender bist der noch nicht rausgefunden hat wie man diese Abspeicherung auslöst??

Lol. Das Bild der EOS 5D MK II muss für einen Ausdruck von 60 x 40 cm nicht vergrößert werden ? Du hast da bestimmt irgendwo ein Komma falsch gesetzt.

Ja lachen statt rechnen, das ist so Deine Art.
Bei Ziel-Auflösung 250PPI muss ein Foto aus der 5DII noch mit 13% komplett interpolierten Pixeln »vergrößert« werden. D.h. wenn die CFA-Interpolation reingerechnet wird enthält der Print knapp über 70% interpolierte Farbwerte.
Wird eine Foveon-Kamera verwendet dann müssen um auf die Ziel-Auflösung zu kommen über 80% der im Print sichtbaren Farbwerte komplett geraten werden.

??? weshalb versuche ich etwas »wegzuskalieren«, wenn ich unter einheitlichen / gleichen Bedingungen vergleiche ?

Weil Du nur die Bedingungen vereinheitlichst die Du dazu verwenden kannst die 5DII auf die überholte Gesamt-Auflösung des Foveon runterzuamputieren.
Nochmal: Wer eine FF-DSLR kauft tut das im wesentlichen genau deswegen weil er damit die 2,9fache Sensorfläche und mindestens die 5fache Pixelzahl einer Sigma-Kamera bekommt, und deshalb weniger stark vergrößern muss um eine bestimmte Print-Größe ausgeben zu können.
Deswegen ist die richtige, fotografisch relevante Art die Test-Bedingungen zu vereinheitlichen das Endprodukt, also die Größe des zu erstellenden Prints für beide Kameras gleich festzulegen.
Und dann fallen die Sigmas hinten runter, weil sich bei denen Sensor-technisch seit 4 Jahren nichts tut.

Du wirst feststellen, dass ich nicht versuche irgend etwas zu "marginalisieren", sondern dass die Ergebnisse des kleinen Foveon X3 Sensors tatsächlich verdammt nah an die Qualität des 36 x 24mm 21MPixel Sensors der EOS 5D Mk II heran kommen und bei bestimmten Motiven (z.B. Makro) sogar ebenbürtig sein können.

»Verdammt nah« -- geht's noch verlogener?
Schau doch mal an was die DP1 mit ihrem nahezu perfekten Objektiv für einen Klötzchen-Salat abliefert wenn man ihre Ausgabe-Daten auf die Größe der 5DII vergrößert.
Und jetzt darf ich mal herzlich lachen: Denn selbst wenn man hier Dein fotografisch irrelevantes Pseudo-Vergleichs-Verfahren anwenden und die Daten aus der 5DII um den Crop-Faktor 1,7 mehr hochskalieren würde könnte man die Schrift auf den Schildern immer noch lesen, während die Daten aus der DP1 weiter nur Klötzchen-Salat bleiben ganz egal wie man sie behandelt: Denn die Fotos aus der Canon enthalten einfach mehr Informationen als die mit 4,7MP dagegen pimpfigen Foveon-Bilder!!

Dass Sigma-Kameras bei Makros besser wegkommen als bei Alltags-Motiven hängt doch nur damit zusammen dass Makros meist keine Details enthalten sind die der Betrachter so mit seinen visuellen Erfahrungen korrelieren kann wie bei Objekten aus der Alltagswelt, d.h. die Interpolations-Artefakte und die Schein-Auflösung die durch Überstrapzieren des Foveon-Bildmaterials entstehen fallen den meisten Leuten nicht so direkt auf.

Warum bezeichnest Du gleiche Voraussetzungen für einen Vergleich als "geschönte Pseudo-Vergleiche" ?

Seufz, weil gleiche Voraussetzungen nach Deiner »Definition« eben nur dazu dienen die Leistungsfähigkeit von Sigma-Produkten mit überholten Sensoren gegenüber der Konkurrenz hinzuschönen, s.o..
 
WERBUNG
Zurück
Oben Unten