Und was die Vorverurteilung eines noch nicht auf dem Markt befindlichen Produktes soll bleibt mir trotz Deiner Erklärungsversuche weiterhin verschlossen.
Wow -- geht's noch etwas aufgeblasener? »Vorverurteilung« weil ich hier einfach mal nüchtern skizziere was für eine SD15 mit teilweise schon jetzt veralteten Leistungsmerkmalen kommerziell zu erwarten ist??
Deine Meinung will Dir sicher keiner nehmen, aber höre auf sie als der Weisheit letzter Schluss darzustellen.
Oh, sorry -- ganz vergessen, das darfst ja hier nur Du indem Du das Marketing-Geseire von Sigma unreflektiert wieder und wieder in Umlauf bringst.
Vielen herzlichen Dank für diesen URL! Das ist viel besser als ich es je formulieren könnte!!
»Sometimes we don't realize just how limited all interpolation methods really are until we compare to an photo that never needed interpolation to begin with!«
»In fact, up to about a 2x enlargement (going from around say 210 PPI up to 300 PPI) there isn't a whole lot of difference between interpolation algorithms. You only start to see significant differences
above about a 2x enlargement and by that point, none of them are going to do a great job in all honesty just because there is so little information (from the original photo) to work with.«
Mal sehn... bei dem für die SD15 derzeit vorgesehenen Sensor wären wir bei 210PPI bei einer maximalen Ausgabe-Größe von sage&schreibe
32 x
21 cm!!
Diese können dann per QImage oder noch raffinierteren Rate-Methoden (Zitat Steve: »Educated guess«) auf 300DPI für Prints in guter Qualität aufgeblasen werden.
Mann, und ich Depp schwafel hier immer von guten Prints bis 30x45cm! Sollte echt mal zum Augenarzt, oder?
Sag mal, hast Du den Artikel eigentlich auch selbst gelesen??
Falls nicht hier das Executive Summary für Dich: 6000x4000 Pixel helfen sehr wenn man mal größer drucken will -- auch wenn es leider nur die minderwertigen Bayer-Pixel sind, muss man doch mit deutlich weniger Rate-Sauce aufgießen als mit nicht mal 5MP.
... "in real-time" - was interessiert da die Taktfrequenz ?
...
Die "multi-axis color transformation technology" wird benötigt um die 3 dimensionale Datenstruktur des Foveon X3 Sensors in "real-time" in ein 2 dimensionales Bild transformieren zu können.
Oh nein,
bitte nun nicht auch noch Marketing-Legenden von Fujitsu!!
»Echtzeit« kann ja vielleicht noch relevant sein wenn man Daten für die Video-Kodierung aufbereiten will... aber was zum Teufel soll denn das sein bei der Digitalisierung von Standbildern sein??
Und was bitteschön ist an den Daten die aus einem Foveon-Sensor ausgelesen werden dreidimensionaler als die RGB-Pixel-Tabelle die wir als Foto bezeichnen?
Macht das Ding seit TRUE intern Holographien oder was kommt jetzt wieder für eine Techno-Mystifizierung??
Aber wir müssen ja nur lang und geduldig genug warten, Sigma und Fujitsu arbeiten garantiert schon an den Nachfolge-Generationen -- »HOLY« und »GRAIL«, optimiert für die Erstellung von Votiv-Tafelbildern in formatfüllend A7, mit Weihrauch-Aroma direkt aus der Kamera.
Alle offenen Fragen zu Bildqualität, Farbtreue und Verarbeitungsgeschwindigkeit werden wohl erst mit der SD15 beantwortet. So lange wird man sich schon noch gedulden müssen.
Nö.
Die Vergrößerungsfähigkeit steht mit der Sensor-seitigen Auflösung schon definitiv fest, d.h. wir können uns hier sehr gut darüber austauschen wie die SD15 dann abschneiden wird wenn z.B. eine A850 (oder 5D II, oder das dann entsprechende Semi-Pro-Modell von Nikon) für etwas über 1500€ zu kaufen ist.
In diesem Punkt liegst Du tatsächlich falsch, jedenfalls wenn es um den Foveon geht.
Der würde schlicht nicht funktionieren, wenn das Absorbtionsvolumen
aka die Schichten-Dicke irgendeine eine Rolle spielen würde.
(Deren Lage ist dagegen wichtig!)
Du meinst drei infinitesimal dünne Schichten von Photo-Dioden an genau der richtigen Stelle im Silizium-Substrat?
Das täte es vermutlich falls man nur mit klassischer Physik argumentiert.
Aber es würde mich doch sehr wundern wenn die Eindring-Tiefe in's Silizium bei der ein Photon absorbiert wird nicht als Wahrscheinlichkeit in Abhängigkeit von der Wellenlänge gegeben wäre. Sind ja nach Max immer noch Quanten, oder?
Die Photonen dürften mit einem Gauss-, Poisson-, oder ähnlich charakterisierten Maximum der Absorbtions-Wahrscheinlichkeit bei der »richtigen« Schicht-Tiefe in Strom umgesetzt werden, aber bei einem erheblichen Teil der einfallenden Photonen ist damit zu rechnen dass sie an einer »falschen« Tiefe des Sensors absorbiert werden.
Ich denke dass die Erkennung und Filterung dieser quantenphysikalisch bedingten »Fehlsignale« einerseits den abartig lang dauernden Rechenaufwand bei der Digitalisierung von Foveon-Bildern verursacht, und dass andererseits diese Analyse bei wenig Licht so degeneriert dass das bekannt grauenhafte High-ISO-Grieseln entsteht..
Zwar weiß tatsächlich keiner von uns hier wirklich, wie der Foveon nun genau arbeitet,
... aber zumindest
das ist sicher.
Und wer sind wir denn auch dass wir meinen wissen zu müssen wie das Ding wirklich funktioniert mit dem wir fotografieren

.
das die korrekte dicke der lichtempfindlichen schicht auswirkungen auf den signal-rauschabstand haben soll ist mir neu.auf jeden fall wird es kein relevantes parameter für die beeinflussung von rauschen sein.
da man davon ausgehen kann,dass die sensoren sowohl bei bayer,als auch bei foveon die photonen der entsprechenden wellenlänge absorbieren können,ist das volumen bei einem vergleich der fläche eindeutig unterzuordnen.
Naja eine Diode die hinter einem Farbfilter sitzt bekommt (im Wesentlichen!) nur Photonen einer bestimmten Wellenlänge ab und wertet diese dann alle aus, egal in welcher Tiefe sie absorbiert werden. D.h. die »Ungenauigkeit« die durch in »falschen« Schichten absorbierte Energie entsteht soltle hier ausgehebelt sein (solang die Filterung präzise genug ist, versteht sich).
Aber genug geofftopict, die Moderation grollt ja schon

...