• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

SD14

  • Themenersteller Themenersteller finepixler
  • Erstellt am Erstellt am
AW: Sd14

Wenn die SD14 nun 4,7 MP hat, lässt das aufgrund der immer wieder für die SD10 genannten Erfahrungswerte eine Auflösung ähnlich ca. 9 - 11 MP am Bayersensor erwarten.
Die bisherige Debatte krankt in meinen Augen etwas an der Orientierung
an der reinen Lehre der zu Grunde liegenden Konzepte:

Weder das Bayer-, und noch viel weniger das Foveon-Prinzip werden 100%tig
in die Praxis umgesetzt.

Es gibt bei beiden Systemen technische Umsetzungs-Verluste,
die das Ergebniss beeinflussen.

Das ist eine Auflösung, die gerade dabei ist, handelsüblich zu werden, und es gibt auch bereits höherauflösende Kameras. Dass die SD14 die D2X, 5D oder 1DsII schlagen wird, ist eher unwahrscheinlich.

Das Problem ist, dass die Ergebnisse gar nicht wirklich kompatibel zu einander sind:

Der Bayer ermittelt mehr Ortsinfos (=Pixel!:D ), die aber nur jeweils 1/3 der Chromainfo enthalten.
Die Qualität der Luminanzinfo hängt stark vom Weißanteil des gemessenen Lichtes ab,
weshalb ja die AA-Filter unverzichtbar sind, auch wenn sie andererseits
wieder die Schärfe beeinträchtigen.

Seine errechneten Ergebnisse können auch theoretisch nie zu 100%
dem aufgenommenen Motiv entsprechen, sind aber eine gute Näherung (50%? :evil: ).

Das Prinzip hat mit seiner Luminanzlastigkeit ein bischen was vom Nachcolorieren von S/W-Bildern.

Die Farben werden nie ganz stimmen, und die Schärfe,
oder die "Detailerfassung" ;) liegt wegen der Notwendigkeit
jeweils 4-Pixel-Gruppen in überlappenden Matrizen auszuwerten,
sowie der von AA-Filtern, deutlich unterm Foveon-Niveau.

Der aktuelle Foveon ermittelt dagegen zwar weniger Ortsinformationen (=Pixel!:p ),
diese sind aber 100%ige Messungen.
Die Farben stimmen genauer und die Pixel sind individuell,
also scharf von einander abgegrenzt.

Die hier ja gerne erhobene Forderung, Vergleichbarkeit herzustellen,
in dem man Foveon-Pixel aufbläst, ist deshalb unfair,
weil der Vorteil eines nicht erforderlichen Demosaicing verloren geht.

Umgekehrt ist das Herunterrechnen von Bayer-Bildern ebenfalls unfair,
da dabei die zusätzlichen Luminanz-Infos verloren gingen,
auch wenn diese Info nur bei reinweißem Licht 100%ig wäre.

Wie nun das genaue Verhältnis der Pixelwertigkeit aussieht...

Das hängt viel mehr, als wir alle wahrhaben wollen von den Mängeln
der jeweiligen technischen Umsetzung ab:

Der elegantere Ansatz, und der mit dem größeren Potential,
ist sicher der Foveon.:evil:
Nur sein Prinzip kann, irgendwann mal, 100%-Bilder liefern.;)

Aber der Bayer ist schon viel weiter entwickelt, und hat seine Kinderkrankheiten,
schon eine Weile hinter sich gelassen.

High-ISO, Bulb, Rauschen...

Man darf gespannt sein, welche Fortschritte Foveon in den letzten 2-3 Jahren gemacht hat.
Warten wir es mal ab.:cool:


Schönen Gruß
Pitt
 
AW: Sd14

Die habe ich mir sehr wohl gemacht und eine mehrere Pixel breite Linie aus lauter roten, blauen, grauen und gelben Pixeln, die durch Antialiasing und Demosaicing-Prozesse generiert wird hat mit einer von einem Foveon X3 Sensor aufgezeichneten einfarbigen 1 Pixel breiten Linie, die dem Original weit mehr entspricht, nicht mehr viel gemein. Irgendwann kann man sich dann eben einen gewissen Zynismus nicht mehr verkneifen.

Du hast es nicht verstanden. Der Tiefpaß-Filter verhindert effektiv die Aliasing-Effekte, die Du beschreibst, und lediglich Kameras mit keinem oder schwachem Tiefpaß-Filter neigen unter bestimmten Umständen zu derartigen Effekten.

Rechnen wir die Sache mit der einen Pixel breiten Linie mal durch.

Ein Pixel hat bei der SD10 die Größe 9,1 µm x 9,1 µm und bei der 20D 6,4 µm x 6,4 µm. Eine Seite des Sensors ist bei der 20D um den Faktor 1,09 größer als bei der SD10 (22.5 x 15.0 mm bzw. 20.7 x 13.8 mm).

Daraus folgt, daß eine Linie, die in der Abbildung auf dem Sensor der SD10 genau die Breite eines Pixels, also 9,1 µm, hat, bei der 20D auf dem Sensor mit der Breite von 10 µm abgebildet wird.

Nehmen wir zur Vereinfachung an, daß diese Linie genau vertikal verläuft.

Abhängig davon, wie diese Linie ausgerichtet ist, überdeckt sie bei der 20D pro Pixelzeile genau zwei oder drei nebeneinander liegende einfarbige Pixel.

Nehmen wir zu weiteren Vereinfachung an, daß ein trivialer Demosaic-Algorithmus für jedes resultierende Pixel in der Aufnahme vier einfarbige Pixel auf dem Sensor betrachtet, also zwei grüne, einen roten und einen blauen Pixel. Diese werden überlappend betrachtet, d. h. für zwei im resultierende benachbarte Pixel wird diese Gruppe von vier Pixeln um genau einen Pixel auf den Sensor verschoben. Zu dieser Annahme gehört, daß der Tiefpaß-Filter passend für diese Vier-Pixel-Gruppen ausgelegt ist.

Fall 1: Die Linie überdeckt zwei nebeneinander liegende Pixel bei der 20D. Tiefpaß-Filter und o. g. Demosaic-Algorithmus sorgen dafür, daß diese Pixel in insgesamt drei nebeneinander liegende Pixel im resultierenden Bild eingehen, wobei der mittlere Pixel die Farbe der Linie am genauesten wiedergibt.

Fall 2: Die Linie überdeckt drei nebeneinander liegende Pixel bei der 20D. Tiefpaß-Filter und o. g. Demosaic-Algorithmus sorgen dafür, daß diese Pixel in insgesamt vier nebeneinander liegende Pixel im resultierenden Bild eingehen, wobei die zwei mittleren Pixel die Farbe der Linie am genauesten wiedergeben.

Jetzt kommen wir zum interessanten Teil. Die Wahrscheinlichkeit, daß eine vertikale Linie, die bei der SD10 mit der Breite eines Pixels auf dem Sensor abgebildet wird, so ausgerichtet ist, daß sie tatsächlich nur eine Reihe von Pixeln überdeckt, ist sehr gering. Im Normalfall ist sie auf zwei Reihen von Pixeln verteilt. Also wird die Information dieser Linie mit Information über die gesamte Breite von 2 * 9,1 µm = 18,2 µm vermischt, und diese Breite entspricht wiederum bei der 20D aufgrund des größeren Sensors 19,8 µm. In diese Breite passen immerhin volle drei Pixel auf dem Sensor der 20D, so daß diese Kamera in den beiden zuvor genannten Fällen die Position der Linie zumindest gleich gut im resultierenden Bild wiedergeben wird. Für jede der beiden Sensor-Typen kann man Situationen konstruieren, in denen der eine oder andere im Vorteil ist (bei der SD10 zum Beispiel der Fall, daß die Linie nur eine Reihe von Pixeln bedeckt).

Für horizontale Linien ist diese Argumentation direkt übertragbar. Auf Linien, die weder horizontal noch vertikal verlaufen, ist die Argumentation sinngemäß übertragbar. Der sehr einfache hier beschriebene Demosaic-Algorithmus liefert in der Praxis viel schlechtere Ergebnisse als tatsächlich verwendete Algorithmen.

Die von mir hier theoretisch beschriebenen Effekte kann man sehr schön sehen, wenn man Testmuster in der Nähe der Auflösungsgrenze mit den verschiedenen Kameras fotografiert. Testmuster sind zwar für die praktische Fotografie uninteressant, sind aber ein Indikator für das in der Praxis zu erwartende Verhalten.

So ein Quatsch. Ich habe darauf hingewiesen, daß die Erkenntnisse die man seitens Foveon aus der Zusammenarbeit mit Hasselblad bei dem Projekt DFinity gewonnen hat in die Entwicklung des Foveon X3 Sensors eingeflossen sind und Hasselblad nicht als Referenz für irgend etwas aufgeführt.

Bei der DFinity wird einfallendes Licht durch ein Prisma auf drei verschiedene Sensoren verteilt, und dieser Ansatz hat nichts mit dem Foveon X3 gemeinsam, außer daß ebenfalls kein Bayer-Pattern zum Einsatz kommt. Da dieser Ansatz so unterschiedlich vom Foveon X3 ist, erschließt sich daraus kein Argument, es sei denn, Du wolltest den guten Ruf von Hasselblad als Referenz verwenden, was aber für Dich nach hinten losgeht, weil es die Zusammenarbeit mit Foveon nicht mehr gibt.
 
Zuletzt bearbeitet:
AW: Sd14

Bei der DFinity wird einfallendes Licht durch ein Prisma auf drei verschiedene Sensoren verteilt, und dieser Ansatz hat nichts mit dem Foveon X3 gemeinsam, außer daß ebenfalls kein Bayer-Pattern zum Einsatz kommt. Da dieser Ansatz so unterschiedlich vom Foveon X3 ist,...

Wo liegt denn der große Unterschied?

Gruß Uli
 
AW: Sd14

Wo liegt denn der große Unterschied?

DFinity: Drei Sensoren, die für jeweils *eine* Farbe empfindlich sind. Ein Prisma verteilt Licht auf diese Sensoren.

X3: Sensor, der in jeweils einem Pixel für drei Farben empfindlich ist. Aus Sicht des Sensor-Designs ist dies viel komplexer als der Ansatz bei der DFinity, insofern macht ein Vergleich keinen Sinn. Die einzige Gemeinsamkeit ist, daß kein Bayer-Pattern zum Einsatz kommt.
 
AW: Sd14

DFinity: Drei Sensoren, die für jeweils *eine* Farbe empfindlich sind. Ein Prisma verteilt Licht auf diese Sensoren.

X3: Sensor, der in jeweils einem Pixel für drei Farben empfindlich ist. Aus Sicht des Sensor-Designs ist dies viel komplexer als der Ansatz bei der DFinity, insofern macht ein Vergleich keinen Sinn. Die einzige Gemeinsamkeit ist, daß kein Bayer-Pattern zum Einsatz kommt.

Beim X3 treffen nur auf die erste Sensorschicht "drei Farben". Die Farbtrennung erfolgt physikalisch und durch Software, allerdings ohne die bekannten Informationsverluste der Mosaiksensoren.

Ein Vergleich macht sehr wohl Sinn, die Unterschiede zum Mosaiksensor sind geradezu nebensächlich.

Gruß Uli
 
AW: Sd14

Beim X3 treffen nur auf die erste Sensorschicht "drei Farben". Die Farbtrennung erfolgt physikalisch und durch Software, allerdings ohne die bekannten Informationsverluste der Mosaiksensoren.

Der Aufbau eines dreischichtigen Sensors ist viel komplexer als einfarbige Sensoren mit Trennung des Lichts vor dem Sensor. Vielleicht beschäftigst Du Dich gelegentlich mal mit Hardware-Design.

Wir sprechen also hier von drei völlig unterschiedlichen Ansätzen, DFinity, X3 und Bayer-Sensor, die *alle* nicht vergleichbar sind. Deshalb macht die Referenz auf die DFinity in dieser Diskussion keinen Sinn.

Ich denke nicht, daß dies ein wesentlicher Aspekt der Diskussion ist, die wie in diesem Thread geführt haben, und wir sollten damit nicht zu viel Zeit verschwenden.
 
AW: Sd14

Der Aufbau eines dreischichtigen Sensors ist viel komplexer als einfarbige Sensoren mit Trennung des Lichts vor dem Sensor. Vielleicht beschäftigst Du Dich gelegentlich mal mit Hardware-Design.

Wir sprechen also hier von drei völlig unterschiedlichen Ansätzen, DFinity, X3 und Bayer-Sensor, die *alle* nicht vergleichbar sind. Deshalb macht die Referenz auf die DFinity in dieser Diskussion keinen Sinn.

Ich weiß schon wie ein X3 Sensor funktioniert und betone nochmals, dass die Unterschiede zwischen X3 und DFinity im Vergleich zum Mosaik Sensor vernachlässigbar sind.

Nebebei: "Vielleicht beschäftigst Du Dich gelegentlich mal mit Hardware-Design.". Können wir uns weiter auf der Erwachsenenebene unterhalten?


Gruß Uli
 
AW: Sd14

Nebebei: "Vielleicht beschäftigst Du Dich gelegentlich mal mit Hardware-Design.". Können wir uns weiter auf der Erwachsenenebene unterhalten?

Sehr gerne. Du könntest mir zum Beispiel auf Erwachsenenebene erläutern, warum Du die die Komplexität des Hardware-Designs beim X3 komplett vernachläßigst, denn genau dort liegt die Herausforderung beim X3 und der wesentliche Unterschied zur DFinity und genau darauf habe ich wiederholt hingewiesen. Der Schritt von den einfarbigen Sensoren bei der DFinity zu dem X3 ist riesengroß, und zwar so groß, daß der Vergleich keinen Sinn macht.

Aber, wie gesagt, ich halte dies nicht für besonders relevant, denn für die eigentliche Diskussion in diesem Thread ist es völlig irrelevant, ob Foveon mal mit Hasselblad zusammengearbeitet hat und welche Vorteile daraus für Foveon entstanden sind.
 
Zuletzt bearbeitet:
AW: Sd14

Sehr gerne. Du könntest mir zum Beispiel auf Erwachsenenebene erläutern, warum Du die die Komplexität des Hardware-Designs beim X3 komplett vernachläßigst, denn genau dort liegt die Herausforderung beim X3 und der wesentliche Unterschied zur DFinity und genau darauf habe ich wiederholt hingewiesen. Der Schritt von den einfarbigen Sensoren bei der DFinity zu dem X3 ist riesengroß, und zwar so groß, daß der Vergleich keinen Sinn macht.

Was ist denn daran so komplex? Auf die erste Schicht treffen drei Farben, auf die zweite zwei und auf die dritte eben eine. Mit einen recht einfachen Algorithmus kann man die Farben definieren. Das wars.

Sicher gibt es dabei jede Menge Probleme zu bewältigen, die über das Prinzip hinausgehen. Das trifft aber für die anderen Sensoren auch zu.

Es muß doch irgendwie nachvollziehbar sein, dass die Unterschiede zwischen X3 und DFinity im Vergleich zum Mosaiksensor minimal sind.

Gruß Uli
 
AW: Sd14

Was ist denn daran so komplex? Auf die erste Schicht treffen drei Farben, auf die zweite zwei und auf die dritte eben eine. Mit einen recht einfachen Algorithmus kann man die Farben definieren. Das wars.

Je aufwendiger die Strukturen in hochintegrierten Bauelementen sind, desto schwieriger sind diese zu konstruieren. Ein Sensor mit drei lichtempfindlichen Schichten ist in der Konstruktion wesentlich komplexer als ein einfarbiger Sensor mit nur einer lichtempfindlichen Schicht. Nicht nur elektronischer, aber auch optische Aspekte spielen dabei eine Rolle, denn auch in der dritten Schicht muß noch ausreichend viel Licht ankommen, obwohl ein Teil des einfallenden Lichts bereits in den ersten Schichten ausgefiltert wird.

Konzeptuell ist der Foveon-Sensor nicht komplex, sogar einfacher als der Bayer-Sensor, aber in der praktischen Umsetzung stellt er hohe Anforderungen an das Hardware-Design, und unterscheidet sich damit wesentlich von den drei getrennten einfarbigen Sensoren, die bei der DFinity eingesetzt werden.

Sicher gibt es dabei jede Menge Probleme zu bewältigen, die über das Prinzip hinausgehen. Das trifft aber für die anderen Sensoren auch zu.

Je einfacher die Konstruktion eines Sensors ist, desto einfacher lassen sich die Probleme bewältigen, die über das Konzept hinausgehen. Wir reden ja hier nicht von reinen Konzepten, sondern von Produkten, die man kaufen kann, und dazu muß man auch die praktischen Probleme lösen.

Es muß doch irgendwie nachvollziehbar sein, dass die Unterschiede zwischen X3 und DFinity im Vergleich zum Mosaiksensor minimal sind.

Aus der Sicht des Hardware-Designs sind sie nicht minimal.

Und noch einmal: Das Thema Foveon/Hasselblad ist in keiner Weise relevant für das eigentliche Thema der Diskussion.
 
Aw: Sd14

Es gibt auch jede Menge Probleme zu lösen, wenn die Farbaufteilung per Prisma geschieht. Es macht schließlich keinen Sinn nur die Sensoren dabei zu betrachten. Das Prisma verursacht auch jede Menge Probleme. Schon die Justage der 3 Chips ist außerst schwierig und gelingt meist nicht wirklich pixeldeckend über die gesamte Fläsche. Weiterhin gibt es thermodynamische Pixelverschiebungen durch die räumliche Trennung der Sensoren. Außerdem ist das Prisma ein massiver Störfaktor zwischen Sensor und Objektiv, sodass gute Ergebnisse nur mit Spezialobjektiven möglich ist. Insofern ist der X3 eine elegante Lösung einen RGB Sensor in einer Spiegelreflexkamera zu verwirklichen.

Ich verstehe allerdings auch die Intention nicht. X3 und DFinity haben nun mal das gleiche Prinzip, es sind echte RGB Sensoren und unterscheiden sich grundlegend vom Mosaiksensor. Was soll der Versuch die Unterschiede zwischen X3 und DFinity auf die Unterschiede zum Mosaiksensor zu maximieren?

Gruß Uli
 
AW: Sd14

Es gibt auch jede Menge Probleme zu lösen, wenn die Farbaufteilung per Prisma geschieht. Es macht schließlich keinen Sinn nur die Sensoren dabei zu betrachten. Das Prisma verursacht auch jede Menge Probleme. Schon die Justage der 3 Chips ist außerst schwierig und gelingt meist nicht wirklich pixeldeckend über die gesamte Fläsche. Weiterhin gibt es thermodynamische Pixelverschiebungen durch die räumliche Trennung der Sensoren. Außerdem ist das Prisma ein massiver Störfaktor zwischen Sensor und Objektiv, sodass gute Ergebnisse nur mit Spezialobjektiven möglich ist. Insofern ist der X3 eine elegante Lösung einen RGB Sensor in einer Spiegelreflexkamera zu verwirklichen.

Ich glaube nicht, daß ich irgendwo behauptet habe, daß die DFinity eine einfache Konstruktion sei.

Ich verstehe allerdings auch die Intention nicht. X3 und DFinity haben nun mal das gleiche Prinzip, es sind echte RGB Sensoren und unterscheiden sich grundlegend vom Mosaiksensor. Was soll der Versuch die Unterschiede zwischen X3 und DFinity auf die Unterschiede zum Mosaiksensor zu maximieren?

Lies bitte genauer, was ich schreibe: Meine Aussage war, daß alle drei Ansätze (Bayer, DFinity, X3) so unterschiedlich sind, daß es keine direkte Vergleichbarkeit untereinander gibt.

Habe ich eigentlich schon erwähnt, daß diese Aspekte für die eigentliche Diskussion Foveon/Bayer irrelevant sind und mich wenig interessieren?
 
AW: Sd14

J...
Und noch einmal: Das Thema Foveon/Hasselblad ist in keiner Weise relevant für das eigentliche Thema der Diskussion.

Ich bestimme einfach mal selbst, was ich für relevant halte und was nicht. Solange Sie versuchen X3 und DFinity auseinander zu definieren, halte ich das für äußerst relevant. Es ist nämlich tendenziös dem X3 Prinzip Probleme aufreden zu wollen und dabei das Prisma Prinzip als leicht beherrschbar zu beschreiben.

Gruß Uli
 
AW: Sd14

"Ich glaube nicht, daß ich irgendwo behauptet habe, daß die DFinity eine einfache Konstruktion sei."



Sehr gerne. Du könntest mir zum Beispiel auf Erwachsenenebene erläutern, warum Du die die Komplexität des Hardware-Designs beim X3 komplett vernachläßigst, denn genau dort liegt die Herausforderung beim X3 und der wesentliche Unterschied zur DFinity und genau darauf habe ich wiederholt hingewiesen. Der Schritt von den einfarbigen Sensoren bei der DFinity zu dem X3 ist riesengroß, und zwar so groß, daß der Vergleich keinen Sinn macht.

Wie soll ich das dann interpretieren?


Gruß Uli
 
AW: Sd14

Ich bestimme einfach mal selbst, was ich für relevant halte und was nicht. Solange Sie versuchen X3 und DFinity auseinander zu definieren, halte ich das für äußerst relevant.

Die Mehrzahl der Beiträge in diesem Thread ging um das Thema Vergleich Foveon/Bayer, das mich persönlich interessiert hat. Für mich persönlich ist das Thema DFinity in diesem Kontext völlig uninteressant. Daß wir beide die Relevanz eines Themas unterschiedlich einordnen, ist nur natürlich. Oder?

Es ist nämlich tendenziös dem X3 Prinzip Probleme aufreden zu wollen und dabei das Prisma Prinzip als leicht beherrschbar zu beschreiben.

Du zitierst dazu folgenden Absatz

hmuenx schrieb:
Sehr gerne. Du könntest mir zum Beispiel auf Erwachsenenebene erläutern, warum Du die die Komplexität des Hardware-Designs beim X3 komplett vernachläßigst, denn genau dort liegt die Herausforderung beim X3 und der wesentliche Unterschied zur DFinity und genau darauf habe ich wiederholt hingewiesen. Der Schritt von den einfarbigen Sensoren bei der DFinity zu dem X3 ist riesengroß, und zwar so groß, daß der Vergleich keinen Sinn macht.

und fragst

Wie soll ich das dann interpretieren?

Du sollst nicht interpretieren, sondern lesen. Ich habe geschrieben, daß das Hardware-Design beim X3 wesentlich aufwendiger ist als bei den drei einfarbigen Sensoren, und diese Aussage habe ich in Beitrag #270 noch einmal präzisiert:

hmuenx schrieb:
Je aufwendiger die Strukturen in hochintegrierten Bauelementen sind, desto schwieriger sind diese zu konstruieren. Ein Sensor mit drei lichtempfindlichen Schichten ist in der Konstruktion wesentlich komplexer als ein einfarbiger Sensor mit nur einer lichtempfindlichen Schicht. Nicht nur elektronischer, aber auch optische Aspekte spielen dabei eine Rolle, denn auch in der dritten Schicht muß noch ausreichend viel Licht ankommen, obwohl ein Teil des einfallenden Lichts bereits in den ersten Schichten ausgefiltert wird.

An keiner Stelle steht dort, daß das die DFinity eine einfache Konstruktion sei, sondern lediglich, daß die X3 ganz andere Herausforderung stellt, und genau deshalb bin ich der Meinung, daß die Referenz der DFinity wie von RedFox angeführt im diesem Kontext nicht sinnvoll ist.

Du hast gesagt, wir sollten auf Erwachsenenebene diskutieren: Dazu gehört auch, daß man bei den Aussagen der Diskussionspartner bleibt und vermeidet durch subjekte Interpretation irgendwelche gar nicht erfolgten Aussagen konstruiert und dann dagegen argumentiert.
 
AW: Sd14

An keiner Stelle steht dort, daß das die DFinity eine einfache Konstruktion sei, sondern lediglich, daß die X3 ganz andere Herausforderung stellt, und genau deshalb bin ich der Meinung, daß die Referenz der DFinity wie von RedFox angeführt im diesem Kontext nicht sinnvoll ist.

"...Ein Sensor mit drei lichtempfindlichen Schichten ist in der Konstruktion wesentlich komplexer als ein einfarbiger Sensor mit nur einer lichtempfindlichen Schicht..."

Es ist irrelevant, was man meint, wenn man es so ausdrückt, dass es nicht zu verstehen ist ;-)

Wir können uns also darauf einigen, dass X3 und DFinity komplexe Verwirklichungen des RGB Prinzipes sind und sich der Mosaik Sensor grundlegend davon unterscheidet?

Desweiteren darauf, dass das Prisma Prinzip keine Vorteile gegenüber dem X3 Prinzip hat, die einen Einsatz in einer DSLR als sinnvoller erscheinen lassen?

Gruß Uli
 
AW: Sd14

Wir können uns also darauf einigen, dass X3 und DFinity komplexe Verwirklichungen des RGB Prinzipes sind und sich der Mosaik Sensor grundlegend davon unterscheidet?

Desweiteren darauf, dass das Prisma Prinzip keine Vorteile gegenüber dem X3 Prinzip hat, die einen Einsatz in einer DSLR als sinnvoller erscheinen lassen?

Könntest Du bitte endlich mal mit dieser völlig themenfremden Diskussion aufhören? Das hat mit dem Foveonsensor an sich gar nix zu tun, und erst recht nicht mit der SD14.
 
AW: Sd14

Es ist irrelevant, was man meint, wenn man es so ausdrückt, dass es nicht zu verstehen ist ;-)

Wenn ich mich aus Deiner Sicht ungenau ausdrücke, dann frag' doch bitte einfach nach und vermeide Interpretationen.

Wir können uns also darauf einigen, dass X3 und DFinity komplexe Verwirklichungen des RGB Prinzipes sind und sich der Mosaik Sensor grundlegend davon unterscheidet?

Natürlich, aber mit der Anmerkung, daß X3 und DFinity sehr unterschiedliche Realisierungen des RGB-Prinzipes sind, und zwar so unterschiedlich, daß ich aus den genannten Gründen keine Vergleichbarkeit im Kontext *dieses* Threads sehe (wohl aber, wie gesagt, eine Vergleichbarkeit des verwendeten Grundkonzeptes).

Desweiteren darauf, dass das Prisma Prinzip keine Vorteile gegenüber dem X3 Prinzip hat, die einen Einsatz in einer DSLR als sinnvoller erscheinen lassen?

Der Vorteil des Prisma-Lösung ist, daß relativ einfache Sensoren zum Einsatz kommen können. Diesem Vorteil steht eine ganze Reihe von Nachteilen gegenüber, die Du ja bereits genannt hast. Ich denke, der einzige Grund, warum man sich auf diese Nachteile eingelassen hat, war, daß es mit dem damaligen Stand der Technik nicht möglich war, einen für drei Farben empfindlichen Sensor mit ausreichend hoher Anzahl von Pixeln zu bauen.
 
AW: Sd14

Seine errechneten Ergebnisse können auch theoretisch nie zu 100%
dem aufgenommenen Motiv entsprechen, sind aber eine gute Näherung (50%? :evil: ).

Was sind denn 100%? Die Gesamtpixelanzahl des Bayersensors? Die werden tatsächlich nicht erreicht. Wenn Du rein rechnerisch Viererblöcke bildest, werden diese aber zu 100% erreicht, eigentlich deutlich drüber. Daher landet man beim Umrechnungsverhältnis Bayer zu Foveon für die Praxis ja auch bei so krummen und unscharf definierten Werten.

Das Prinzip hat mit seiner Luminanzlastigkeit ein bischen was vom Nachcolorieren von S/W-Bildern.

Da ist durchaus was dran. Wenn das Ergebnis ein gut coloriertes Bild mit der hohen Auflösung des Bayer-Sensors ist, ist dagegen überhaupt nix einzuwenden.

Die Farben werden nie ganz stimmen, und die Schärfe,
oder die "Detailerfassung" ;) liegt wegen der Notwendigkeit
jeweils 4-Pixel-Gruppen in überlappenden Matrizen auszuwerten,
sowie der von AA-Filtern, deutlich unterm Foveon-Niveau.

Wohlgemerkt: Bei gleicher Pixelanzahl. Kameras mit 3,4 MP sind aber nicht mehr im Handel, und wenn man vom Spezialfall D2Hs absieht, liegen alle Bayer-Sensoren weit drüber.

Die hier ja gerne erhobene Forderung, Vergleichbarkeit herzustellen,
in dem man Foveon-Pixel aufbläst, ist deshalb unfair,
weil der Vorteil eines nicht erforderlichen Demosaicing verloren geht.

Umgekehrt ist das Herunterrechnen von Bayer-Bildern ebenfalls unfair,
da dabei die zusätzlichen Luminanz-Infos verloren gingen,
auch wenn diese Info nur bei reinweißem Licht 100%ig wäre.

Das Hochrechnen des Foveon ist legitim, weil das zumindest für den Druck sowieso erforderlich ist. Da muss ein Foveon-Bild nun mal aufgrund seiner begrenzten Pixelanzahl stärker hochgerechnet werden. Man kann aber darüber streiten, ob das Hochrechnen auf genau die Pixelanzahl eines zu vergleichenden Bayersensors fair ist, oder ob man besser beide auf ein einheitliches Niveau hochrechnen sollte.
 
WERBUNG
Zurück
Oben Unten