• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Vergrößerungs-Potential Foveon-Fotos vs. Bayer-Fotos

Ich verstehe dieses Geraufe um Pixel, Mathematik, Rechthaben und dergleichen wirklich ÜBERHAUPT nicht.

Also ich wiederum kapier nicht worüber Du Dich an dieser Stelle beschwerst...
Wenn Dich an Fotografie ausschließlich die rein kreative Seite interessiert -- warum liest Du dann überhaupt dieses Forum??
Ist doch wirklich simpel: Für die Diskussion künstlerischer Aspekte gibt's fc -- und für die technisch orientierten Themen die (technischen Foren von) DSLR.

Ein Bild ist es, worauf es ankommt, nicht die Kamera

Ja genau -- aber ohne Kamera komm ich zu keinem Bild, ich bin (leider) kein Maler. Aber mit welcher? Analog hab ich diese Frage für mich beantwortet, digital leider nicht.
Denn für mich geht »Bild« mit einen Print überhaupt erst los (Fotos im Web empfinde ich interessant als Motiv-Anregung, aber irrelevant als fotografisches Produkt), und zwar ab A3+ oder größer... völlig unabhängig vom Inhalt.
Das was für Dich sinnloses Geraufe ist ist für mich eine der Grundlage des Entstehungsprozesses von Bildern.
Und ich muss nicht losziehen und fc damit, na sagen wir mal, »befrachten« was ich von den Diskussionen dort halte oder daran nicht versteh 8)...
 
Ganz einfach gesprochen hat jedes einzelne Photon eine bestimmte Wellenlänge, wir haben also (fast) beliebig viele Werte. Wenn wir das auf 3 Koeffizienten reduzieren, ist das eine (gewichtete) Summe. Eine Summe ist immer ein Informationsverlust: 5+(-2) ist genauso 3 wie 2+1.

Sorry aber das versteh ich nicht -- wo soll hier Information verloren gehen?

Hm, wie war das noch:
Soweit ich mich erinnern kann gilt doch für die (menschliche!) Seh-Physiologie das 3. Graßmannsche Gesetz, d.h. es können beliebige Farb-Eindrücke (= Wellenlängen) durch geeignete Mischung aus 3 Grundkomponenten additiv hervorgerufen werden.
Auch mathematisch versteh ich nicht wie Du das meinst... die Koeffizienten sind doch als Koordinaten bez. der Basis eines Vektorraums zu interpretieren, und die durch ihre Mischung beschriebene Wellenlänge also ein Vektor. Wieso sollten die Koeffizienten addiert werden?

Die Probleme mit den digitalen Sensoren gehen m.W. dann los wenn man die Relation der von Photonen verschiedener Wellenlänge ausgelösten Signal-Antworten eines Sensors so in einen Farbraum abbilden möchte dass ihre Farbabstände möglichst gut denen des menschlichen Sehens entsprechen... hier behaupten die Erfinder des Foveon dass dieser (mit geeigneter Filterung vor dem eigentlichen Sensor!) der menschlichen Seh-Physiologie ähnlichere Resultate liefert als CFA-Sensoren [ Grab ich das einschlägige Paper auf? Nö sorry, leider nicht mehr um diese Uhrzeit ;)... ist ca. 2002 und beinhaltet div. Vergleiche mit ner Canon D10 o.ä. ]

Meines Erachtens ist die Eindringtiefe nicht das Maximum, sondern eher die statistisch größte Häufung. Das würde bedeuten, dass rotes Licht tatsächlich kaum Elektronen im blauen Bereich auslöst.

Das wiederum seh ich ganz genauso... mein Modell ist das Folgende: Für jedes Photon kann die Tiefe in der es absorbiert wird nur durch seine Teilchen-Wellenfunktion im Ortsraum beschrieben, d.h. über die Integration der entspr. Dichte-Funktion eine Wahrscheinlichkeit angegeben werden wo es letztlich vom Silizium »geschluckt« wird.
Da die W-Dichte einen nicht-singulären Träger hat heißt das dass die Wahrscheinlichkeit der Absorption an keiner Tiefe im Silizium Null ist => die Signal-Antwort des Sensors auf jedes Photon kann nur mit einer gewissen Wahrscheinlichkeit mit der Wellenlänge korreliert werden. Das dürfte die Ursache des grauenhaften Rauschens sein das Ingo hier mit SilkyPix so »schön« rauspräpariert hat, bzw. der Grund warum Foveon-Bilder ohne (Entrauschungs-)Interpolation fast unbrauchbar sind: Was im Foveon-Sensor bei der Signal-Bildung abläuft ist de facto die Erhebung einer Statistik zur Absorptions-Tiefe der erfassten Photonen.
Die »saubere« Sortierung der Photonen nach Wellenlänge ist genauso nur (hier im Sinne des Wortes :)) plattgeklopftes Marketing-Geflunker wie die Karies-Bildchen auf den Zahnpasta-Tuben... die (Ingenieurs-technisch deutlich unerfreulichere) korrekte Abbildung der Realität wäre hier ein 3D-Plot einer Wahrscheinlichkeits-Verteilung der Absorption deren Maximum sich abhängig von der Wellenlänge über die Tiefe des Sensors schiebt, die aber an keiner Tiefe verschwindet!

So und damit sind wir wieder beim Vergrößerungs-Potential (O.k., die Kurve ist jetzt scharf ;)): Der Foveon könnte meiner Ansicht nach deutlich massiver von höherer Gesamt-Auflösung profitieren als CFA-Sensoren -- je mehr Pixel, desto schwächer wird bei einer gegebenen Print-Größe das »statistische« Rauschen in die Sichtbarkeit hochgezogen, in der Folge muss deutlich schwächer durch Entrauschung weichgespült werden, und man behält viel mehr von der »klirrenden« Schärfe im resultierenden Bild.
Die Ingenieure bei Foveon haben aber scheinbar schon vor langer Zeit (eigentlich schon beim Sensor der SD14) genau die entgegengesetzte Richtung eingeschlagen: Statt die Gesamt-Auflösung über eine Vergrößerung der Sensor-Fläche anzuheben (unter Beibehaltung des Pixel-Pitches der SD9/10) und damit das Entrauschen unwichtiger zu machen bzw. auf den RAW-Konverter am PC zu verlagern wurde die Gesamt-Auflösung nur mäßig gesteigert... dafür gab's kleinere Pixel mit mehr inhärentem Rauschen, und über schnellere Image Processing Engines (inzwischen in der 2. Generation) bzw. SPP-»Verbesserungen« immer stärker weichgespülte Bilder. Unter'm Strich ein -- für mein Empfinden gescheiterter -- Versuch den Anschluss an das Mainstream-Rudel zu schaffen, anstatt konsequent die Stärken des Foveon zu stärken (d.h. z.B. Schnickschnack wie ne JPEG-Engine in der Kamera einfach links liegen zu lassen).
Schade.
 
Also ich wiederum kapier nicht worüber Du Dich an dieser Stelle beschwerst...

Über das HickHack, ganz einfach

Wenn Dich an Fotografie ausschließlich die rein kreative Seite interessiert -- warum liest Du dann überhaupt dieses Forum??
Ist doch wirklich simpel: Für die Diskussion künstlerischer Aspekte gibt's fc -- und für die technisch orientierten Themen die (technischen Foren von) DSLR.

Das ist mir neu, ich dachte auch hier kann man über Bilder diskutieren. Zugegeben nicht in diesem Thread, aber meine Beispiele sollten unterstreichen, worum es m.E. geht.
Und ich lese hier natürlich mit, weil es mich interessiert.



Aber mit welcher? Analog hab ich diese Frage für mich beantwortet, digital leider nicht.
Daran liegt es also. Dann wundert es nicht, dass Du so viel Energie reinlegst.

Denn für mich geht »Bild« mit einen Print überhaupt erst los (Fotos im Web empfinde ich interessant als Motiv-Anregung, aber irrelevant als fotografisches Produkt), und zwar ab A3+ oder größer... völlig unabhängig vom Inhalt.

Das verstehe ich....... und ja, ich brauche vielleicht mal A3

Das was für Dich sinnloses Geraufe ist ist für mich eine der Grundlage des Entstehungsprozesses von Bildern.

Bist Du denn in der Entwicklung von DSLRs als Ingenieur?

Und ich muss nicht losziehen und fc damit, na sagen wir mal, »befrachten« was ich von den Diskussionen dort halte oder daran nicht versteh 8)...

Ich muss das auch nicht, um auf diese suggestive Aussage zu antworten, aber ich will hier auch mitlesen (dürfen) und zwar so, dass ich etwas lerne.

Das habe ich bis Seite X auch, nur dreht es sich langsam im Kreis...

LG

Andi
 
Ich muss das auch nicht, um auf diese suggestive Aussage zu antworten, aber ich will hier auch mitlesen (dürfen) und zwar so, dass ich etwas lerne.

Das habe ich bis Seite X auch, nur dreht es sich langsam im Kreis...

LG

Andi

Lieber Andi,

dass Du hier mitliest stört glaub ich Niemanden, dass Du aber Ansprüche stellst (eigentlich eine Forderung an Andere richtes "und zwar so"), dabei "etwas zu lernen" erinnert schon eher an Privatunterricht, der nunmal über ein Forum nicht möglich ist, wenn mehr, als eine Person mitlesen, was hier anscheinend der Fall ist...
...zumal hier die Meisten wohl nicht für Ihre "Lehrtätigkeit" bezahlt werden! :eek:

Es ist lediglich ein freies Angebot u.A. Informationen aufzunehmen und zu verarbeiten - Lernerfolge sind hier weder Pflicht noch Voraussetzung für eine (Themenbezogene) Diskussion.

Wenn man schon das lernen wollen betont, dann sollte man sich m.E. das off-topic Stören und / oder (was nicht bei Dir, aber bei Anderen gerne vorkommt) dauernd auch praktisch Wiederlegtes zu wiederholen verkneifen - damit schadet man ja sonst seinen eigenen, bekundeten Interressen! :eek:

Dann dreht sich auch Nichts im Kreis, sondern der Kreis schließt sich und die Entwicklung kann mit neuen Themen weitergehen! (y)


Uli

P.S.:
Informationen, die Du m.E. nutzen kannst, wenn Du dich aus der Kreisrotation ausklinken willst, findest Du Themenbezogen (in zeitlich geordneter Reihenfolge) z.B. hier:

...für den eigenen Praxistest:

https://www.dslr-forum.de/showpost.php?p=6815820&postcount=239

oder als Fazit:

https://www.dslr-forum.de/showpost.php?p=6810953&postcount=228

Noch ein allgemeines direktes Beispiel:

https://www.dslr-forum.de/showpost.php?p=6803617&postcount=204

Ein gut präsentierter Vergleich:

https://www.dslr-forum.de/showpost.php?p=6798115&postcount=186

...usw...

P.P.S.:

Mach´s doch so ähnlich - lese Dir die Sache (noch) mal ganz durch (geht schneller als schreiben) und setze Dir die Bookmarks bei den direkt (praktisch) für dich nachvollziehbaren Dingen.

Bleiben dann noch Fragen, kannst Du ein entsprechendes Thema neu eröffnen
.
Es finden sich sicher ein paar Leute, die bereit sind in einem angenehmen Umfeld Themenbezogen auf deine Fragen einzugehen! :)
 
Soweit ich mich erinnern kann gilt doch für die (menschliche!) Seh-Physiologie das 3. Graßmannsche Gesetz, d.h. es können beliebige Farb-Eindrücke (= Wellenlängen) durch geeignete Mischung aus 3 Grundkomponenten additiv hervorgerufen werden.
Dem widerspreche ich nicht. Die von den L/M/S-Zapfen gelieferten Koeffizienten sind Integrale der Absorptionsfähigkeit über einen bestimmten Wellenlängenbereich. Da Integrale additiv sind, gilt natürlich für 3 Grundlichtquellen r, g, b auch lms(r+g+b) = lms(r) + lms(g) + lms(b) unabhängig von deren spektraler Verteilung.

ABER:
Damit beschreibt Grassmann nur, dass wir von einer additiven Farbmischung nicht auf die Spektren der Einzellichtquellen zurückschließen können. Er macht aber keine Aussage darüber, dass diese Lichtquellen damit zwangsläufig das gesamte von uns wahrnehmbare Spektrum abdecken können. Beispielsweise würden 3 Lichtquellen im Bereich rot bis grün durchaus Grassmanns Bedingung erfüllen, könnten aber trotzdem keinen Blau-Eindruck vermitteln.

Du schreibst sinnvollerweise schon von geeigneter Mischung und damit ist das dann prinzipiell tatsächlich möglich. Insofern muss ich meine erste Aussage, dass auch die Reproduktion zwingend der Zapfen-Absorption entsprechende Lichtquellen verwenden muss, einschränken. Das Problem ist aber (noch?) ein technisches. Gehen wir von 16 Mio. unterscheidbaren Farben oder vereinfachend 256 Stufen pro Farbkanal aus. Wenn die Lichtquellen eine andere spektrale Verteilung haben als unsere Zapfen absorbieren, müssen die Intensitätswerte bei der Ausgabe kalibriert werden. Da sich die Spektren aber überlappen, reicht nicht eine einfache Kalibrierung pro Farbkanal, sondern wir benötigen wirklich eine für jede der 16 Mio. Farbkombinationen. Das gibt hässlich große LUTs. Und je nachdem wie stark die Spektren abweichen, brauchen wir außerdem eine entsprechend höhere Auflösung der Intensitäten der einzelnen Lichtquellen. Ich bin mir nicht sicher, ob 12 Bit da reichen, um wirklich immer Banding zu vermeiden. Schlussendlich berücksichtigt Kalibrierung nicht die gemeinsame Wirkung nebeneinander liegender Pixel durch die begrenzte optische Auflösung des menschlichen Auges.

Fakt ist also: auch wenn theoretisch für die Wiedergabe kein spezielles Spektrum erforderlich ist, sind wir praktisch noch weit von realitätsgetreu entfernt. Dergleichen gilt dann für die Aufnahme - und all das nur für die 3 Zapfen des menschlichen Auges. Das berücksichtigt noch nicht, dass - insbesondere beim mesopischen Sehen im Zwielicht - die Stäbchen einen erheblichen (mehr im Blau empfindlichen) Anteil beitragen und Neon- und UV-Farben überhaupt erst ermöglichen.
Und vor allem: Jeder Mensch nimmt Farben etwas anders wahr aufgrund individueller Unterschiede. Eine wirklichkeitsgetreue Wiedergabe für jeden Betrachter ist dann - völlig unabhängig von technischer Machbarkeit auch bereits theoretisch - nur möglich, wenn die Spektren so erfasst werden, wie sie sind. Was technisch definitiv nicht gehen kann.

Auch mathematisch versteh ich nicht wie Du das meinst... die Koeffizienten sind doch als Koordinaten bez. der Basis eines Vektorraums zu interpretieren, und die durch ihre Mischung beschriebene Wellenlänge also ein Vektor. Wieso sollten die Koeffizienten addiert werden?
Nein nein, die Koeffizienten sollen nicht addiert werden, das war vielleicht etwas missverständlich ausgedrückt. Gemeint war der Informationsverlust bei der Bildung der Koeffizienten, also die Integration über das Spektrum.

Die Probleme mit den digitalen Sensoren gehen m.W. dann los wenn man die Relation der von Photonen verschiedener Wellenlänge ausgelösten Signal-Antworten eines Sensors so in einen Farbraum abbilden möchte dass ihre Farbabstände möglichst gut denen des menschlichen Sehens entsprechen...
Was effektiv auf eine möglichst genaue Reproduktion der Zapfen-Absorptionsfähigkeit hinausläuft. :)

mein Modell ist das Folgende
Dem kann ich im Wesentlichen nur zustimmen. Die kleineren Pixel der SD14 haben die Farbseparierung nicht unbedingt vereinfacht.

*****
 
Da all das in der Realität kaum gegeben ist, wird versucht, mit Kalibrierung das schlechte Polynom 3. Ordnung irgendwie wenigstens an die Werte ranzubiegen, welche das menschliche Auge dabei gezeigt hätte. Leuchtende Farben wie Neon, UV o.ä. kann man mit dieser Interpolation aber kaum herbeizaubern. Schon deswegen nicht, weil da nämlich die Stäbchen als 4. Sensor eine Rolle spielen

ich glaube,das es ein wenig zu viel verlangt ist,von einer diode die eigenschaften des menschlichen auges zu erwarten.

es wird hier auch zunehmend von interpolation in bezug auf den foveon das wort geredet. die farben der sigmas sind nicht interpoliert in dem sinne wie wir es hier landläufig gebrauchen.
wenn die umwandlung oder zuordnung zu bestimmten farbräumen oder anderer erforderlicher rechnereien schon als interpolation bezeichnet wird,dann kommen wir in der sache nicht weiter.

es wäre zu überlegen,ob nicht ein vierter sensor dem ideal des menschlichen auges einen großen schritt näher käme.


Das ist so nicht ganz richtig. Im großen und ganzen werden die Photonen schon da absorbiert, wo sie "hingehören". Das Problem ist eher, dass die wellenlängenabhängige Eindringtiefe in das Halbleitersubstrat nicht unbedingt mit der Empfindlichkeitskurve der L/M/S-Zapfen des Menschen korreliert.

naja,ich denke schon,dass meine meinung über das absorbtionsverhalten richtig ist. wie erklärst du dir sonst die rauschneigung in den schatten bei iso 100 und gutem licht?

das prinzip der wellenlängenabhängen absorbtion ist schon in ordnung. das problem liegt in den unterschiedlichen wirkungsgraden.
wenn das auge 100% hat,würde ich beim foveon-pixel von geschätzten 40-60% ausgehen.
aber das ist eine sache,die eher das rauschen erklärt.

da die gemessenen "drei grundfarben" jede farbe darstellen können und nicht interpoliert wird,müßte eine 100%ige korrelation zum menschlichen sehen mit der foveontechnik möglich sein.
da es am prinzip nicht liegt,sind abweichungen in einer fehlerhaften umsetzung zu suchen.
und nun könnte man als eine fehlerquelle anführen,dass eben nicht sauber getrennt wird, unabhängig jetzt mal von fehlern in der kalibrierung der gesetzten bereiche,z.b. auch weil falsche photonen gemessen werden.
ich glaub nicht, dass es so reibungslos klappt wie du meinst.
sauberes arbeiten in derart miniaturisierter dimension ist nicht ganz einfach bezüglich der präzisen platzierung und einhaltung der dimension der sensibilisierten bereiche,dazu unwegbarkeiten bezüglich der homogenität der werkstoffe und zuletzt eines möglichen eigenlebens der photonen.


Meines Erachtens ist die Eindringtiefe nicht das Maximum, sondern eher die statistisch größte Häufung. Das würde bedeuten, dass rotes Licht tatsächlich kaum Elektronen im blauen Bereich auslöst.
Aber auch wenn ich mich da irre, lässt sich die Blauschwäche erklären: schließlich müssten dann die oberen Schichten jeweils von den tieferliegenden abgezogen werden. Blau wäre ein Pixel dann nur, wenn er weder im Rot- noch im Grünbereich niederschlägt. Da diese beiden aber deutlich dicker sind, schlägt auch hier wieder die geringe Schichtdicke zu.


abgesehen vom uv filter sind jedwede vorgetzten farbfilter beim foveon prinzipbedingt kontraproduktiv,wenn es um die wiedergabe realer farben geht.
wenn farben nicht stimmen,liegt es an der fehlerhaften zählung von photonen und das läßt sich durch nichts korrigieren.

der foveon ist in drei übereinander liegende bereiche geteilt,die mehr oder weniger scharf voneinander getrennt sind. manche meinen,es würde überlappend gestapelt,da dann keine bandlücke entstehen kann.
von wirkungsgradverlusten abgesehen,werden alle photonen(unterhalb der sättigungsgrenze),die ihre eindringtiefe erreicht haben für die umwandlung in elektrische spannung(durch elektronenerzeugung) genutzt.
"blaue" photonen sammeln sich in der obersten schicht und haben keine möglichkeit grün oder rot zu beeinflussen.
die schichtstärke spielt hier keine rolle. die schichten entsprechen in ihrer dicke dem spektralbereich der zu messenen farbe.



Ganz einfach gesprochen hat jedes einzelne Photon eine bestimmte Wellenlänge, wir haben also (fast) beliebig viele Werte. Wenn wir das auf 3 Koeffizienten reduzieren, ist das eine (gewichtete) Summe. Eine Summe ist immer ein Informationsverlust: 5+(-2) ist genauso 3 wie 2+1.

naja,viele farben setzen sich nunmal aus verschiedenen farben zusammen. verlustbehaftet ist das m.e. nicht.
davon abgesehen,ist mir jetzt beim nachgrübeln aufgefallen,dass die frage nach der funktionsweise der farbgewinnung für mich noch nicht abschließend geklärt ist.
pauschal kann man so sagen,dass die drei gemessenen werte(wenns denn drei sind) je einer farbe zugeordnet werden und dann eine addition den endgültigen farbpunkt festlegt. soweit sogut. nur,wie läuft die generierung innerhalb einer sensorschicht ab.
die schichten sind ja so aufgebaut,dass sie einen weiter gefassten spektralbereich erfassen. blau z.b. kann gemessen werden als hellgrünblau oder viollettblau(äußere farben des blauspektrums).
und jetzt die generalfrage: woher weiss der sensor,welche der möglichen farbnuancen von den photonen angesteuert wird? eine herkömmliche photodiode deckt generell eine pallette von farben ab, unterscheiden innerhalb des spektrums kann sie nicht.
möglicherweise kann die foveon-diode tatsächlich, vielleicht anhand der unterschiedlichen frequenzen von photonen, das subpixelsignal einer nuancierten farbe zuordnen.
es muß irgendwie möglich sein.
denn wenn nur generell photonen (häufung) in einem der drei spektralbereiche konvertiert werden und nun das resultierende signal für die farbe blau steht,dann wäre die darstellung einer nuancierten farbe innerhalb eines farbbereichs und somit auch nicht für den gesamtpixel möglich.
eine reale farbe würde nur generiert,wenn reine grundfarben gemessen werden.
da der foveon aufgebaut ist wie eine normale diode, indem p-n bereiche in das silizium implementiert sind, ist für mich die frage weit offen, wie z.b. hellblau dargestellt werden kann.
 
Zitat: "Wer Zweifel an der Leistungsfähigkeit seiner Kamera hat, möge sich bitte im Unterforum von Sigma-Kameras umschauen. Dort dozieren offenbar „Atom-Professoren“ über die Leistungsfähigkeit ihres Systems, über die pixelgenaue Aufzeichnung von Lichtinformationen und deren Farbechtheit, ohne jemals ein Bild im möglichst größten Forumsformat veröffentlicht zu haben. Über die Ausbelichtung des fotografischen Erlebnisses über 30x45 wird ebenfalls episch gestritten."

:lol: :lol: :lol: (y)

LG uomo
 
es wäre zu überlegen,ob nicht ein vierter sensor dem ideal des menschlichen auges einen großen schritt näher käme.
Gibt es schon mit verschiedenen Grüntönen bei der Aufnahme und ebenso bei der Wiedergabe mit Monitoren mit Gelbkanal.

naja,ich denke schon,dass meine meinung über das absorbtionsverhalten richtig ist. wie erklärst du dir sonst die rauschneigung in den schatten bei iso 100 und gutem licht?
Blaurauschen in Schatten ist ein ganz anderes Thema denke ich. Schatten sind i.d.R. mehrere Blenden dunkler und der rauschintensive Blaukanal ist derjenige, der dort dominiert. Keine Chance für Rot oder Grün, das mit Farbinterpolation zu kompensieren.
Bzgl. der Sensorabsorption: Wenn Licht verschiedener Wellenlänge auf dem gesamten Weg durch das Halbleitersubstrat gleichermaßen Elektronen auslöst, würde grünes Licht sich also im blauen und grünen Kanal (ergo türkis) niederschlagen und rotes Licht in allen (ergo weiß). Das will wohl keiner, also würde von türkis blau abgezogen werden und von weiß grün und blau. Im Endergebnis wäre die Signalstärke wieder proportional der Schichtdichte und blau ganz arm dran.

das problem liegt in den unterschiedlichen wirkungsgraden. wenn das auge 100% hat,würde ich beim foveon-pixel von geschätzten 40-60% ausgehen.
Laut http://www.foveon.com/files/CIC10_Lyon_Hubel_FINAL.pdf liegt die Quanteneffizienz sogar nur bei rund 30%. Allerdings ohne all zu große Unterschiede zwischen den verschiedenen Farbkanälen. Daran kann es also nicht liegen.

da die gemessenen "drei grundfarben" jede farbe darstellen können und nicht interpoliert wird,müßte eine 100%ige korrelation zum menschlichen sehen mit der foveontechnik möglich sein.
Das klappt so nicht ganz. Die in o.g. Dokument gezeigte spektrale Absorptionskurve des Foveon weicht vom menschlichen Auge ab und auch der in ebendiesem Dokument erwähnte Metamerieindex > 0 dürfte ein Indikator dafür sein.

da es am prinzip nicht liegt,sind abweichungen in einer fehlerhaften umsetzung zu suchen.
Den Foveon-Ingenieuren Fehler zu unterstellen, finde ich aber auch als Canon-Besitzer dann doch eher gewagt.

wenn farben nicht stimmen,liegt es an der fehlerhaften zählung von photonen
Das wäre zu einfach und dann hätte Sigma nach all der Kritik an Farbflecken sicherlich in den letzten 2 Jahren noch einiges machen können. Wie schon geschrieben ist eine dem menschlichen Auge entsprechende Erfassung des Spektrums nur möglich, wenn wir mit der gleichen Gewichtung erfassen oder eben für jeden der 16 Mio unterscheidbaren Chrominanzwerte einen Kalibrierwert haben. Ersteres gibt es bisher noch nicht, zweiteres ist unrealistisch. Da insgesamt der Foveon in seiner spektralen Absorption dem menschlichen Auge aber deutlich näher kommt als gängige CFA (zumindest von Canon; Nikon weiß ich wie gesagt nicht), kann der Foveon-Ansatz und auch die Realisierung so falsch nicht sein. Die Eindringtiefen sind dann ein Fakt, der die Kehrseite der Medaille ist. Dem menschlichen Auge geht es ja mit Blau nicht viel anders.

denn wenn nur generell photonen (häufung) in einem der drei spektralbereiche konvertiert werden und nun das resultierende signal für die farbe blau steht,dann wäre die darstellung einer nuancierten farbe innerhalb eines farbbereichs und somit auch nicht für den gesamtpixel möglich.
Abgesehen davon, dass eine wahrgenommene Farbe ja aus Photonen vieler verschiedener Wellenlängen besteht, weist das, was Du hier beschreibst, auf eine statistische Häufigkeitsverteilung der Photonen hin. Verlässlich testen könntest Du Deine Theorie aber nur mit monochromatischem Licht. Ich kann ja mal beizeiten testen, wie ein Foveon auf einen gelben Laser reagiert. Ich würde aber wetten, er misst wirklich rot und grün.

Zitat: "Wer Zweifel an der Leistungsfähigkeit seiner Kamera hat, möge sich bitte im Unterforum von Sigma-Kameras umschauen. Dort dozieren offenbar „Atom-Professoren“ über die Leistungsfähigkeit ihres Systems, über die pixelgenaue Aufzeichnung von Lichtinformationen und deren Farbechtheit, ohne jemals ein Bild im möglichst größten Forumsformat veröffentlicht zu haben." :lol: :lol: :lol: (y)
Stimmt. Aber meine SD14-Photos sind zu schlecht für eine Veröffentlichung, sorry. :)
 
Ich kann ja mal beizeiten testen, wie ein Foveon auf einen gelben Laser reagiert. Ich würde aber wetten, er misst wirklich rot und grün.
Kann ich nicht testen, weil gelber Laser im Popo (neudeutsch: defekt).
Aber zumindest sind mir in einem Regenbogen noch keine fehlenden Linien aufgefallen. Lässt für mich auf Häufigkeitsverteilung schließen.
 
Zuletzt bearbeitet:
Zitat: "Wer Zweifel an der Leistungsfähigkeit seiner Kamera hat, möge sich bitte im Unterforum von Sigma-Kameras umschauen. Dort dozieren offenbar „Atom-Professoren“ über die Leistungsfähigkeit ihres Systems, über die pixelgenaue Aufzeichnung von Lichtinformationen und deren Farbechtheit, ohne jemals ein Bild im möglichst größten Forumsformat veröffentlicht zu haben. Über die Ausbelichtung des fotografischen Erlebnisses über 30x45 wird ebenfalls episch gestritten."

:lol: :lol: :lol: (y)

LG uomo

Uomo,

das das bei Deinen Bildern keine Rolle spielt ist klar ;)

Du musst Dich bitte zurückhalten.
Wer keinerlei Ahnung hat, wie sein Objektiv reagiert,bzw. das Wort Dezentrierung nie gehört hat (ich erinnere mich da an Dein versautes 14mm),dem sind nicht einmal die basics der Fotografie klar.
Dann hier einzugrätschen und unsachliches Gegröle abzusondern, sagt mehr über Deinene Intellekt aus, als Du glaubst.
Wir machen uns hier Mühe, Du verstehst geschätzte 20%, aber Hauptsache laut....Da gab es hier schon ein paar Kandidaten.Ich lade jeden ein teilzunehmen, aber nicht so.Es scheint manche hier wirklich persönlich zu treffen, wenn man über ihren geliebten Sensor philosophiert.

Foveon Brainwash funktioniert...
 
Lieber Andi,

dass Du hier mitliest stört glaub ich Niemanden, dass Du aber Ansprüche stellst (eigentlich eine Forderung an Andere richtes "und zwar so"), dabei "etwas zu lernen" erinnert schon eher an Privatunterricht, der nunmal über ein Forum nicht möglich ist, wenn mehr, als eine Person mitlesen, was hier anscheinend der Fall ist...
...zumal hier die Meisten wohl nicht für Ihre "Lehrtätigkeit" bezahlt werden! :eek:

Danke für Deine Antwort UliK,

ich muss nicht so viel lernen, dass ich Unterricht brauche, eher Anregungen.
Und ich bin schlicht verblüfft seit den letzten Tagen.
Also verzeih, ich lese meist still mit und vervollständige mein Wissen.

Eine interessante Sache allerdings ist mir aufgefallen:

Es viel hier öfter einmal der Vergleich mit den Stäbchen und Zapfen der Retina....

DAS verstehe ich wirklich nicht, da man das überhaupt nicht mit einen Kamerasensor vergleichen kann.

Was ich sehen kann, und wie, hat mit der Möglichkeit eines Sensor kaum bis gar nichts zu tun...

Und GENAU in dem Moment kommt die kreative Arbeit zum Tragen, eben weil ich darstellen will, was der Betrachter, mit seiner Retina, sehen soll und kann.

LG
Andi
 
Es viel hier öfter einmal der Vergleich mit den Stäbchen und Zapfen der Retina....

DAS verstehe ich wirklich nicht, da man das überhaupt nicht mit einen Kamerasensor vergleichen kann.
Doch schon, das kam auch eben schon vor.

Ein Bildsensor (der Bilder für Menschen aufnimmt) muss von seiner Farbempfindlichkeit her dem menschlichen Auge entsprechen.
Ein Auge hat drei verschiedene Rezeptoren für Farbe, also hat das auch so ein Sensor mindestens drei Stück.

Bei der Darstellung von Farbbildern für Menschen geht es nur darum, dass eine Farbe so wiedergegeben wird, dass sie den gleichen Erregungszustand im Auge herstellt wie die ursprüngliche Farbe. Das tatsächliche, messbare Spektrum der Farbe ist (praktisch immer) völlig anders.
Die Farben sind also überhaupt nicht gleich, die sehen (im wahrsten Sinne des Wortes) nur so aus.
D.h. ein Wesen mit einem anders ausgelegten Farbempfindlichkeit im Auge findet bei den von uns verwendeten Systemen keine Farbe wieder. Man könnte sich zwar also mit dem sicher darauf einigen, dass die Farbe eine Blattes als "grün" bezeichnet wird, aber es wäre nicht in der Lage die Farbe auf einem Monitor oder im Druck wieder zu erkennen.

Deshalb ist diese ganze Farblehre so krautig und unwissenschaftlich :)
 
Zuletzt bearbeitet:
Hey Trayloader....

es ist angemessen mit Forenteilnehmern wertschätzend und respektvoll umzugehen.....

Du kannst in keinster Weise festlegen wie sich jemand benehmen muss.
Das steht Dir nicht zu.

Dein despektierlicher Umgangston ist völlig unangemessen. Du solltest Dich dafür entschuldigen.
Solche Beiträge schaden dem Niveau der Diskussion.

es grüßt
Franz-Josef Wanninger_de
 
Vielleicht sollte ein Moderator hier abschließen.. es ist ja eigentlich alles gesagt und bevor es hier noch persönlich wird.. :(
 
Doch schon, das kam auch eben schon vor.

Ein Bildsensor (der Bilder für Menschen aufnimmt) muss von seiner Farbempfindlichkeit her dem menschlichen Auge entsprechen.
Ein Auge hat drei verschiedene Rezeptoren für Farbe, also hat das auch so ein Sensor mindestens drei Stück.

Bei der Darstellung von Farbbildern für Menschen geht es nur darum, dass eine Farbe so wiedergegeben wird, dass sie den gleichen Erregungszustand im Auge herstellt wie die ursprüngliche Farbe. Das tatsächliche, messbare Spektrum der Farbe ist (praktisch immer) völlig anders.
Die Farben sind also überhaupt nicht gleich, die sehen (im wahrsten Sinne des Wortes) nur so aus.
D.h. ein Wesen mit einem anders ausgelegten Farbempfindlichkeit im Auge findet bei den von uns verwendeten Systemen keine Farbe wieder. Man könnte sich zwar also mit dem sicher darauf einigen, dass die Farbe eine Blattes als "grün" bezeichnet wird, aber es wäre nicht in der Lage die Farbe auf einem Monitor oder im Druck wieder zu erkennen.

Deshalb ist diese ganze Farblehre so krautig und unwissenschaftlich :)

Das ist schon richtig, es hat nur einfach nichts damit zu tun, was ein Mensch wirklich sieht.......

Natürlich sieht ein Neuweltaffe Farben anders als ein Altweltaffe, und wir sind Altweltaffen......

Genau das ist es, was ich versuche zu sagen: Wie das Bild wird, hat wenig mit der physikalischen Leistung des Sensors zu tun..

Selbst in der Retina gibt es massiv viele Algorithmen, die das Bild "verfälschen".

Und das wird uns allen jedesmal bewusst, wenn ein Bild so ganz anders aussieht, als das, was wir gesehen haben und als Motiv gewählt haben.

Deswegen sage ich, jede Kamera hat ihre Stärken und Schwächen, und es kommt darauf an, was der Photograph daraus macht, mit diesem einen, individuellen Werkzeug

LG

Andi
 
Andi,

Das ist schon richtig, es hat nur einfach nichts damit zu tun, was ein Mensch wirklich sieht.......

Natürlich sieht ein Neuweltaffe Farben anders als ein Altweltaffe, und wir sind Altweltaffen......

Genau das ist es, was ich versuche zu sagen: Wie das Bild wird, hat wenig mit der physikalischen Leistung des Sensors zu tun..

Selbst in der Retina gibt es massiv viele Algorithmen, die das Bild "verfälschen".

Und das wird uns allen jedesmal bewusst, wenn ein Bild so ganz anders aussieht, als das, was wir gesehen haben und als Motiv gewählt haben.

Deswegen sage ich, jede Kamera hat ihre Stärken und Schwächen, und es kommt darauf an, was der Photograph daraus macht, mit diesem einen, individuellen Werkzeug

LG

Andi

...das mit den Affen darfst Du mir gerne mal wo anders erklären. :eek:
...auf deine diesbezüglichen wissenschaftlichen Erkenntnisse bin ich bereits jetzt sehr neugierig...;)

Mal schaun, was für ein Vergrößerungspotential die haben. :rolleyes:

-

Es gibt aber geeignete und ungeeignetere (individuelle) Werkzeuge. :D

Ein Sandkorn würde ich nicht als Bildaufnehmer in einer Digitalkamera verwenden wollen...
...einen Foveonchip schon. :eek:
(Wobei man durchaus auch schöne Bilder mit und in den Sand malen kann)

Trotzdem sollte man m.E. nicht unbedingt Mehr als nötig in den Sand setzen... :lol:


LG
Uli

P.S.:
(Farb-) Wahrnehmung ist ein weites Feld und würde mit Sicherheit den Umfang nicht nur eines Kameraforums sprengen...
 
Zuletzt bearbeitet:
@Trayloader: Danke für deinen Ausfall(?). Meine Fotos sind derweil weltweit und millionenfach publiziert und als Großfotos auf Messen verwendet worden. Hier läuft nach meiner Meinung was ganz anderes und das war mein Beitrag.

LG uomo

*Fleißige Poster und Blogger, ich will keine Namen nennen, bringen es vielleicht auf 500 oder 1000 Kontakte. Es sind immer die gleichen Rezipienten, also wirklich keine Erweiterung des Leserkreises, die sich da zusammenfinden. Das ist bei mir anders. Ich werde in den unterschiedlichsten Prints gedruckt und habe 10.000ende von Rezipienten und über die Zeit der letzten Jahre sind 100.000ende und zusammen eine Millionen-Quote. Dagehen sind diese Foren wirklich winzig. Klingelt bei dir was Trayloader?
 
Zuletzt bearbeitet:
Hier läuft Dummgeschwätz pi mal Daumen ... :eek:
Der thread gehörte längst geschlossen, denn mit wirklichen Informationen wird hier niemand versorgt. Man denke nur an einen Neuankömmling mit Interesse an Foveon! was sollte er hier lernen? :eek:
Hier geht es nur um Rechthaberei, aber nicht um wirkliche Diskussion.
Das sollten die Protagonisten per PN unter sich ausmachen; in einem Forum hat das nichts zu suchen.

Schade für Sigma!
 
P.S.:
(Farb-) Wahrnehmung ist ein weites Feld und würde mit Sicherheit den Umfang nicht nur eines Kameraforums sprengen...

Nicht wirklich und ich schliesse mich, und das habe ich gemeint, den Antworten auf dieses Post an.....

Noch einmal: Mir geht es um das zu erzielende Ergebnis....

Und das kann ich mit dem Foveon, genauso wie mit einem Bayer.
Beides hat seine Vorteile, ich liebe die Foveon Bilder seit 87 Jahren, und ich habe auch eine Pentax.......
 
WERBUNG
Zurück
Oben Unten