• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Jetzt knipsen die mit dem Foveon-Sensor auch noch Sterne...

Die meißten Bayer-RAW-Daten mögen dichter am RGB-Standard liegen,
diesem tatsächlich einhalten tun sie deshalb aber auch nicht. :rolleyes:
Du hast es begriffen! Der Geräte-Farbraum üblicher Bayer-Kameras liegt sehr nahe an den Arbeitsfarbräumen AdobeRBG oder ProPhotoRGB. Die Umrechnung des Geräte-Farbraums in den Arbeitsfarbraum ist daher ohne größere Rechenungenauigkeiten möglich. Nicht vergessen, die Rohdaten haben 12-14 bit. Komplexe Berechnungen führen zu Rundungsfehlern. Wie bei Foveon halt...
 
...Bei der Weiß-Auslesung am Sensor muß Grün bereits eine Blendenstufe
und Blau 2 Blendenstufen überbelichtet sein. ...
...beinahe. Du kennst doch den physikalischen Aufbau eines Foveon-Pixels (Blau etwas kleiner als Grün < als Rot). Damit hast Du schon unterschiedliche, auf einander angepasste Pegel. Die Schwierigkeit liegt mehr in der Einhaltung der (Pegel-) Empfindlichkeitsdifferenzen über den gesamten Bereich sinnvoller Belichtungswerte auf allen Pixeln. Hinzu kommt das Schwingungs- / Dämpungsverhalten der Silicon Layer das von der Einhaltung gleicher Schichtdicke im Nanometerbereich und das daraus resultierende Resonanzverhalten über die gesamte Sensorfläche abhängig ist. Physikalisch sehr komplizierte Zusammenhänge ;).

Gruss,

Browny.
 
Diese Darstellung ist so nicht richtig. Stichwort Absorbtionstiefe in Si in Abhängigkeit der Wellenlänge (Werte gibt's im Web). Es wird eben nicht sauber nach R, G und B differenziert (wie z.B. bei Bayer-CFA) sondern das Gemisch in den einzelnen Fotodioden ist ziemlich schmutzig. Und aus diesen schmutzigen Rohdaten werden dann durch diverse Klimmzüge mittelprächtige RGB-Werte. ...
...auch der Bayer-Sensor liefert nur Graupegel je Pixelposition denen über div. Algorythmen die Farbwerte (R,G,B) zugewiesen werden müssen.

Alle anderen Farbwerte werden aber - im Gegensatz zum Foveon-Sensor, bei dem sie bereits erfasst werden - über geschätzte Wahrscheinlichkeiten und Tendenzen "errechnet" um nicht zu sagen geraten. Eben die "nicht saubere Trennung nach R,G,B" beinhaltet bereits die Werte für Farben ungleich R oder G oder B, nämlich z.B. Gelb, Violett, Braun, Cyan, Magenta usw. usf. pixelgenau an der Stelle, an der sie im Bild auch auftreten und nicht interpoliert aus vier CFA-Pixeln wie beim Bayer-Sensor.

Der "Farbraum" (RGB, sRGB, AdobeRGB 1998) ist lediglich von dem verarbeitenden kamerainternen Prozessor und seiner Software abhängig und könnte genausogut auf CMYK gerechnet werden.
Irgendwie ist da alles Quatsch hier.

Gruss,

Browny.
 
Zuletzt bearbeitet:
das von loporinus zitierte hasselblad-interview bestätigt in gebündelter form die an anderer stelle(von skater schon verlingt) diskutierten inhalte.
und auch vor allem mein hinweis auf eine ursache des rauschens,nämlich die notwendige signalverstärkung.
ich bezog mich auf ein kurzes wikipedia-zitat,das hier damals doch sehr angezweifelt wurde.

wenn ich die letzten postings hier lese,kommen mir leichte bedenken in bezug auf die gewichtung einzelner prozesse,die im foveon sensor ablaufen.

demnach dürfte laut "ockham" eigentlich gar kein richtiges bild aus der kamera kommen,sondern nur ein farbgematsche,weil die einzelnen fotodioden doch nichts anderes an signalen produzieren(die auch von mir angesprochene unsaubere farbtrennung hatte skater damals versucht zu widerlegen).

wie dem auch sei,schafft es sigma offensichtlich,die technischen probleme des sensors durch einen hohen rechenaufwand weitgehendst zu kompensieren.
übrig bleiben die fragen der machbarkeit eines größeren sensors oder der erhöhung der pixelmasse des jetzigen formats und eine weitere reduzierung der rauschneigung.
 
wie dem auch sei,schafft es sigma offensichtlich,die technischen probleme des sensors durch einen hohen rechenaufwand weitgehendst zu kompensieren.
übrig bleiben die fragen der machbarkeit eines größeren sensors oder der erhöhung der pixelmasse des jetzigen formats und eine weitere reduzierung der rauschneigung.

Das werden wir sehen wenn die SD15 da ist. Was die Sensorgröße angeht wird es wohl bis zur nächsten Photokina dauern bis wir da mehr wissen. Jedenfalls wird sich wohl der eine oder andere entscheiden mit erscheinen der SD15 Sigma weiter zu benutzen oder sich neu auszurichten. Hoffen wir auf einen größeren Sprung. Der Sensor bleibt ja eh der gleiche. Vieleicht ein wenig optimiert in der Fertigung.

Gruß Sven
 
...auch der Bayer-Sensor liefert nur Graupegel je Pixelposition denen über div. Algorythmen die Farbwerte (R,G,B) zugewiesen werden müssen.
Der ganz entscheidente Unterschied zu Foveon ist, dass diese RGB-Werte exakt definiert sind, d.h. die spektrale Hellempfindlichkeit als Produkt aus Filtercharakteristik und Sensorempfindlichkeit wird ganz gezielt festgelegt. Etwas, was bei Foveon überhaupt nicht geht.
Alle anderen Farbwerte werden aber - im Gegensatz zum Foveon-Sensor, bei dem sie bereits erfasst werden
Falsch! Das was Foveon liefert, hat mit RGB zunächst nichts zu tun. Das sind spektral unterschiedliche Helligkeitsinformation, die meilenweit von dem entfernt liegen, was Bayer als RGB liefert. Man könnte aus Bayer ohne Interpolation direkt ein farbiges Bild produzieren, bei Foveon muss immer gerechnet werden.

- über geschätzte Wahrscheinlichkeiten und Tendenzen "errechnet" um nicht zu sagen geraten.
Wer hat dir diesen Blödsinn erzählt?
Eben die "nicht saubere Trennung nach R,G,B" beinhaltet bereits die Werte für Farben ungleich R oder G oder B, nämlich z.B. Gelb, Violett, Braun, Cyan, Magenta usw. usf. pixelgenau an der Stelle, an der sie im Bild auch auftreten und nicht interpoliert aus vier CFA-Pixeln wie beim Bayer-Sensor.
Das wird ja immer abenteuerlicher. Lies doch mal bitte ein Buch über Farbmetrik, oder schau dir wenigstens "Camera Raw with Adobe Photoshop CS3" ISBN0-321-51867-5 an. Da werden solche Fragen behandelt.
Der "Farbraum" (RGB, sRGB, AdobeRGB 1998) ist lediglich von dem verarbeitenden kamerainternen Prozessor und seiner Software abhängig und könnte genausogut auf CMYK gerechnet werden.
Irgendwie ist da alles Quatsch hier.
Es stimmt, dass du Quatsch schreibst. Der Gerätefarbraum ist eine Hardware-Eigenschaft und bei Bayer festgelegt durch die Wahl der Filterfarbstoffe und der spektralen Empfindlichkeit des Sensors. Man könnte, wenn man wollte, einen Sensor bauen, der direkt AdobeRGB ausgibt. Ohne jegliches Rechnen.

Der Gerätefarbraum bei Bayer ist idR größer als sRGB oder AdobeRGB. Deswegen benutzt man heute gerne ProPhotoRGB, der, wie der Name schon sagt, für professionelle Fotografie ausgelegt wurde.
 
demnach dürfte laut "ockham" eigentlich gar kein richtiges bild aus der kamera kommen,sondern nur ein farbgematsche,weil die einzelnen fotodioden doch nichts anderes an signalen produzieren(die auch von mir angesprochene unsaubere farbtrennung hatte skater damals versucht zu widerlegen).
Genau so ist das. Aus diesem Gematsche errät die SW dann Farben.
wie dem auch sei,schafft es sigma offensichtlich,die technischen probleme des sensors durch einen hohen rechenaufwand weitgehendst zu kompensieren.
Wie weitgehend das ist, kann jeder an den Ergebnissen erkennen.
übrig bleiben die fragen der machbarkeit eines größeren sensors oder der erhöhung der pixelmasse des jetzigen formats und eine weitere reduzierung der rauschneigung.
Größere Pixel hatten wir schon. Hat nichts gebracht.
 
Der ganz entscheidente Unterschied zu Foveon ist, dass diese RGB-Werte exakt definiert sind, d.h. die spektrale Hellempfindlichkeit als Produkt aus Filtercharakteristik und Sensorempfindlichkeit wird ganz gezielt festgelegt. Etwas, was bei Foveon überhaupt nicht geht.

na,dann ist wenigstens etwas beim bayer präzise definiert,ansonsten käme,wenn man die "normale" interpolation dazu rechnet wirklich nur käse bei raus:D

Es stimmt, dass du Quatsch schreibst.(- über geschätzte Wahrscheinlichkeiten und Tendenzen "errechnet" um nicht zu sagen geraten.)

willst du uns allen ernstens hier weiss machen,dass eine interpolation nichts mit schätzen zu tun hat?
auch wenn die besten algoryhtmen verwendet werden,bleibt es doch am schluss ein raten,bzw.wird versucht,sich der wirklichkeit möglichchst weit zu nähern,ohne diese jemals zu erreichen.
du versuchst hier eine exaktheit zu suggerieren,die es in wirklichkeit gar nicht gibt:eek:

Der Gerätefarbraum ist eine Hardware-Eigenschaft und bei Bayer festgelegt durch die Wahl der Filterfarbstoffe und der spektralen Empfindlichkeit des Sensors. Man könnte, wenn man wollte, einen Sensor bauen, der direkt AdobeRGB ausgibt. Ohne jegliches Rechnen.Wer hat dir diesen Blödsinn erzählt?

ja ja,in der theorie sieht`s beim foveon auch 100% aus.

kommt mir schon etwas merkwürdig vor,was du hier schreibst.
geben die sigma kameras jetzt rgb und srgb raus oder nicht?
wahrscheinlich wird auch das einem nur vorgelogen.
irgendwie hab ich den eindruck,dass du hier ne trollmäßige verulkung abziehst:cool:
na klar wird auch beim foveon gerechnet,ist der output deswegen schlecht?


Der Gerätefarbraum ist eine Hardware-Eigenschaft und bei Bayer festgelegt durch die Wahl der Filterfarbstoffe und der spektralen Empfindlichkeit des Sensors.

filteralgorytmen wird es beim foveon nach dem sensor geben.eine farbmatrix ist hier überflüssig,da durch die si eigenschaft eine trennung von rgb stattfindet.die sensoren beider systeme haben die gleichen physikalischen eigenschaften und aufgaben,nämlich die ankommende lichtenergie in entsprechend starke stromsignale zu wandeln.

insgesamt hab ich den eindruck,das du hier ne show abziehst und einem erzählen willst,dass ein a in wirklichkeit ein u ist.

frag ich mich,wo da dein interesse sein kann:rolleyes:

grüße
 
Zuletzt bearbeitet:
Genau so ist das. Aus diesem Gematsche errät die SW dann Farben. ...
... da wird gar nichts geraten. An der Pixelposition wird ein durch die Belichtung genau definierter Pegel gemessen, einem A/D-Wandler zugeführt und in einen digitalen Wert umgewandelt.

Blamiere Dich weiter, wenn´s Dir Spass macht. Aber mal so als
Tipp :

bevor Du hier so schwachsinnige Theorien verbreitest solltest Du vielleicht erst einmal lernen, was Elektronik, was analoge und was digitale Signalverarbeitung ist und wie eine Digitalkamera überhaupt funktioniert.
 
Der ganz entscheidente Unterschied zu Foveon ist, dass diese RGB-Werte exakt definiert sind, d.h. die spektrale Hellempfindlichkeit als Produkt aus Filtercharakteristik und Sensorempfindlichkeit wird ganz gezielt festgelegt. Etwas, was bei Foveon überhaupt nicht geht.
...und völlig überflüssig ist, weil der Foveon an jeder Pixelposition ziemlich genau den Wert der dort liegenden Farbe liefert.

Falsch! Das was Foveon liefert, hat mit RGB zunächst nichts zu tun. Das sind spektral unterschiedliche Helligkeitsinformation, die meilenweit von dem entfernt liegen, was Bayer als RGB liefert.

und eben deshalb sehr genau der Farbe an der Pixelposition entsprechen wogegen man bei Bayer erst die Farbe für die Pixelposition aus (mindestens) vier Pixeln schätzen muss.

Man könnte aus Bayer ohne Interpolation direkt ein farbiges Bild produzieren, bei Foveon muss immer gerechnet werden.
...ja - ein Rotes, ein Grünes und ein Blaues. Die Welt hat aber Gott sei Dank mehr als nur drei Farben. Müsste Dir eigentlich schon mal aufgefallen sein.


Wer hat dir diesen Blödsinn erzählt?
... irgendwann - vor langer Zeit einmal ein Professor an der Uni.

Das wird ja immer abenteuerlicher. Lies doch mal bitte ein Buch über Farbmetrik, oder schau dir wenigstens "Camera Raw with Adobe Photoshop CS3" ISBN0-321-51867-5 an. Da werden solche Fragen behandelt.
...na ja - wenn man sein Wissen aus den falschen Quellen bezieht. Jede Farbnorm im Post Processing bezieht sich auf das "fertige" vorhandene Bild, egal ob es vom Scanner, der Digitalkamera oder rein künstlerisch "digtal gemalt" ist und dient der Vereinheitlichung für die weitere Verabeitung z.B. zur Printausgabe. Was vorher im Scanner oder der Kamera passiert ist dabei sch... egal.

Es stimmt, dass du Quatsch schreibst. Der Gerätefarbraum ist eine Hardware-Eigenschaft und bei Bayer festgelegt durch die Wahl der Filterfarbstoffe und der spektralen Empfindlichkeit des Sensors.
...deswegen hatte wohl Sony auch mal versucht einen Sensor auf dem Markt zu etablieren der neben RGB auch noch Cyan und Magenta als Filter vor den Pixeln hatte ? Mach Dich doch nicht so lächerlich, der Ausgabefarbraum wird erst in der Bildverarbeitung - lange nach dem Sensor - durch den Kameraprozessor festgelegt, deshalb können die Ausgabefarbräume ja auch durch den Fotografen umgeschaltet werden. Irgendwie hast Du keine Ahnung von Bildaufnahmeelektronik.

Man könnte, wenn man wollte, einen Sensor bauen, der direkt AdobeRGB ausgibt. Ohne jegliches Rechnen.
...na dann bau mal. Vielleicht gewinnst Du damit einen Preis, wirst Millionär und kannst den dummen Ingenieuren bei Canon, Nikon, Sony, Sigma etc. endlich mal zeigen, wie man richtig Kameras baut.

Der Gerätefarbraum bei Bayer ist idR größer als sRGB oder AdobeRGB. Deswegen benutzt man heute gerne ProPhotoRGB, der, wie der Name schon sagt, für professionelle Fotografie ausgelegt wurde.
...ach so ? Der "Gerätefarbraum" ist einzig abhängig von der Software, die den Prozessor nach der Bilderfassung steuert. Sag mir mal woher z.B. die Infrarotempfindlichkeit bei der M8 resultiert, oder die UV / IR-Empfindlichkeit der Sigma-Kameras oder wie es FujiFilm schaffte eine reine IR-Kamera auf den Markt zu bringen, wenn ein Bayer-Filter bereits den Farbraum auf RGB festlegt.

Hör auf mit Deinem Blödsinn - es reicht. Wir können Dich inzwischen alle richtig einschätzen.

Gruss,

Browny.
 
Zuletzt bearbeitet:
brüll. lach....

jetzt trollt er hier also auch rum. oh gott. gerätefarbraum. ich kenne nur geräteturnen:o

ein bayersensor der also ohne interpolation rgb ausgeben kann.... :lol::lol:

oder direkt adobe rgb..... klasse! meine cam kann ECI.... komisch, in RAW kann ich das aber gar nicht einstellen? o.k. die cam ist schrott:ugly:
 
Skater schrieb:
...Bei der Weiß-Auslesung am Sensor muß Grün bereits eine Blendenstufe
und Blau 2 Blendenstufen überbelichtet sein. ...
...beinahe. Du kennst doch den physikalischen Aufbau eines Foveon-Pixels (Blau etwas kleiner als Grün < als Rot). Damit hast Du schon unterschiedliche, auf einander angepasste Pegel.
Hast recht, ich habe mich da schlecht ausgedrückt:
Es wird nicht überbelichtet, sondern die Empfindlichkeit der jeweiligen Sensoren ist entsprechend variiert,
sozusagen unterschiedliche ISOs in den jeweiligen Sensor-Etagen. :cool:

Erreicht wird das dann eben durch die Größe und Dicke der Subsensoren. :)
Die Schwierigkeit liegt mehr in der Einhaltung der (Pegel-) Empfindlichkeitsdifferenzen über den gesamten Bereich sinnvoller Belichtungswerte auf allen Pixeln.
Das ist sicher nicht gerade banal, vor allem bei monochromen Farbmotiven. :eek:

Vielleicht wird dadurch die Belichtungsmessung an den Foveons komplexer,
da eigentlich alle 3 Teilspektren gemessen und gegeneinander abgewogen werden müssen. ;)
Hinzu kommt das Schwingungs- / Dämpungsverhalten der Silicon Layer das von der Einhaltung gleicher Schichtdicke im Nanometerbereich und das daraus resultierende Resonanzverhalten über die gesamte Sensorfläche abhängig ist. Physikalisch sehr komplizierte Zusammenhänge ;).
Ab da verstehe ich Dich nicht mehr so ganz.

Die Fertigungstoleranzen, die Du glaube ich meinst, kompensiert man halt mittels Chargen-Kalibrierung,
genau wie bei jedem anderen Sensor auch. :rolleyes:

Auch Bayersensoren weisen schließlich Toleranzen auf. :evil:

Schönen Gruß
Pitt
 
@feuervogel69

Lass doch mal - er ist gerade dabei zu merken, dass das, was er bisher im WEB gelesen hat in eine andere Reihenfolge gehört.

Irgendwann kauft er sich eine Kamera und fängt an auszuprobieren, wie das alles funktioniert. Dann kommen die richtigen Fragen schon von ganz alleine.

Gruss und einen schönen Wochenanfang,

Browny.
 
...und völlig überflüssig ist, weil der Foveon an jeder Pixelposition ziemlich genau den Wert der dort liegenden Farbe liefert.

Das tut er eben nicht, auch wenn Euch das Sigma/Foveon-Marketing genau dies suggeriert und Ihr das offenbar gerne glauben wollt. Wie bereits mehrfach hier im Forum korrekt angemerkt, werden im Foveon-Sensor verschiedene Wellenlängen in verschiedenen Tiefen unterschiedlich stark absorbiert. Daraus ergibt sich, daß man durch Subtraktion rote, grüne und blaue Farbkanäle berechnen kann, mit den inheränten Problemen, daß in der tiefsten Schicht nur noch recht wenig Licht ankommt und die Fertigung des Sensors eine erhebliche Genauigkeit erfordert. Ersteres impliziert die recht hohere Empfindlichkeit des Foveon-Sensors für Rauschen und letzteres die Schwierigkeiten bei der Herstellung eines Foveon-Sensors mit höherer Auflösung und/oder größerer Fläche.

Ja, auf dem Papier ist der Foveon-Sensor ein schönes Konzept, das in der Praxis leider nicht unproblematisch ist.
 
...
Ab da verstehe ich Dich nicht mehr so ganz. ...
Licht ist doch eine elektromagnetische Schwingung deren Frequenz in einem bestimmten Bereich des gesamten Frequenzspektrums liegt (ca. 385 bis 789 Terra Hertz), mit einer Wellenlänge von ca. 780 bis 380 Nanometern. Innerhalb dieses Bereiches müssen die Atome im Kristallgitter des Siliziums angeregt werden können um überhaupt auf ein sichtbares optisches Signal zu reagieren.

Also muss die fotoempfindliche Siliziumbasis so dünn sein, dass sie in dem Bereich zumindest mit Teilen einer Schwingung (Lamda 1/2, 1/4, 1/8) oder einem geradzahligen Vielfachen der Schwingung (2, 4 ,8 Lamda) angeregt werden kann damit die Photonen eine elektrische Ladung generieren können.

Je näher ich also mit der Resonanzfrequenz meiner Siliziumschicht an die entsprechende Wellenlänge komme, um so höher wird die Elektronenausbeute, je weiter ich mich mit der Schichtdicke von der Resonanzfrequenz entferne um so höher wird die Dämpfung > um so schlechter die Elektronenausbeute > um so unempfindlicher wird mein Sensor.

Die Eindringtiefe von Licht in das Silizium hat also direkt etwas mit der Wellenlänge (Frequenz), der Kristallgitterstruktur des verwendeten Siliziums und der Dicke der Sensorschicht über die die Farbseparation erfolgt zu tun.

Eigentlich ein ganz einfacher Zusammenhang, physikalisch aber schwer zu beherrschen.

Gruss,

Browny.
 
...Daraus ergibt sich, daß man durch Subtraktion rote, grüne und blaue Farbkanäle berechnen kann, ...
...MUSS - um zu gängigen RGB-Standards, auf denen nun einmal die ganze Bildverarbeitungs-Software basiert, kompatibel zu werden.

mit den inheränten Problemen, daß in der tiefsten Schicht nur noch recht wenig Licht ankommt und die Fertigung des Sensors eine erhebliche Genauigkeit erfordert.
...da kommt nicht weniger Licht an, sondern nur noch der rote Anteil des Lichtes und der "Rotsensor" hat auch noch die grösste Sensorfläche, also die höchste Empfindlichkeit.

Ersteres impliziert die recht hohere Empfindlichkeit des Foveon-Sensors für Rauschen und letzteres die Schwierigkeiten bei der Herstellung eines Foveon-Sensors mit höherer Auflösung und/oder größerer Fläche.
...das Rauschen in einem Foveon-Pixel ist ca. 3 mal höher, als in einem einzelnen Bayer-Pixel, weil es im Gegensatz zum Bayer Pixel von 3 Photodioden erzeugt wird, wogegen ein Bayer-Pixel immer nur von einer Photodiode generiert wird (sollte leicht nachvollziehbar sein).

Ja, auf dem Papier ist der Foveon-Sensor ein schönes Konzept, das in der Praxis leider nicht unproblematisch ist.
Hat ja auch niemand gesagt, dass er unproblematisch ist. Um so höher sind die Erfolge zu bewerten, die Sigma damit erzielt, obwohl da das Ende der Fahnenstange noch lange nicht erreicht sein dürfte. Neue schnellere und leistungsfähigere Bildprozessoren werden da künftig noch Einiges mehr ermöglichen.

Gruss,

Browny.
 
holger (hmx): angenommen er liefert doch an einem gewissen punkt eine etwas andere farbe (reden wir einfach von einer farbigen wand z.b.) dann liefert aber sein nachbarpixel die gleiche farbe. in der summe erhält man zumindest ein absolut reales abbild der farbübergänge, dergestalt, daß sie dort sind, wo sie auch in natura waren.

beim bayer kann das je nach interpolation pro pixel anders aussehen (weil z.b. dünne wäscheleinen störungen verursachen, aber sie selbst nicht mehr aufgelöst werden). inder summe führt das zu mehr artefakten.

ein "sauberes" bild hat doch nix damit zu tun, daß die absoluten farbwerte hochgenau im bild genauso dargestellt werden. jeder kameraprozessor hat hier schon seine algorhytmen etc. die versuchen das ganze fotografisch sinnvoll zu gestalten.

wichtig wird diese eigenschaft beim fotografieren von strukturierten (aber mit schwachem kontrast)farbigen flächen wie wiesen, wälder, laub, felder etc.

lg matthias
 
...da kommt nicht weniger Licht an, sondern nur noch der rote Anteil des Lichtes und der "Rotsensor" hat auch noch die grösste Sensorfläche, also die höchste Empfindlichkeit.

Du mußt leider davon ausgehen, daß auch die höheren Schichten einen Teil des 'roten Anteils' des einfallenden Lichts absorbieren und dieser nicht komplett in der tiefsten Schicht ankommt. Bei der mittleren Schicht ist es ähnlich, nur geringer ausgeprägt.

...das Rauschen in einem Foveon-Pixel ist ca. 3 mal höher, als in einem einzelnen Bayer-Pixel, weil es im Gegensatz zum Bayer Pixel von 3 Photodioden erzeugt wird, wogegen ein Bayer-Pixel immer nur von einer Photodiode generiert wird (sollte leicht nachvollziehbar sein).

Da für einen Pixel im resultierenden Bild aus einem Bayer-Sensor mehrere Pixel auf dem Sensor ausgewertet werden, ist die Situation prinzipiell ähnlich. Nein, ich sehe eher das o. a. Problem als eine der wesentlichen Ursachen für die stärkere Neigung zum Rauschen beim Foveon-Sensor.

Neue schnellere und leistungsfähigere Bildprozessoren werden da künftig noch Einiges mehr ermöglichen.

Bestimmt sehe ich das jetzt vereinfacht, aber wenn Bayer-Kameras mit aktuellen Prozessoren relativ problemlos rauschfreie und detaillierte Bilder erzeugen können, dann scheint es mir nicht unbedingt zukunftsweisend, wenn der Foveon-Sensor wesentlich aufwendigere zukünftige Prozessoren benötigt.
 
holger (hmx): angenommen er liefert doch an einem gewissen punkt eine etwas andere farbe (reden wir einfach von einer farbigen wand z.b.) dann liefert aber sein nachbarpixel die gleiche farbe. in der summe erhält man zumindest ein absolut reales abbild der farbübergänge, dergestalt, daß sie dort sind, wo sie auch in natura waren.

Das ist die Stärke des Foveon-Sensors, ja.

beim bayer kann das je nach interpolation pro pixel anders aussehen (weil z.b. dünne wäscheleinen störungen verursachen, aber sie selbst nicht mehr aufgelöst werden). inder summe führt das zu mehr artefakten.

Du erhälst nicht stärkere Artefekte, sondern eine höhere Weichzeichnung sehr feiner Details. Das ist der Grund, warum ein Bayer-Sensor für eine vergleichbarere Detailauflösung wie ein Foveon-Sensor eine wesentlich höhere Zahl einfarbiger Pixel braucht - was mit heutigen Bayer-Sensor (immerhin mit bis zu 16 mp auf Crop-Sensoren) mühelos möglich ist.

ein "sauberes" bild hat doch nix damit zu tun, daß die absoluten farbwerte hochgenau im bild genauso dargestellt werden. jeder kameraprozessor hat hier schon seine algorhytmen etc. die versuchen das ganze fotografisch sinnvoll zu gestalten.

"Sauber" kann unterschiedlich definiert werden. Für mich bedeutet "sauber", daß ich auch bei langen Belichtungszeiten problemlos und ohne Rauschen fotografieren kann - und das ist für mich als Landschaftsknipser sehr wichtig (siehe etwa Anhang, 60 Sekunden Belichtungszeit). Für Dich bedeutet "sauber" offenbar, daß die übliche Weichzeichnugn von Bayer-Sensoren vermieden wird - das ist für mich persönlich so unwichtig wie für Dich vermutlich Langzeitbelichtungen der gezeigten Art.
 
Zuletzt bearbeitet:
Der ganz entscheidente Unterschied zu Foveon ist, dass diese RGB-Werte exakt definiert sind, d.h. die spektrale Hellempfindlichkeit als Produkt aus Filtercharakteristik und Sensorempfindlichkeit wird ganz gezielt festgelegt. Etwas, was bei Foveon überhaupt nicht geht.
Na, welches Rot/Grün/Blau hättest Du denn gerne. :rolleyes::evil:
Das Filtermaterial das jeweils genau 255/000/000, 000/255/000 oder 000/000/255 liefert existiert nämlich nicht.

(Ich gebe bewußt nur 8-Bit-Werte an...weniger anspruchsvoll! :evil:)

Es gibt übrigens durchaus Unterschiede zwischen Canon-, Nikon- oder Sony-Farben. :rolleyes:
Nicht alle Hersteller nutzen schließlich die gleichen Filtermaterialien. :p

RGB ist zu allererst mal ein Standard zur additiven Ausgabe von Farben z.B. am Beamer- oder Monitor,
und diese Geräte sind nie mit dem exakt richtigen Blau/Grün/Rot ausgestattet. :p

Und jetzt?
Ich sags Dir, es wird, z.B. via Kalibrierung, gerechnet! :lol::ugly:
Falsch! Das was Foveon liefert, hat mit RGB zunächst nichts zu tun. Das sind spektral unterschiedliche Helligkeitsinformation, die meilenweit von dem entfernt liegen, was Bayer als RGB liefert.
Für Dich scheint RGB ja wirklich eine heilige Kuh zu sein. :rolleyes:
Man könnte aus Bayer ohne Interpolation direkt ein farbiges Bild produzieren, bei Foveon muss immer gerechnet werden.
...
Man könnte, wenn man wollte, einen Sensor bauen, der direkt AdobeRGB ausgibt. Ohne jegliches Rechnen.
Jaja, ... aber warum macht das denn nur keiner? :rolleyes:
Der Gerätefarbraum bei Bayer ist idR größer als sRGB oder AdobeRGB. Deswegen benutzt man heute gerne ProPhotoRGB, der, wie der Name schon sagt, für professionelle Fotografie ausgelegt wurde.
... praktisch alle RAW-Formate, also auch X3F speichern 12-14-Bit-genau. :grumble:
Damit kannst Du Dir Deine Farbräume ziemlich frei aussuchen. :p

Schönen Gruß
Pitt
 
WERBUNG
Zurück
Oben Unten