• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Jetzt knipsen die mit dem Foveon-Sensor auch noch Sterne...

Eure techn. Ausführungen in allen Ehren, aber ich widme mich mal fotografisch dem Thema, wenn ich schon nicht schlafen kann. :D

EXIF-Daten sind drin, falls jemand Fragen hat.
1. Foto 90° vom Flachdach in den Himmel
2. / 3. Foto Richtung Norden mit "Horizont" :)

raymond.gif

He, die sind ja schon sehr beeindruckend. :top:
Welches Tool benutzt Du zum Entrauschen?

Ich habe zwar ein "Stand alone"- Noise Ninja,
aber ich war mit der Bedienung doch immer etwas auf dem Kriegsfuß.:rolleyes:

Ist auch schon etwas älter, vielleicht gibt es ja bessere Profile für die SD14,
als ich die für die SD10 genutzt hatte. Sind ja neuer! :D

Schönen Gruß
Pitt
 
He, die sind ja schon sehr beeindruckend. :top:
Welches Tool benutzt Du zum Entrauschen?

Ich habe zwar ein "Stand alone"- Noise Ninja,
aber ich war mit der Bedienung doch immer etwas auf dem Kriegsfuß.:rolleyes:

Ist auch schon etwas älter, vielleicht gibt es ja bessere Profile für die SD14,
als ich die für die SD10 genutzt hatte. Sind ja neuer! :D

Schönen Gruß
Pitt

Ich benutze das Noiseware-Plugin von Imagnomic mit sanften Einstellungen, so dass man auch eben ein zweites Mal drüber gehen kann.
Ich muss gestehen, dass ich in der letzten Nacht zum ersten Mal versucht habe den nächtlichen Himmel zu fotografieren. Eigentlich habe ich mir das auch schwerer vorgestellt, aber ging ja doch ganz einfach. 30sec. bei f/2.8, scharfstellen auf unendlich, Stativ drunter, auslösen und warten. ISO100 waren zu wenig, also den Rest mit ISO200. :)
Da war das auf's Hausdach steigen anstrengender. :lol:

raymond.gif
 
Ich benutze das Noiseware-Plugin von Imagnomic mit sanften Einstellungen, so dass man auch eben ein zweites Mal drüber gehen kann.
Ich muss gestehen, dass ich in der letzten Nacht zum ersten Mal versucht habe den nächtlichen Himmel zu fotografieren. Eigentlich habe ich mir das auch schwerer vorgestellt, aber ging ja doch ganz einfach. 30sec. bei f/2.8, scharfstellen auf unendlich, Stativ drunter, auslösen und warten. ISO100 waren zu wenig, also den Rest mit ISO200. :)
Da war das auf's Hausdach steigen anstrengender. :lol:

raymond.gif

Es wäre mal interessant, wenn man mal das Ganze mal mit ISO 50 und 120 Sek. vergleicht. :)
Ich habe mit im Urlaub mit ISO 50 erstaunlich rauschfreie Bilder gemacht,
in sehr dunklen Kirchen germacht, allerdings nicht mit 120 Sek. :cool:

Möglicherweise ist der Auslesestrom bei ISO 50 geringer als ab ISO 100, oder so etwas,
und das Sensoreigene thermische Rauschen ist besser unter Kontrolle.:rolleyes:

Jedenfalls war ich sehr positiv von den überrascht. :top:


Schönen Gruß
Pitt
 
Hättest Du den Thread von Anfang an gelesen, so wäre Dir sicher das Posting hier aufgefallen und das Rätsel wäre weniger groß. Darüber hinaus liegt auch hier eine Software mit der man RAW-Daten ohne das ganze Drumherum aus X3Fs extrahieren kann.
Nur weil es das Tool gibt, bedeutet das nicht, dass du es benutzt hast. Bitte versuch jetzt nicht mir einen reinzudrücken, weil du dich schlampig ausdrückst. Ein kurzer Hinweis auf die von dir verwendete Methode sollte eigentlich in einer solchen Diskussion eine Selbstverständlichkeit sein. Danke für die Aufklärung.

Zumindest kann man jetzt doch schon mal ein paar Dinge festhalten:
- in Foveon RAWs sind nicht die Roh-Informationen des Sensors gespeichert, sondern der Aufbau entspricht dem eines RGB-Bildes
- die Farbseparation könnte effektiver sein, das RAW ist sehr farbarm, daher müssen die Farben nachträglich per Software errechnet werden

Man müsste mal das gleiche Motiv bei gleichem Licht in verschiedenen ISO Stufen fotografieren und die aus den RAWs gewnnenen TIFs vergleichen. So könnte man vielleicht auch dem Farbrauschen auf die Spur kommen.

Grüße Ingo
 
Nur weil es das Tool gibt, bedeutet das nicht, dass du es benutzt hast. Bitte versuch jetzt nicht mir einen reinzudrücken, weil du dich schlampig ausdrückst. Ein kurzer Hinweis auf die von dir verwendete Methode sollte eigentlich in einer solchen Diskussion eine Selbstverständlichkeit sein. Danke für die Aufklärung.

...

Ja - Ingo,

das mag nach Deiner Auffassung richtig sein. Für mich ist die Beteiligung an einer Diskussion nur sinnvoll, wenn ich mich mit den Beiträgen der Diskussionsteilnehmer befasse. Ein gut gemeinter Hinweis, der die Diskussion auf einen gemeinsamen Level bringen kann ist für mich eine willkommene Bereicherung der Diskussion und in diesem speziellen Fall auch eine Präzisierung der Diskussionsgrundlage.

Somit ging ich davon aus, daß die hier Mitdiskutierenden sich auch mit dem Thema RAW-Datenextraktion aus X3F-Dateien und damit auch dem Posting von julianz befasst haben.

Wenn dann also von RAW-Datenextraktion die Rede ist setze ich voraus, daß man sich mit dem Thema und den Links die zur Verfügung stehen auch - wenigstens in den funktionalen Grundlagen - auseinader gesetzt hat. Anders ist eine sinnvolle Diskussion im Zusammenhang mit den RAW-Daten der X3F-Dateien nur blindes Herumraten und wenig zielführend.

Gruß,

RedFox.
 
....
- in Foveon RAWs sind nicht die Roh-Informationen des Sensors gespeichert, sondern der Aufbau entspricht dem eines RGB-Bildes
Njein, :evil:
Du hast zunächst mal recht:
RAW im Sinne von: "Die Daten wie sie der Sensor mißt" sind das ganz sicher nicht mehr, :p
aber RGB im Sinne der Norm sind das ganz sicher auch nicht. :rolleyes:

Wenn ich mal raten darf:
B = eher ins ultraviolett verschoben ---> da der obere Sensor nicht im, sondern nur auf dem Silizium liegt.

G = vermutlich tatsächlich grün, wenn auch nicht unbedingt das der Norm.

R = das dürfte am ehesten der ISO-Norm entsprechen.

Ich habe mal RedFox Bild in seine Kanäle zerlegt...
(Ich hoffe, er hat nix dagegen.:))
... und zwar einmal das direkt aus dem X3F extrahierte, ("dunkle"!) ganz links
und daneben (in der Mitte!) das normale RGB.;)

Das scheint mir meine These zu belegen.
denn bis auf den Rot-Kanal weichen die ziemlich von einander ab.:cool:
- die Farbseparation könnte effektiver sein, das RAW ist sehr farbarm, daher müssen die Farben nachträglich per Software errechnet werden
Nöh, so Farbarm ist das gar nicht.
Es wird nur in Progammen, die RGB-Norm-Farben erwarten, nicht richtig dargestellt. :rolleyes:

Die Farben müssen erst noch mit Korrekturmatrizen korrigiert werden.
Das habe aber wohl fast alle RAW-Formate gemeinsam. :rolleyes:
Man müsste mal das gleiche Motiv bei gleichem Licht in verschiedenen ISO Stufen fotografieren und die aus den RAWs gewnnenen TIFs vergleichen. So könnte man vielleicht auch dem Farbrauschen auf die Spur kommen.

Grüße Ingo

Ja, ein guter Vorschlag, leider gehe ich gerade in Arbeit unter... :o:rolleyes:

Schönen Gruß
Pitt
 
könntet Ihr bitte weiterdiskutieren,und nicht den Thread sterben lassen, ich lerne gerade TONNENWEISE.
Noch eine Frage eines "nicht-Technikers".
Wenn also aus drei verschiedenen Ebenen auch Helligkeitsinformationen ausgelesen werden können, und man dann auch noch unterschiedlicher Schichtdicke zu tun hat (sprich Empfindlichkeiten) ,lassen sich dann quasi nicht auch 3 unterschiedlich belichtete Aufnahmen aus einem Foto rausziehen und dann wieder zusammenrechnen, ergo sowas wie ein roughes HDR erzeugen?

Erklärt das vielleicht die immer recht gut durchgezeichneten Himmel bei Sigma im Vgl. zur Konkurrenz, oder ist das reine "Software Maniküre"?
 
Mal was ganz anderes:

Wenn beim Foveon das Blau dadurch entsteht, daß man auf der obersten Schicht das einfallende Licht mißt und anschließend alle Photonen, die von den beiden darunterliegenden Schichten erfaßt werden, wieder subtrahiert.....

bekäme man dann nicht aus jeder normalen X3F Datei ein echtes Schwarzweißbild, indem man einfach die R-, G- und B-Werte für jeden Pixel wieder zusammenaddiert?

Thomas

Auch das wurde nicht beantwortet, würde mich ebenfalls interessieren.

danke!
 
...nun - wenn die oberste Schicht nur von den blauen Lichtanteilen (Eindringtiefe) erregt wird und die grünen und roten Anteile diese Schicht passieren, ohne eine relevante Wirkung zu haben und die grünempfindliche Schicht sich nicht viel aus den Rotanteilen macht, wie wird sich das wohl auswirken ? Die oberste Schicht fängt ja nur die kurzwelligsten, blauen Lichtanteile ein.
 
könntet Ihr bitte weiterdiskutieren,und nicht den Thread sterben lassen, ich lerne gerade TONNENWEISE.
Noch eine Frage eines "nicht-Technikers".
Wenn also aus drei verschiedenen Ebenen auch Helligkeitsinformationen ausgelesen werden können, und man dann auch noch unterschiedlicher Schichtdicke zu tun hat (sprich Empfindlichkeiten) ,lassen sich dann quasi nicht auch 3 unterschiedlich belichtete Aufnahmen aus einem Foto rausziehen und dann wieder zusammenrechnen, ergo sowas wie ein roughes HDR erzeugen?

Erklärt das vielleicht die immer recht gut durchgezeichneten Himmel bei Sigma im Vgl. zur Konkurrenz, oder ist das reine "Software Maniküre"?

Damit arbeitet in SPP die Fill Light - Funktion.
 
könntet Ihr bitte weiterdiskutieren,und nicht den Thread sterben lassen, ich lerne gerade TONNENWEISE.
Noch eine Frage eines "nicht-Technikers".
Wenn also aus drei verschiedenen Ebenen auch Helligkeitsinformationen ausgelesen werden können, und man dann auch noch unterschiedlicher Schichtdicke zu tun hat (sprich Empfindlichkeiten) ,lassen sich dann quasi nicht auch 3 unterschiedlich belichtete Aufnahmen aus einem Foto rausziehen und dann wieder zusammenrechnen, ergo sowas wie ein roughes HDR erzeugen?
Ganz kurz gesagt: Nein. ;)

Ein echtes HDRI kannst Du aus dem Foveon nur traditionell machen,
da er nicht wirklich mehr Dynamik aufweißt, als die besseren Bayer-Sensoren.
Immerhin ist er aber nicht weit hinter dem Super-CCD von Fuji einzusortieren.
Es gab hier mal einen Thread zu dem Thema. (S5 - DP1 glaube ich). ;)

Für die unterschiedlichen Sensordicken gibt es wohl eine ganz andere,
und obendrein zweiteilige Erklärung:

1) Die Lichtmenge nimmt im Silizium ab, weshalb die Einzelsensoren darauf abgestimmt werden müssen,
da sie unterschiedlich viel Licht messen.

2) Die Information muß vertikal durch den Sensor transportiert werden,
was mit Transport-Verlusten verbunden ist, die zusätzlich,
in Form von Energie bereitzustellen sind.

Der oberste Sensor bekommt gleichzeitig die meißten Photonen ab (100%)
und hat null Verluste beim Abtransport der Ladungen.
Deshalb wird er wohl so dünn gefertigt, dass er, bis zu einem gewissen Grad,
sogar transparent ist, also ineffizient! :eek:

Der mittlere bekommt nur noch 2/3 der Photonen ab, (66%!)
muß aber noch etwa 6 Mikrometer Distanz zur Sensoroberfläche überwinden,
um seine Informationen loszuwerden.
Dafür braucht er Transportenergie, die der Sensor aus dem Licht bereitstellen muß, dass er einfängt. :)

Der unterste Sensor schließlich mißt nur noch 1/3 der Photonen-Energie (33%!)
muß aber auch noch die Transport-Energie für die vertikale Distanz von etwa 18-20 Mikrometer bereitstellen.
(Die 3-fache Strecke des Grünsensors, aber sicher mehr als 3x so viel Energie!)

Der unterste, rote Sensor muß vielleicht sogar mehr Energie für den vertikalen Datentransport einsammeln,
als er für die eigendliche Photonen-Messung reinholt. :eek:
(Ist jetzt aber nur eine These! ;))

Der ist deshalb jedenfalls noch viel größer und dicker als der Mittlere. :p

Die vertikalen Leitungen sind in den oben verlinkten Patent-Zeichnungen nicht als durchgängige Leiterbahnen dargestellt.

In der Fertigung müssen Sie Schicht für Schicht aufgetragen werden,
was sicher nicht gerade banal ist. :cool:

Sie werden vermutlich also deutlich mehr Verluste haben,
als die horizontal verlaufende Leiterbahnen, z.B. auf der Sensor-Oberfläche.

Erklärt das vielleicht die immer recht gut durchgezeichneten Himmel bei Sigma im Vgl. zur Konkurrenz, oder ist das reine "Software Maniküre"?
Die von Dir erwähnte Lichter-Toleranz des Foveon dürfte aber eher daher kommen,
dass die Entwickler bei Foveon seine Reserven so konzipiert haben.
(Vielleicht um dem Farbrauschen am dunklen Ende aus dem Weg zu gehen.)

Die SD14 kann ISO 50, alle anderen Hersteller streben lieber höhere ISO an.
Die D50 meiner Frau kann nix unter ISO 200.

Schönen Gruß
Pitt
 
argus-c3 schrieb:
Mal was ganz anderes:

Wenn beim Foveon das Blau dadurch entsteht, daß man auf der obersten Schicht das einfallende Licht mißt und anschließend alle Photonen, die von den beiden darunterliegenden Schichten erfaßt werden, wieder subtrahiert.....

bekäme man dann nicht aus jeder normalen X3F Datei ein echtes Schwarzweißbild, indem man einfach die R-, G- und B-Werte für jeden Pixel wieder zusammenaddiert?

Thomas

Auch das wurde nicht beantwortet, würde mich ebenfalls interessieren.

danke!
Doch, es wurde ein paar Beiträge danach schon von "Der Junge mit der Nikon" beantwortet: hier und hier. :top:

schönen Gruß
Pitt
 
Ich verstehe es immer noch nicht 100%ig.
Sorry.
Nochmals, können aus den 3 "Sensortiefen" auch 3 verschiedene Helligkeitwerte ausgelesen werden, gibt es also vom unterbelichteten, "körnigen" SW Wert, bis zum perfekt belichteten (oberste Schicht) Layer
verschiedene Werte die sich verrechnen lassen?
Dann hätte man doch zumindest eine "Art" mehrschicht Film mit grossem Dynamikumfang.


Hier übrigends noch was recht Interessantes:

http://www.azuzarte.com/editorial10.htm
 
Die Firma Hasselblad hatte anfangs auch Interesse am Foveon, ließ dann aber davon ab.
Im Hasselblad Magazin "Victor Art" 02/2008 kann man folgendes Interview lesen, welches die technischen Hintergründe gut dargestellt.

"Foveons X3-Sensor hat drei Fotodioden pro Pixel, die übereinander gestapelt sind. Mit einem solchen Sensor sind die DSLRs aus Sigmas SD-Serie ausgestattet, von denen die 5D14 das jüngste Modell ist, die glücklose Kompaktkamera Polaroid x530 und jetzt die DPi, wiederum ein Sigma-Modell. Trotz ihrer unstreitigen Vorzüge konnte sich Eoveons Technologie nie in größerem Umfang durchsetzen, unter anderem aufgrund ihrer nur schleppenden Weiterentwicklung: Die Sensorgröße blieb auf 20,7 x 13,8 mm beschränkt und die Pixelzahi stieg in sechsJahren von 3,4 auf lediglich 4,6 Megapixel. Auch wenn die effektive Auflösung den Vergleich mit konventionellen 8-Megapixel-Sensoren mühelos aushält, ist Foveons X3-Sensor im Megapixelrennen weit abgeschlagen. Die wirklichen Probleme dieser Technologie liegen jedoch anderswo.

Der X3-Sensor differenziert zwischen rotem, grünem und blauem Licht nach dessen unterschiedlicher Eindringtiefe in den Siliziumchip. Blau wird bereits nahe der Oberfläche absorbiert, während Grün tiefer eindringt; rotes Licht erreicht die größte Tiefe, bevor es ebenfalls verschluckt wird. Mit drei Fotodioden in unterschiedlichem Abstand von der Sensoroberfläche ist es möglich, die drei Grundfarben zu unterscheiden.

Vereinfachte Darstellungen dieser Technologie suggerieren, die drei Fotodioden würden jeweils nur blaues, grünes oder rotes Licht empfangen,

aber tatsächlich ist die Farbdifferenzierung komplizierter: Fotodiode A an der Sensoroberfläche reagiert auf alle Wellenlängen des Lichts. Rotes und grünes Licht dringt tiefer ein und wird von der mittleren Fotodiode B registriert, während zur Fotodiode C nur noch rotes Licht vordringt. Die Signale der Fotodioden entsprechen annähernd A = Rot + Grün + Blau, B = Rot + Grün und C = Rot. A - B entspricht also dem Anteil von Blau und B - C dem von Grün.
WO IST DER HAKEN?

Die ISO-Empfindlichkeit eines Sensors wird durch dessen empfindlichste Pixel bestimmt, und bei einem konventionellen CCD sind das die grünempfindlichen Pixel; die blauempfindlichen Pixel sind am wenigsten empfindlich.

Zum Ausgleich der unterschiedlichen Empfindlichkeiten müssen die Signale der weniger empfindlichen Pixel mehr verstärkt werden, und das verstärkt auch das Rauschen - aus diesem Grund hat der Blaukanal meist den schlechtesten Rauschabstand. Bei einem konventionellen Sensor sind diese Unterschiede noch recht gut beherrschbar, nicht so hingegen beim X3-Sensor. Da die erste Fotodiode alle Farben registriert, erzeugt sie ein stärkeres Signal als die dritte Fotodiode, die nur Rot registriert - selbst wenn wenn man davon ausgehen würde, dass alles rote Licht so tief eindringt. Nach der nötigen Verstärkung ist das Signal der Fotodiode C stark verrauscht, und in geringerem Maße auch das der Fotodiode B. Bei der Berechnung der Anteile von Blau und Grün müssen die Signale von A und B sowie B und C voneinander abgezogen werden, wobei die stärker verrauschten Signale auch noch die weniger verrauschten kontaminieren.

Der Rauschabstand des Sensors ist daher relativ gering, und während er bei ISO 100 sehr saubere, hoch aufgelöste Bilder ohne Interpolationsartefakte erzeugt, zeigt sich bei höheren ISO-Einstellungen ein fleckiges Rauschen im Rot- und Grünkanal.

Der X3-Sensor ist sehr komplex und daher anfällig für unvermeidliche Fehler, die im Fabrikationsprozess entstehen. Das ist vermutlich der Grund dafür, dass die Sensorgröße nicht über 20,7 x 13,8 mm hinauskommt - die Ausschussquote steigt dramatisch, wenn man die Chipfläche vergrößert. So ist es unwahrscheinlich, dass wir in absehbarer Zeit, wenn überhaupt, einen X3-Sensor im Format 48 x 36 mm sehen werden. Aber die X3-Technologie steht nicht allein da. Andere Hersteller verfolgen alternative Ansätze, die zwar noch weit von einer kommerziellen Auswertung entfernt sind, aber die Schwierigkeiten vermeiden könnten, mit denen Foveon kämpft
."

Gruß Ingo
 
Hatte ich auch gesehen-
superinteressant.
Das ist doch aber eigentlich genau das was ich spekuliere-
daß die Helligkeitwerte auch ausgelesen und verrechnet wertden können, oder?
Oder giessen die einfach nur dichroische Filter aufeinander und lesen die Werte dahinter aus, dann wärs ja eigentlich Beschiss.
6 Jahre später liegt es wohl Hassi immer noch derart auf der Leber , daß
für sie Rechtfertigungsbedarf besteht, oder wie seht Ihr das?
Das ist ja schon fast Geschäftsschädigend für Foveon, was dort preisgegeben wird.
Warum nur?

Aber back zum Topic bitte.
Danke
 
Zuletzt bearbeitet:
Die Firma Hasselblad hatte anfangs auch Interesse am Foveon, ließ dann aber davon ab.
Im Hasselblad Magazin "Victor Art" 02/2008 kann man folgendes Interview lesen, welches die technischen Hintergründe gut dargestellt.

...
Gruß Ingo

Hallo Ingo,

sehr interessant! :top:

Das bestätigt ja sogar meine Sichtweise,
nur das die schneller als ich zur Sache kommen und alles etwas kompakter erklären. :D

Hast Du auch noch einen direkten Link?
Ich finde den muß ich mir für zukünftige Diskussionen merken.;)

Schönen Gruß
Pitt
 
aber tatsächlich ist die Farbdifferenzierung komplizierter: Fotodiode A an der Sensoroberfläche reagiert auf alle Wellenlängen des Lichts. Rotes und grünes Licht dringt tiefer ein und wird von der mittleren Fotodiode B registriert, während zur Fotodiode C nur noch rotes Licht vordringt. Die Signale der Fotodioden entsprechen annähernd A = Rot + Grün + Blau, B = Rot + Grün und C = Rot. A - B entspricht also dem Anteil von Blau und B - C dem von Grün.
Diese Darstellung ist so nicht richtig. Stichwort Absorbtionstiefe in Si in Abhängigkeit der Wellenlänge (Werte gibt's im Web). Es wird eben nicht sauber nach R, G und B differenziert (wie z.B. bei Bayer-CFA) sondern das Gemisch in den einzelnen Fotodioden ist ziemlich schmutzig. Und aus diesen schmutzigen Rohdaten werden dann durch diverse Klimmzüge mittelprächtige RGB-Werte.

In dem Zusammenhang ist auch der Quellcode von dcraw interessante Lektüre. Natürlich nur für die, die sich für die wahren technischen Hintergründe interessieren.
 
Ich verstehe es immer noch nicht 100%ig.
Sorry.
Nochmals, können aus den 3 "Sensortiefen" auch 3 verschiedene Helligkeitwerte ausgelesen werden, gibt es also vom unterbelichteten, "körnigen" SW Wert, bis zum perfekt belichteten (oberste Schicht) Layer
verschiedene Werte die sich verrechnen lassen?
Dann hätte man doch zumindest eine "Art" mehrschicht Film mit grossem Dynamikumfang.


Hier übrigends noch was recht Interessantes:

http://www.azuzarte.com/editorial10.htm
Um 6 Ecken herum liegst Du mit der These richtig,
aber Du hast nicht ein so verwertbares Ergebnis wie Du es gern hättest. :evil:

Es wird nämlich nur der unterste (Rot-) Sensor "richtig" belichtet. :ugly:

Bei der Weiß-Auslesung am Sensor muß Grün bereits eine Blendenstufe
und Blau 2 Blendenstufen überbelichtet sein.

Die 3 Werte sind bei "richtiger" Belichtung, bis auf den Roten, also wertlos. :o

Wenn man an den Blauwert denn einzeln herankäme,
könnte man den als S/W-Bild benutzen,
vorausgesetzt, man belichtet mindesten 2 Blendenstufen unter. :D

(Vermutlich muß man sogar noch mehr unterbelichten,
da bei dieser Betrachtung jetzt die "Vertikaltransportverluste" im Sensor ausgeblendet sind.

Außerdem gibt es noch Unterschiede in der Betrachtung nicht weißer Motive.)

Schönen Gruß
Pitt
 
Diese Darstellung ist so nicht richtig. Stichwort Absorbtionstiefe in Si in Abhängigkeit der Wellenlänge (Werte gibt's im Web). Es wird eben nicht sauber nach R, G und B differenziert (wie z.B. bei Bayer-CFA) sondern das Gemisch in den einzelnen Fotodioden ist ziemlich schmutzig. Und aus diesen schmutzigen Rohdaten werden dann durch diverse Klimmzüge mittelprächtige RGB-Werte.

In dem Zusammenhang ist auch der Quellcode von dcraw interessante Lektüre. Natürlich nur für die, die sich für die wahren technischen Hintergründe interessieren.

Das Thema "dcraw" hatten wir schon weiter vorne.

Inzwischen ist ja wohl klar, das die in X3F gespeicherten "Roh-Daten"
nicht mehr mit den vom Sensor ausgelesenen Daten identisch sind. :rolleyes:

Das Ergebnis ist aber nicht RGB-konform,
muß also noch farbkorrigiert werden. ;)

Die meißten Bayer-RAW-Daten mögen dichter am RGB-Standard liegen,
diesem tatsächlich einhalten tun sie deshalb aber auch nicht. :rolleyes:

Nix anderes kann daher ein Programmierer von dcraw zum feststellen,
da auch er nicht wirklich an die "Original-Daten" aus dem Sensor sieht. :grumble::)

Schönen Gruß
Pitt
 
probieren wirs mal andersrum
(ich bin Berufsfotograf, also
seht mir die "nicht Engineer" Äusserungen bitte nach).

Angenommen sie lesen sowas wie einen Zwitter aus LAB Bild und YMC aus, so wäre es doch bei einem sauber ausgelesenen Helligkeitskanal wurscht, wie die Helligkeitswerte der anderen ausfallen, solange deren Farbanteil hoch ist.
Irgendwie kann ich nicht davon lassen, daß sie zu Ihren "Farbseparationen" auch ein dreischicht SW Bild zusammenbasteln, welches ziemlich gut sein muss.Es liegt einfach nahe.
ich denke die gehen über CMYK damit hätte man auch die Erklärung, daß sie mit drei Schichten vollkommen zufrieden sind.Würde wiederum auf "diochroisch"und damit preisgünstig hinauslaufen.
Dick Merrill hat in seinen theoretischen Papieren quasi ständig von der "günstigen" Herstellungsmöglichkeit des Sensors gesprochen.

Hier wurde übrigends schonmal eine ähnliche Diskussion versucht.
Allerdings etwas emotionaler geführt:

http://209.85.135.104/search?q=cach...racteristics&hl=de&ct=clnk&cd=1&client=safari
 
WERBUNG
Zurück
Oben Unten