• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Neue DSLR !!! Sigma sd1

Status
Für weitere Antworten geschlossen.
Die Schichten filtern das Licht nach Farben (lesen Helligkeitswerte). Keine Absorbtion wie Sonnenlicht auf schwarzem Autolack...
 
Man stelle sich eine Fläche mit 4.650.000 Quadraten vor, winzig klein.
Diese Fläche nimmt eine Farbe, in unserem Fall blau auf.
Unter dieser ersten Fläche ist eine zweite Fläche, in diesem Fall grün.
Und es gibt eine dritte Fläche unter den beiden, die ist sagen wir mal rot.

Jetzt nimmt das kleine winzige erste Quadrat oben links auf der ersten Fläche einen Helligkeitswert von 0 (null) auf, das Quadrat darunter auch 0 und das darunter auch 0. Das System was die Infos erhält weiß von welchem Quadrat es welche Info erhalten hat und kombiniert diese zu einem Wert. So haben wir an einem Pixel auf drei Ebenen die Werte B = 0 + G = 0 + R = 0 und damit die Farbe schwarz. :)

So hatte ich das auch verstanden und deshalb ist die Aussage von Sigma : vergleichbar mit einer
Sd 15 = 8 MP Bayer
SD 1 = 30 MP Bayer
eigentlich richtig.
Die 4.65 MP von Dir für die SD 15 falsch. Es wird auch nicht erst in SPP zu 15 MP hochgerechnet sondern schon in der Kamera.
 
Wie soll das technisch funktionieren?
Sobald ein Photon von der obersten Schicht "absorbiert" wurde, ist es doch für die unteren verloren. Damit benötigt ein dreischichtiger Foveon Sensor mehr Licht als ein einschichtiger Bayersensor. Zumindest war ich bisher dieser Ansicht. Bitte um Korrektur, falls ich falsch liege. ;)

wie soll das denn gehen?? Doppelbelichtung? :D

guckst du:

FOVEON_X3_COMPARISON_1_L.JPG


jeder Layer nimmt nur die für ihn relevante Bildinformation von dem auftreffenden Lichtstrahl auf. Da Rot, Grün und blau in einem anderen Farbspektrum (und damit Wellenlängenbereich) angesiedelt sind, sind die drei Layer jeweils auf die ihnen zugeordnete Wellenlänge des Lichts abgestimmt und alssen alle anderen Farbinformationen "fast" ungehindert hindurch.
 
Die 4.65 MP von Dir für die SD 15 falsch. Es wird auch nicht erst in SPP zu 15 MP hochgerechnet sondern schon in der Kamera.

In der Kamera werden für die RAW-Dateien (Container) nur die Daten gesammelt. Die RAW-Daten enthalten alle Pixelinformationen aus den je drei Schichten, insgesamt 4.65 MP x 3 = 13.950.000 Informationssätze. Das Bild ist nur 4.65 MP groß da jeder Pixel drei Farbwerte braucht (R, G & B).
 
War für die SD15:
In der Kamera werden für die RAW-Dateien (Container) nur die Daten gesammelt. Die RAW-Daten enthalten alle Pixelinformationen aus den je drei Schichten, insgesamt 4.65 MP x 3 = 13.950.000 Informationssätze. Das Bild ist nur 4.65 MP groß da jeder Pixel drei Farbwerte braucht (R, G & B).

Bei der SD1:
Die RAW-Daten enthalten alle Pixelinformationen aus den je drei Schichten, insgesamt 15.36 MP x 3 = 46.080.000 Informationssätze. Das Bild ist nur 15.36 MP groß da jeder Pixel drei Farbwerte braucht (R, G & B).
 
wie soll das denn gehen?? Doppelbelichtung? :D


jeder Layer nimmt nur die für ihn relevante Bildinformation von dem auftreffenden Lichtstrahl auf. Da Rot, Grün und blau in einem anderen Farbspektrum (und damit Wellenlängenbereich) angesiedelt sind, sind die drei Layer jeweils auf die ihnen zugeordnete Wellenlänge des Lichts abgestimmt und alssen alle anderen Farbinformationen "fast" ungehindert hindurch.
Nicht nur Doppelbelichtung sondern X-fach Belichtung natürlich. Es wird pro Pixel während der Belichtungszeit ja nicht nur ein einziges Photon registriert, sondern eben Millionen Photonen, abhängig von der Belichtungszeit.

Und das Licht wird auch nicht so eindeutig aufgeteilt, siehe:
sensorsFoveonX3FF14.png

Es gibt also sehr großzügige Überlappungsbereiche, wie auch bei den Sensoren anderer Kameras und auch im menschlichen Auge läuft es ähnlich ab. Licht einer bestimmten Wellenlänge kann also für alle drei Layer "relevant" sein und zu Bildinfo umgewandelt werden, sofern es durch die jeweiligen Filter gelassen wird...
 
Es gibt also sehr großzügige Überlappungsbereiche, wie auch bei den Sensoren anderer Kameras und auch im menschlichen Auge läuft es ähnlich ab. Licht einer bestimmten Wellenlänge kann also für alle drei Layer "relevant" sein und zu Bildinfo umgewandelt werden, sofern es durch die jeweiligen Filter gelassen wird...

Deshalb gibt sich SIGMA so große Mühe die einzelnen Silikonschichten so gleichmäßig und passend zu machen, dass die Eigenschaften von Silikon am besten ausgenutzt werden. :)
Wenn es mal ungenauer geworden ist bei der Fertigung, dann gibt es wie bei der SD14 grün-gelbes Rauschen im Foto.
 
In der Kamera werden für die RAW-Dateien (Container) nur die Daten gesammelt. Die RAW-Daten enthalten alle Pixelinformationen aus den je drei Schichten, insgesamt 4.65 MP x 3 = 13.950.000 Informationssätze. Das Bild ist nur 4.65 MP groß da jeder Pixel drei Farbwerte braucht (R, G & B).

Jo, dann haben wir es.

Alles klar.:top:
 
Nicht nur Doppelbelichtung sondern X-fach Belichtung natürlich. Es wird pro Pixel während der Belichtungszeit ja nicht nur ein einziges Photon registriert, sondern eben Millionen Photonen, abhängig von der Belichtungszeit.

ok. Jeder Lichtstrahl enthält viele Photonen, mal mehr und mal weniger verteilt über das gesamte Lichtspektrum. Die Sonsorschichten des Foveon X3 nehmen dann je Schicht die Bildinformation auf. Deshalb braucht der Sensor aber doch nicht mehr Licht (bezogen auf die Sensorfläche) als ein vergleichbarer 15MP-Bayer-Sensor. Oder liege ich hier wieder falsch?
 
Deshalb braucht der Sensor aber doch nicht mehr Licht (bezogen auf die Sensorfläche) als ein vergleichbarer 15MP-Bayer-Sensor. Oder liege ich hier wieder falsch?

Ziel des Foveon-Sensors: Das vorhandene Licht genauso bzw. besser auszunutzen als beim Bayer-Pattern. Die Schichten und deren Trennung so gut zu machen, dass sie trotz schwindener Größe der Pixelfläche bei der SD1, möglichst genaue Daten an den Bildprozessor - der die Daten erfasst und in die RAW-Dateien presst - zu liefern.
So ergibt sich aus der genauen Erfassung der Lichtwerte je Schicht und Pixel eine von drei Informationen (RGB) um einen Pixel zu bestimmen.
 
ok. Jeder Lichtstrahl enthält viele Photonen, mal mehr und mal weniger verteilt über das gesamte Lichtspektrum. Die Sonsorschichten des Foveon X3 nehmen dann je Schicht die Bildinformation auf. Deshalb braucht der Sensor aber doch nicht mehr Licht (bezogen auf die Sensorfläche) als ein vergleichbarer 15MP-Bayer-Sensor. Oder liege ich hier wieder falsch?
Ich meine schon, dass er mehr Licht benötigt um seine Farbwerte mit derselben "Stabilität" wie ein Bayersensor zu erhalten, also derselben Anzahl an registrierten Photonen.
Grund dafür sind die weiten Überlappungsbereiche der einzelnen Farbsensoren. Ein Photon mit beispielsweise der Wellenlänge von 600 nm, könnte bereits von der blauen oder grünen Schicht absorbiert worden sein und daher gar nicht mehr die rote erreichen, obwohl es in deren Absorbtionsmaximum fallen würde.
Beim Bayersensor hingegen kann der rote Sensor jedes Photon "aufnehmen", welches seinen Filter passiert.

Bin aber auch kein Techniker und dies sind nur Vermutungen...
 
Ich meine schon, dass er mehr Licht benötigt um seine Farbwerte mit derselben "Stabilität" wie ein Bayersensor zu erhalten, also derselben Anzahl an registrierten Photonen.
Grund dafür sind die weiten Überlappungsbereiche der einzelnen Farbsensoren. Ein Photon mit beispielsweise der Wellenlänge von 600 nm, könnte bereits von der blauen oder grünen Schicht absorbiert worden sein und daher gar nicht mehr die rote erreichen, obwohl es in deren Absorbtionsmaximum fallen würde.
Beim Bayersensor hingegen kann der rote Sensor jedes Photon "aufnehmen", welches seinen Filter passiert.

aha .... viel schwieriger als die bestimmung von registrierten photonen zu verstehen, ist es ein gutes foto zu machen. ;)
 
aha .... viel schwieriger als die bestimmung von registrierten photonen zu verstehen, ist es ein gutes foto zu machen. ;)
Glaub in diesem Punkt sind sich dann wieder alle einig. ;)

Aber wenigstens gibts doch einige Spezialisten die sich solcher Fragestellungen annehmen um Kameras zu entwickeln, denn so ganz ohne Kameras wäre es noch viel schwieriger gute Fotos zu machen als es ohnehin schon ist...


Grüße
 
Bin aber auch kein Techniker und dies sind nur Vermutungen...

Mehr Reserven in den Lichtern. Das war bestimmend für den SD14 Sensor und die interne Bildverarbeitung. Der Sensor funktionierte bei mehr Licht besser, brauchte auch mehr Licht. Bei der SD15 ist scheinbar der gleiche Sensor verbaut, jedoch die Bildverarbeitung verändert worden und die Reserven in den Tiefen sind besser geworden, was zu weniger Rauschen und zu weniger/fast keinen Farbverfälschungen in den Tiefen führte.
Bei der SD1 hoffe ich auf ein ausgewogenes Verhältnis zwischen der Registrierung der Photonen in den jeweiligen Schichten und einer sehr guten Bildverarbeitung. D.h. weniger Rauschen und genauere Bilddaten trotz der Verkleinerung der Pixelfläche je Pixel.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten