Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Man stelle sich eine Fläche mit 4.650.000 Quadraten vor, winzig klein.
Diese Fläche nimmt eine Farbe, in unserem Fall blau auf.
Unter dieser ersten Fläche ist eine zweite Fläche, in diesem Fall grün.
Und es gibt eine dritte Fläche unter den beiden, die ist sagen wir mal rot.
Jetzt nimmt das kleine winzige erste Quadrat oben links auf der ersten Fläche einen Helligkeitswert von 0 (null) auf, das Quadrat darunter auch 0 und das darunter auch 0. Das System was die Infos erhält weiß von welchem Quadrat es welche Info erhalten hat und kombiniert diese zu einem Wert. So haben wir an einem Pixel auf drei Ebenen die Werte B = 0 + G = 0 + R = 0 und damit die Farbe schwarz.![]()
Wie soll das technisch funktionieren?
Sobald ein Photon von der obersten Schicht "absorbiert" wurde, ist es doch für die unteren verloren. Damit benötigt ein dreischichtiger Foveon Sensor mehr Licht als ein einschichtiger Bayersensor. Zumindest war ich bisher dieser Ansicht. Bitte um Korrektur, falls ich falsch liege.![]()
Die 4.65 MP von Dir für die SD 15 falsch. Es wird auch nicht erst in SPP zu 15 MP hochgerechnet sondern schon in der Kamera.
??? hab ich was falsch interpretiert.
In der Kamera werden für die RAW-Dateien (Container) nur die Daten gesammelt. Die RAW-Daten enthalten alle Pixelinformationen aus den je drei Schichten, insgesamt 4.65 MP x 3 = 13.950.000 Informationssätze. Das Bild ist nur 4.65 MP groß da jeder Pixel drei Farbwerte braucht (R, G & B).
Nicht nur Doppelbelichtung sondern X-fach Belichtung natürlich. Es wird pro Pixel während der Belichtungszeit ja nicht nur ein einziges Photon registriert, sondern eben Millionen Photonen, abhängig von der Belichtungszeit.wie soll das denn gehen?? Doppelbelichtung?
jeder Layer nimmt nur die für ihn relevante Bildinformation von dem auftreffenden Lichtstrahl auf. Da Rot, Grün und blau in einem anderen Farbspektrum (und damit Wellenlängenbereich) angesiedelt sind, sind die drei Layer jeweils auf die ihnen zugeordnete Wellenlänge des Lichts abgestimmt und alssen alle anderen Farbinformationen "fast" ungehindert hindurch.
Wo vermutest Du eine Fehlinterpretation? Ich kann gerade keine finden.
Es gibt also sehr großzügige Überlappungsbereiche, wie auch bei den Sensoren anderer Kameras und auch im menschlichen Auge läuft es ähnlich ab. Licht einer bestimmten Wellenlänge kann also für alle drei Layer "relevant" sein und zu Bildinfo umgewandelt werden, sofern es durch die jeweiligen Filter gelassen wird...
In der Kamera werden für die RAW-Dateien (Container) nur die Daten gesammelt. Die RAW-Daten enthalten alle Pixelinformationen aus den je drei Schichten, insgesamt 4.65 MP x 3 = 13.950.000 Informationssätze. Das Bild ist nur 4.65 MP groß da jeder Pixel drei Farbwerte braucht (R, G & B).
Nicht nur Doppelbelichtung sondern X-fach Belichtung natürlich. Es wird pro Pixel während der Belichtungszeit ja nicht nur ein einziges Photon registriert, sondern eben Millionen Photonen, abhängig von der Belichtungszeit.
Deshalb braucht der Sensor aber doch nicht mehr Licht (bezogen auf die Sensorfläche) als ein vergleichbarer 15MP-Bayer-Sensor. Oder liege ich hier wieder falsch?
Ich meine schon, dass er mehr Licht benötigt um seine Farbwerte mit derselben "Stabilität" wie ein Bayersensor zu erhalten, also derselben Anzahl an registrierten Photonen.ok. Jeder Lichtstrahl enthält viele Photonen, mal mehr und mal weniger verteilt über das gesamte Lichtspektrum. Die Sonsorschichten des Foveon X3 nehmen dann je Schicht die Bildinformation auf. Deshalb braucht der Sensor aber doch nicht mehr Licht (bezogen auf die Sensorfläche) als ein vergleichbarer 15MP-Bayer-Sensor. Oder liege ich hier wieder falsch?
Ich meine schon, dass er mehr Licht benötigt um seine Farbwerte mit derselben "Stabilität" wie ein Bayersensor zu erhalten, also derselben Anzahl an registrierten Photonen.
Grund dafür sind die weiten Überlappungsbereiche der einzelnen Farbsensoren. Ein Photon mit beispielsweise der Wellenlänge von 600 nm, könnte bereits von der blauen oder grünen Schicht absorbiert worden sein und daher gar nicht mehr die rote erreichen, obwohl es in deren Absorbtionsmaximum fallen würde.
Beim Bayersensor hingegen kann der rote Sensor jedes Photon "aufnehmen", welches seinen Filter passiert.
Glaub in diesem Punkt sind sich dann wieder alle einig.aha .... viel schwieriger als die bestimmung von registrierten photonen zu verstehen, ist es ein gutes foto zu machen.![]()
Bin aber auch kein Techniker und dies sind nur Vermutungen...
aha .... viel schwieriger als die bestimmung von registrierten photonen zu verstehen, ist es ein gutes foto zu machen.![]()
(...) so ganz ohne Kameras wäre es noch viel schwieriger gute Fotos zu machen als es ohnehin schon ist...