Siehst du ja auf der Grafik. Der Pinke Bereich könnte noch größer sein.
Wenn Du den pinken Bereich in der Grafik im ersten Posting meinst: nein, der kann nicht größer sein, weil er sonst über den Bildkreis hinausgehen würde.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Siehst du ja auf der Grafik. Der Pinke Bereich könnte noch größer sein.
Dann ist der schwarze Bereich garnicht der Sensor? Der Rest bleibt ja ungenutzt. Und wenn man in Raw schießt hat man doch die volle Auflösung oder nicht?![]()
Was hat das jetzt mit einem Wafer zu tun? Der Kreis ist das vom Objektiv abgebildete Bild....das man ein unterschiedliches Format mit gleichem Blickwinkel wählen kann liegt doch nur daran, dass der Sensor größer ist als der Wafer (Kreis) oder?
Besser kann man's nicht ausdrückenDas Eckige muss ins Runde.![]()
Hier ist übrigens ein Vergleichstest wo auch eine verbesserte Bildqualität verglichen zur LX2 festgestellt wurde: http://www.imaging-resource.com/PRODS/LX3/LX3A.HTM
Ich benutze zwar auch 3:2 am liebsten aber was am besten ist kann man objektiv nicht sagen weil es vom Motiv abhängt. Viele Profis nutzen zB 1:1 weil man damit der Zentrum des Bildes anderes betonen kann.
Und für Panoramen die die Breite eines Motiv hervorheben sollen lohnt 16:9!
Daher würde ich das Format kreativ und dynamisch einsetzen und mich nicht auf ein Format fixieren!
Keine Ahnung - ich könnte mir aber vorstellen, dass die Sensorausbeute in der Fertigung geringer wäre - ich nehme mal an, dass Sensoren mit Fehlern in den nicht bildrelevanten Teilen dzt einfach verbaut werden - andernfalls aber ausgeschieden werden müssten - u das ist bei den aktuellen Fertigungsprozessen teuer.Sorry, ich habe jetzt hier nicht alle Beiträge nachlesen können, aber ich würde es am besten finden, im RAW-Format würde (auf Wunsch) der komplette Sensor ausgelesen. Dann könnte ich das endgültige Format doch in der EBV selbst bestimmen und die Vignettierung aufgrund der kleineren Bildkreises des Objektivs wegschneiden. Ein paar Linien im Sucher würden reichen. Was spricht dagegen?
Keine Ahnung - ich könnte mir aber vorstellen, dass die Sensorausbeute in der Fertigung geringer wäre - ich nehme mal an, dass Sensoren mit Fehlern in den nicht bildrelevanten Teilen dzt einfach verbaut werden - andernfalls aber ausgeschieden werden müssten - u das ist bei den aktuellen Fertigungsprozessen teuer.
Falls der Sensor rund ist, dann ist das schon eine recht gewaltige Fläche, die nicht genutzt wird, schätze mal so an die 50%...Interessante Idee. In der Tat wissen wir ja gar nicht, ob diese kleinen Ecken überhaupt ausgelesen werden, und was da drin ist.
Falls der Sensor rund ist, dann ist das schon eine recht gewaltige Fläche, die nicht genutzt wird, schätze mal so an die 50%...
Ich dachte nicht der in der Kamera, sondern am Wafer - hatte irgendwoher gespeichert, dass die rund angelegt werden u danach erst 'ausgeschnitten' werden, meine Erklärung hatte irgendwas mit den Anschlüssen zu tun - ist aber wohl nicht sonderlich ernst zu nehmen, weiß nicht mal mehr, wie ich da drauf gekommen binNein, natürlich ist der Sensor nicht rund.![]()
Zwischen Kaufen und Verkaufen hab ich auch schonmal fotografiert
Ich finde das von Panasonic gar nicht so unlogisch.
Im Grunde verliert die optische Abbilung in Richtung Bildkreiskante schon an Qualität. Ab Überschreiten des Bildkreises (also eure Sensorecken) dürfte sich die Bildqualität durch CAs und Vignettierung drastisch verschlechtern, bis zu dem Aussenbereich in den gar kein Licht durch das Objektiv mehr hinfällt.
Da der LX3 Sensor ungefähr ein 3:2 Format hat, die Kamera in egal welcher Formateinstellung die Ecken nie mitnutzt, werden diese optischen Fehler durch Fernbleiben von den Ecken gemieden.
Das Raw dürfte dabei wie bei den gezeigten Rahmen bis an die Kanten des Sensors gehen.
Ich bin auch sicher, das dabei die gesammte Sensorfläche ausgelesen wird und die Raws dann in der Kamera schon beschnitten abgespeichert werden.
Soviel ich weis, lässt sich auf einem CCD keine eingeschränkte Region auslesen.
In der Jpeg-Engine wird das Bild bei der Verarbeitung noch enger Beschnitten, um je nach Bildformat nur das dem 24mm Bildkreis entsprechende Sahnestück zu bekommen.
Sonst könnte es nicht sein, das man bei der RAW-Entwicklung mit DC-RAW mehr Weitwinkel hat.
Könnte man bei der LX3 den gesamten Sensor auslesen und als RAW speichern, hätte sie neben unbrauchbaren Bildecken vermutlich ein 3:2 Bild mit ca. 20 mm Brennweite.
Korrigiert mich wenn ich falsch liege.
Die Ecken existieren doch garnicht, daher werden sie auch nicht ausgelesen.
Außerhalb des Wafers ist einfach nichts mehr da. Da ist die Grafik etwas falsch. Allerdings könnte man theoretisch auch das Raw mit abgerundeten Ecken auslesen