Wollte damit nur sagen, da ist einfach ne Menge passiert, ich halte die Zahlen nicht für unmöglich, eher für "phantastisch".
Für absolut unmöglich halte ich sie auch nicht - mir kommt der Sprung von der R5 zu den genannten Leistungen nur verdammt groß vor für nur rund ein Jahr Entwicklungszeit... unglaubwürdig groß.
Die Dualpixel brächten eine höhere horizontale Auflösung, weniger Aliasing, wenn man es wollte. Niemand sagt, dass Pixel oder Sensel nur quadratisch sein dürfen.
Stimmt, das sagt niemand, und nicht-quadratische Pixel hat es natürlich auch schon gegeben.
Allerdings würde ich mal behaupten, ein Großteil der heutigen Fotos und Videos werden auf PCs, Handy, Tablets und Fernsehern wiedergegeben - und die haben quadratische Pixel.
Siehe anamorphotische Linsen oder HDV und die darauf folgende Wiedergabe.
Das anamorphotische Verfahren stammt allerdings aus der Analogzeit. Sinn macht es heute eigentlich nur noch, wenn es um die digitale Projektion geht, die Entzerrung also durch eine entsprechende Linse am Projektor erfolgt und somit die durch das Verfahren erreichte Auflösungserhöhung auch wiedergegeben werden kann.
Anamorph aufzuzeichnen, um das Video am PC zu entzerren um es im Ziel-Seitenverhältnis als 1920 bzw 4380px breites Video zu speichern, verspielt jeden Auflösungsvorteil, den man durch die Verzerrung hatte (die entsprechende Ästhetik des Aufnahmeverfahrens, das sich ja auf Bokeh, Lens Flares etc auswirkt, steht auf einem anderen Blatt).
HDV mit seinen 1440x1080 rührt für mich eher daher, dass man mit damaliger Technik ein FHD Signal mit voller Auflösung wohl einfach nicht hinbekommen hat (jedenfalls nicht im Preisrahmen von HDV). Da war 1440px anstatt 1920px halt der Kompromiss, weils am Ende immer noch besser aussah als 1280x720.
Ist jedenfalls mein Eindruck - ich hab HDV übersprungen, mag sein dass ich mich da irre.
Der Versuch, via Dualpixel zumindest den Dynamikumfang zu erhöhen, war auch nicht erfolgreich. Gleichzeitig ging die SNR runter. Das Selbe würde bei Quadpixel auch passieren, da wären es sogar 2 Blenden.
Jain... Korrigiere mich, wenn ich falsch liege, aber die SNR geht doch nur runter, weil die Pixelfläche bei getrenntem Auslesen der Dual Pixel plötzlich nur noch halb so groß ist, oder?
So gesehen hättest du natürlich recht, dass das bei Quadpixel nochmal um eine Blende schlimmer würde.
Ich denke aber, dass ist eine Frage des Blickwinkels - denn die SNR dürfte sich ja wohl kaum unterscheiden, wenn wir einen 84MP Sensor ohne Quadpixel mit einem 21MP QuadPixel-Sensor vergleichen, bei dem wir die QuadPixel einzeln auslesen, oder? Weil in beiden Fällen haben wir am Ende 84 Millionen Pixel, und bei gleichem Sensorformat haben die auch jeweils die gleiche Pixelfläche.
Ich sehe den 84MP Sensor also eher als 21MP Sensor mit QuadPixel, bei der die Kamera die Quadpixel einzeln ausliest, um ein 84MP Bild zu erzeugen.
Jedenfalls sähe ich keinen Grund, Quadpixel diesmal einzeln zu zählen.
Der Grund wäre für mich, dass man mit dem Auflösungsgewinn der DP Technik in eine Richtung im Normalfall nichts anfangen konnte, bei Quadpixel aber schon.
Im Grunde wäre es doch total bescheuert, wenn man es anders machen würde - da hat man schon einen Sensor, der jeden Pixel nochmals in 4 quadratische Subpixel unterteilt, die sich für den AF einzeln auslesen lassen. Und dann wirft man die Daten, wenn man das Foto macht, einfach weg? Und baut vielleicht noch via IBIS einen Pixel-Shift Modus dazu, um auf Wunsch ein höher aufgelöstes Bild zu produzieren, natürlich mit allen Nachteilen für bewegte Motive?
Anstatt einfach auf die Daten zurückzugreifen, die der Sensor einem schon liefert?
Ich mein, natürlich: wenn Canon der R1 einen 84MP Sensor spendiert, dessen 84 Millionen Pixel eigentlich jeweils aus einem Quadpixel bestehen, die für den AF einzeln ausgelesen werden, dann wär das schon ein Knaller. Einzig der Glaube fehlt mir irgendwie..
~ Mariosch