Kann irgendjemand nochmal für den unbedarften mitlesenden Laien zusammenfassen um was es in diesem Thread geht und was dazu die Kernthesen sind?
Die "Messungen" im Eröffnungsbeitrag erinnern mich an Abgasmessungen bei VW... man misst mal das eine und mal das andere, aber es fehlt an Möglichkeiten, objektive Vergleiche zu ziehen. Ich meine das nicht so böse wie es sich vielleicht liest, aber ich habe trotz mehrfachen Lesens aller Beiträge keinen Schimmer, um was man hier ernsthaft diskutiert. Vielleicht (wahrscheinlich) bin ich auch einfach zu blöd.
Wenn ich einige Beiträge richtig deute, wird teilweise die Meinung vertreten, Sensoren in immer kleinere Pixel zu zerschnibbeln sei sinnlos (These 1). Zudem sei es (sehr?) problematisch, dass Pixel nicht optimal senkrecht getroffen werden (These 2).
Habe ich das soweit richtig verstanden, oder bin ich auf dem Holzweg?
Zu These 1: Mehr Pixel bedeutet in meinen Augen mehr Information, vorausgesetzt man hat genug Rechenleistung, um die größere Menge Pixel ebenso gut und schnell auszulesen. In dem Fall, dass dieses Mehr an Information nichts bringt, kann man die Informationen einfach zusammenschalten und z.B. aus 4 kleinen Pixeln wieder ein großes Pixel machen. Man hat dann nichts verloren. Es soll aber Situationen geben, in denen man die zusätzlichen Pixel gebrauchen kann, weil z.B. die Optik in einer bestimmten Blende-Brennweite-Kombination hoch genug und präzise auflöst. Bei der seit >20 Jahren vorherrschenden Geschwindigkeit, mit der sich Kapazitäten von Speichern und Leistungsfähigkeiten von Prozessoren entwickeln, sehe ich einen klaren Trend, dass sich in einigen Jahren auch Sensoren mit 48MP, 72MP, 96MP oder gar dreistelligen Megapixelzahlen etablieren, weil sich die Unmengen an Messdaten schnell genug speichern und verarbeiten lassen werden. Für irgendetwas muss es ja auch die in ein paar Jahren erschwinglichen TB-SSD-Festplatten und bis zu 2TB große SDXC-Karten geben...

*
SCNR*
In meinen Augen wird es demzufolge wahrscheinlich so sein, dass man die Kamera-Bodys für immer weniger Geld "hinterhergeschmissen" bekommt und für Optiken, die diese extremen Auflösungsqualitäten liefern, immer tiefer in die Tasche greifen muss und daher zu Recht das Argument bestehen bleibt, dass man diese hohen Megapixelzahlen nicht "braucht". Aber solange sie nicht schaden und vertretbar wenig kosten, wen störts? Bei bestem Wetter, optimaler Blende und Stativ lässt sich so vielleicht etwas mehr rauskitzeln, und in den anderen Fällen schraubt man die Auflösung eben nachträglich wieder herunter.
Diese Aussagen, die mir meine Glaskugel geflüstert hat, sind sehr provokativ und nicht besonders fundiert, darum bitte ich um Nachsicht und gerne um begründete Gegenthesen.
Zu These 2: Das Problem nicht optimal senkrecht getroffener Pixel (sofern dies problematisch ist) hat man bei jeder Auflösung mit mehr als einem Pixel pro Sensor - in der Mitte mehr, am Rand weniger. Bei kleineren Pixeln werden mittig mehr Pixel gut und am Rand mehr Pixel weniger gut getroffen... aber im Endeffekt muss doch nur der Sensor damit umgehen können? Wenn ich sehe, wie viele Pixel bei Smartphones und Kompaktkameras auf einem Haufen liegen und trotzdem vergleichsweise akzeptable Ergebnisse bringen (bessere als man aufgrund der fast nicht vorhandenen Optik und winzigen Bauform eigentlich erwarten dürfte) dann stellt sich mir die Frage, ob die DSLR-Hersteller (oder Kamerahersteller außerhalb der Smartphonesparte im Allgemeinen) einfach in der Datenerfassung immer ein paar Jahre hinterherhinken, weil die Stückzahlen viel geringer sind. Eine Kompaktkamera oder DSLR st eben kein Computer, den man außer zum Fotografieren noch zu unzähligen anderen, teils rechenintensiven Prozessen nutzt. Das ist ja auch sinnvoll. Man überlässt die Entwicklung immer schnellerer Speicher- und Prozessortechnologien den Smartphone- und PC-Entwicklern und erst wenn die Technik im Preis stark gesunken ist, wird sie auch in Kompaktkameras und DSLRs verwendet.
Eigentlich müssten Pixel von Kameras ja irgendwie "rund" sein, denn die Objektive sind ja ebenfalls rund. Gerade die schönen, kreisförmigen Unschärfe-Artefakte sind schwierig in quadratische Pixel zu pressen - je mehr Pixel man hat, desto besser lassen sich Kreise approximieren. Vielleicht wird es ja mal Prozessoren geben, die sehr kleine Pixel kreisförmig zusammenaddieren um ein besseres Rauschverhalten zu generieren?
Über fundiertes Kontra zu meinem Beitrag würde ich mich freuen... und werde den Thread als Lesezeichen abspeichern um in 20 Jahren mal die Entwicklung mit dem hier Geäußerten zu vergleichen.
