Ja die 320 waren ein Tippfehler. Danke
Erzeugt skalieren immer Fehlpixel? Versteh ich nicht. Wenn ich ein 24MP-Bild auf 6MP skaliere indem ich immer 4 Pixel zusammenschalte, wo sind da die Fehlpixel?
Wenn ich die beispiele noch finde wo in der späten 80ern einfach nur 4 Pixel zusammengeschaltet werden (da auch nur als Beispiele), dann wirst du sowas nie haben wollen. Es gibt keine so einfach Operationen mehr. Auch bei "geraden" Skalierungen.
Bzw. meine ich, niemand setzt sie dem Kunden als
default vor.
Vier zum einen zusammengeschaltete Pixel sind ein Fehlpixel. Technisch gesehen besteht die ganze Skalierung aus Fehlpixeln. Man rechnet ja das KOMPLETTE Bild neu. Da ist nicht ein Pixel so wie es beim Original war.
Stellt man schnell fest, wenn man es wieder zurück auf die originale Größe skaliert und mit dem Original vergleicht...
Das heißt für mich, 1:1-Ansichten zu vergleichen. Ist das so gemeint? Dann finde ich die Aussage unsinnig.
Neben Quatsch, Blödsinn und Unsinn gibt es ja noch die Grundunsinnigkeit. Das ist, wenn jemand was für Unsinn erklärt und seine Meinungsäußerung damit auch endet.
Das gleiche gilt dem klaren Bescheinigen von Halbwissen (magst auch mal richtig liegen)

, auf der "von dem ich offen zugebe, nicht viel zu verstehen, von Banalitäten mal abgesehen" Basis. Da jetzt einen Sinn zu suchen, das fällt schon bisschen schwer...
Früher waren hochauflösende Sensoren extrem teuer (und langsam), da kaufte man sich eben teures Glas, wenn man bessere Bilder haben wollte. In den letzten Jahren sind hochauflösende Sensoren immer günstiger geworden (doppelte Auflösung bei gleichem Preis alle 4-5 Jahre) und Speicher (doppelte Kapazität bei gleichem Preis alle 2-3 Jahre)...
Und nu? Hatten wir doch schon. Dürftige Linsen werden in ihrer gesamten Abbildungsquali mit dichteren Sensoren nicht grundsätzlich besser. Vom Eindruck her ist es nicht selten eher umgekehrt.
Die Abbildungsfehler werden entweder
sichtbarer oder man reizt durch jene garnicht die Auflösung des Sensors aus -> Wenn man an eine 40D (man verzeiht an der Stelle) statt einem 18-55IS I den 18-55STM schnallt, meint man erstmal der Sensor hat außerhalb des Centers seine Linienauflösung nahezu verdoppelt.
Du meinst wenn du in der Landschaft mit 6km Horizontalen am Waldes Rand ein Reh erwischt, dann wird man den ganzen Frame auf 4k Glotze skaliert und mit der Nase am Schrim, mit 96MP das Geschlecht noch bestimmen können und mit 36MP wird man grad noch so erkennen können, daß es kein Elch war?
Ja viel Glück.
Diese ganze Pixelei auf dem Sensor, bis auf wenige Ausnahmen pro Generation wie die D8xx "damals", hat etwas imt Technikverliebtheit zu tun. Man hat das Hightechbody in der Hand, kennt die Daten des Gerätes -> "Boah ist das geil".
Da kommt das Objektiv, bis auf seine fortlaufend erlebbare Haptik und mechanische Eigenschaften, schnell ins Hintertreffen, was Technikgeilheit angeht.
Das Body ist Bedienung. Der Sensor ist bis auf seine harten Eckdaten (max. Auflösungsvermögen, S/N Abstand usw.) nur graue, technische Theorie. Für die Quali des Bildes ist das Objektiv verantwortlich. Für die Komposition bei der Motivwahl, wir. Das wars auch schon.
Das wichtigste nach dem Fotograf ist nachwievor die Linse. Da wird sich auch 2030 nichts dran ändern.
edit:
Wenn jeder Interpolationsalgo das alles "mit Links" erledigen würde, hätten wir auch heute noch den einen, ersten, den man in Software gegossen hat. Keine Ahnung warum man damals nicht bei dem ersten Entwurf blieb...
Andererseits ist es natürlich schwer sich über die Pixeldichtheit der Sensoren zu unterhalten, und das Pixeldenken abzulegen. Wir können mal zur Abwechslung über KFZ reden, nur bitte nicht über Autos.