Es liegt definitiv am Sensor. Ein ähnliches AHA-Erlebnis kenne ich von meiner SD14.
Sigma wird oft vorgeworfen, die Megapixelangaben werbewirksam hochzurechnen. Das stimmt nur bedingt. Vor allem müßte man es allen(!) anderen Kameraherstellern erst recht vorwerfen!
Sigma multipliziert nämlich nur mit 3, alle anderen mit 4!
Wenn eine 14MP Kamera mit Bayer Sensor eben 14Mio Pixel hat, so ist dies wahr. Aber es sind dann 3,5Mio blaue, 3,5Mio rote und 7Mio grüne! Immer schön zusammengefaßt zu 1R1B2G in einer 2x2 Matrix. Eigentlich ist das also eine 3,5MP Kamera! 14MP hat das Bild nur deshalb, weil suzusagen erst nur die Helligkeitswerte jedes Pixels gerechnet werden und diese S/W-Pixel dann eingefärbt werden. Durch mathematische Tricks und Wahrscheinlichkeitsrechnung(!!) wird daraus dennoch ein annehmbares Ergebnis. Dennoch bleibt es ein Taschenspielertrick.
Ein Foveonsensor ist da eben ehrlicher. Der der SD14 hat 14Mio Pixeldioden, angeordnet in einem 4,7MP Raster! Er hat also 4,7Mio in RGB, also 4,7Mio x 3 Pixel. Diese drei liegen jedoch über- statt nebeneinander. Mathematische Taschenspielertricks sind damit also technisch nicht nötig, ja sogar gar nicht möglich. Ein Pixel kann nun aber eben sehen, was die Realität ihm bietet, ohne dass ihm sein Nachbarpixel reinquatscht, was er denn gefälligst gesehen zu haben müsste...
Ich wäre deshalb mal sehr neugierig auf einen EHRLICHEN Bayer-RAW-Konverter, der eben aus einem 14MP-Sensor einen mit 3,5MP macht, weil er die 2x2 Matrixen als Einzelpixel bewertet. Das könnte dann ähnlich scharfe Resultate erzeugen.
Womöglich ist dies aber so gar nicht machbar, und eine Kamera die dafür geeignet ist, bräuchte wohl eine Microlinse/Tiefpassfilter (oder Hochpass?) auf jedem 2x2 Raster um Moires zu vermeiden.