Man hat mehrere Aufnahmen eines identischen Objektes (zum Beispiel mehrere Frames eines Films) und eine Software/ein Algorythmus berechnet eine Detailreichere Variante.
Eine Detail-reichere Bildauflösung bekommst Du nur dann, wenn der Sensor
a) nicht mit starkem Antialiasing-Filter ausgestattet ist und
b) zwischen Einzelpixeln auftreffendes Licht nicht per Mikrolinsen in die aktive Fläche des Pixel projeziert werden konnte
Es gibt/gab solche Kameras, die insbesondere als Mittelformat-Digitalrückteile am Sensor einen physikalischen Pixel-shift machten und dann das endgültige Bild aus 2x2 (also vier Einzelframes) oder 3x3 (also 9 Frames) einzelnen Belichtungen bei jeweils leicht verschobenem Sensor (z.B. Piezo-gesteuert) zusammensetzten. Im Jargon hiess das dann "single shot" für einen deaktivierten Pixel-shift und "multi-shot" für die Übereinanderlagerungs-Technik.
Vorbedingung ist dann natürlich, dass das Motiv unbeweglich ist, also z.B. bei Produktaufnahmen unter Studiobedingungen, bei Reproduktionen, bei Innenarchitektur- oder reinen Gebäudeaufnahmen.
Die Technik ist heute aus der Mode gekommen, da
a) Pixelzahlen ohnehin schon mächtig gestiegen sind
b) zur Erhöhung der Empfindlichkeit i.d.R. Mikrolinsen eingesetzt werden, die den "fill factor" gen 100% treiben und
c) zur Vermeidung von ALiasing-Artefakten Lowpassfilter eingesetzt werden, die eine "Zwischenpixel-Auflösung" komplett eliminieren sollen.