Das mit dem O-GPS1 (egal ob in der K-3 II eingebaut oder bei älteren Cams extern) ist eigentlich sekundär, weil du ja Tracks mit dem Smartphone oder dem Garmin aufzeichnen kannst und diese zuhause mit GeoSetter auf die Bilder anwenden kannst.
Aber dass der K-3 II-Pixelshift für die Astrofotografie nützlich sein kann (wenn du eine Teleskop-Nachführ-Vorrichtung hast!), halte ich für glaubwürdig, um mal was nettes über den Shift zu sagen

Das liegt daran, dass Software-Demosaicking ja bei Astro-Motiven (die ja nur aus winzigen Punkten und etwas verrauschten Dunkel-Hintergrund bestehen) nicht so leistungsfähig ist wie bei "normalen" Motiven, weil Software-Demosaicking ja Objekt-Kanten im Motiv ermitteln will. Die sind in Astromotiven aber nicht sehr ausgeprägt, so dass Software-Demosaicking etwas im Trüben fischt

Deshalb rechne ich für Astro durchaus auch mit einem Auflösungs-Vorteil für das Sensor-Shift-Demosaicking. Für dein Hobby ist die K-3 II somit wirklich nicht uninteressant.
Interessant könnte zudem sein, ob man das Sensor-Shifting mit GPS-Nachführung
kombinieren kann. Da bist du der richtige Mann um das mal auszuprobieren

Aber du weißt ja selbst, bei langem Tele sausen die Himmelskörper aufgrund der Erddrehung so schnell durch das Sucherbild, dass man kaum hinterhergucken kann

Wenn der Sensor sich nur aber nur um z.B. 2 mm auslenken lässt, sind kaum lange Belichtungen möglich. Für ernsthaften Einsatz kommst du um deine externe Teleskop-Nachführung nicht herum.
Oder halt nach wie vor der traditionelle Stacking-Workflow. Immerhin könnte die GPS-Nachführung die Anzahl der Stacking-Teilbilder reduzieren helfen.
Eines Sache, die allerdings in die Suppe spucken und das ganze letztlich doch noch verderben könnte, ist ja dass die Himmelsobjekte aufgrund der Luft-Thermik ziemlich wabbeln und flackern, vor allem bei Tele(skop)-Einsatz, weißt du ja als Astro-Photographer. Ob das ausreicht um das Resultat zu verderben, wird man wohl nur durch Ausprobieren untersuchen können. Vielleicht kommt man mit einem blauen Auge davon, weil ja jede der vier Teilbelichtungen lang ist, und somit einen Mittelwert des "dynamischen" Motivs bildet. Was allerdings wiederum auf Kosten der Auflösung/Schärfe geht, und damit auf Kosten des potentiellen Mehrwerts eines Hardware-Demosaicking durch Sensor-Shifting.
Für "normale" Motive werde ich aber aus dem Sensor-Shifting (den Beispielbildern) eh noch nicht schlau.
Die "ohne"-Bilder (Software-Demosaicking in der Cam) wirken unschärfer, als sie eigentlich sein dürften. Mit einem (guten) Demosaicking-Algorithmus werden keine Details verschmiert (es wird nicht über Detail-Kanten hinweg interpoliert). Die "ohne"-Bilder wirken aber regelrecht verschmiert ggü. den "mit"-Bildern.
Die "mit"-Bilder (Hardware-Demosaicking durch Sensor-Shfit) dagegen wirken auf mich schärfer als plausibel, denn es fehlt eigentlich das natürliche Anti-Aliasing auf Subpixel-Ebene durch den Mikrolinsen-Filter. Es findet also in der Cam durch den JPEG-Prozessor offenbar eine sehr smarte und gute (artefaktfreie) Nachschärfung statt? Diese Nachschärfung ist somit vielleicht die eigentliche Leistung des Verfahrens (und weniger das Demosaicking).
Daraus folgt, dass man das mit geeigneter Software aber auch so den Look hätte bewerkstelligen können. Ich habe den Verdacht, das Sensor-Shifting hat nur eine Alibi-Funktion, während die eigentliche Musik in einer neuartigen, guten Nachschärfung spielt.
Das gilt auch für vollfarb-RAWs. Früher verhinderte das Bayer-Mosaik eine "heimliche" Nachschärfung von ausgelieferten RAW-Daten. jetzt, mit Vollfarb-Pixeln, ist eine Schärfung von RAW-Dateien durch die Cam hürdenlos geworden, und daher ohne weiteres denkbar. Ich habe den Verdacht, da geht was in der Richtung ab.