• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pentax K-3 II - der Diskussionsthread

Ich habe deinen Beitrag nochmal kopiert. Er passt nämlich perfekt auf die Frage, was man eigentlich für einen Nutzwert von dem Sensor-Shifting der K-3 II hat :top:

here we go:
Wann sieht man es aber? Erst wenn ich anfange Pixel zu popeln in 100%-Ansicht.
Dafür brauche ich aber so eine Kamera nicht.
Denn Ausschlaggebend ist das Ausgabemedium.
Wer lässt schon jedes (brauchbare) Foto größer als Din-A-4(3) ausbelichten?
Kaum jemand! Erst das betrachten am Monitor lässt aber den Reflex aufkommen in das Bild, welches als großes ganzes wirken sollte(!), auf Teufel komm raus hinein zu zoomen. ...

Im Museum geh ich ja auch nicht auf 5cm an den Van Gogh ran und beschwere mich, das man die Pinselstriche "so radikal" sehe!
 
Zuletzt bearbeitet:
... die Frage, was man eigentlich für einen Nutzwert von dem Sensor-Shifting der K-3 II hat :top:

Das "Sensor-Shifting" bringt doch bereits in der Betrachtung der in: http://www.imaging-resource.com/PRODS/pentax-k3-ii/pentax-k3-iiTECH2.HTM vorgestellten Vergleichsbilder der K3 II auf meinem 13"Retina-Display einen deutlich sichtbaren Qualitätssprung gegenüber denen der K3 in hinsicht Farb-, Schärfe- und Detailzeichnung. ;)
Das Handycap dabei ist nur: wann und wie kann ich schon mal Pixelshift einsetzen.
Wie hier bereits erörtert kommen ausschließlich Produkt-, Kunst- und Architekturfotografie bei statischem Verhalten und kontrolliertem Dauerlicht in Frage. Sonst lassen sich die vier Einzelbelichtungen nicht ohne störende Abbildungsfehler zusammenrechnen.
Olympus Sensorshift hat da mit ähnlichen Problemen zu kämpfen.
Trotzdem hätte ich die K3 II ganz gerne mal für genau diese Einsatzbereiche.
 
Zuletzt bearbeitet:
Im Gegensatz zu den meisten hier schreibenden, sehe ich das Pixelshift als echten Gewinn an. Wer noch keine K-3 hat und nicht unbedingt die recht einfache Klappfunzel obendrauf benötigt, findet hier doch eine grandiose Kamera. Das Pixelshift ist doch lediglich ein Zusatz, um das Optimum an Schärfe herauszukitzeln, immer dann, wenn es möglich ist. Aber auch ohne Pixelshift ist es immer noch eine tolle Kamera, wo nicht plötzlich der komplette Sensor fehlt :lol: Umsteiger von der K-3 profitieren weniger, dass will ich gar nicht abstreiten. Ich selbst habe die K-3 auch, werde mir aber dennoch die K-3 II zulegen, um zu sehen, wie sich dieses Pixelshift bei der Nachführung hinterm Teleskop schlägt. Trotz langer Belichtungszeiten bleibt dort ja der Bildausschnitt immer gleich, so dass das mit dem Pixelshift eigentlich problemlos funktionieren sollte. Ich rechne da also schon mit einem sichtbaren Qualitätssprung, eben weil ich bedingt durch die kurze Brennweite (750mm im Astrobereich sind eher "süß") die Bilder meist noch stark croppen muss. Sollte das Ganze wider erwarten nicht funktionieren, habe ich für knappe 130 Euro mehr (im Vergleich zur alten K-3 im Neukauf) einen guten Zweitbody, wo das O-GPS1 gleich eingebaut ist und ich so wenigstens die Koordinaten immer in den Exif abgelegt habe.
 
Das mit dem O-GPS1 (egal ob in der K-3 II eingebaut oder bei älteren Cams extern) ist eigentlich sekundär, weil du ja Tracks mit dem Smartphone oder dem Garmin aufzeichnen kannst und diese zuhause mit GeoSetter auf die Bilder anwenden kannst.

Aber dass der K-3 II-Pixelshift für die Astrofotografie nützlich sein kann (wenn du eine Teleskop-Nachführ-Vorrichtung hast!), halte ich für glaubwürdig, um mal was nettes über den Shift zu sagen :D Das liegt daran, dass Software-Demosaicking ja bei Astro-Motiven (die ja nur aus winzigen Punkten und etwas verrauschten Dunkel-Hintergrund bestehen) nicht so leistungsfähig ist wie bei "normalen" Motiven, weil Software-Demosaicking ja Objekt-Kanten im Motiv ermitteln will. Die sind in Astromotiven aber nicht sehr ausgeprägt, so dass Software-Demosaicking etwas im Trüben fischt ;) Deshalb rechne ich für Astro durchaus auch mit einem Auflösungs-Vorteil für das Sensor-Shift-Demosaicking. Für dein Hobby ist die K-3 II somit wirklich nicht uninteressant.

Interessant könnte zudem sein, ob man das Sensor-Shifting mit GPS-Nachführung kombinieren kann. Da bist du der richtige Mann um das mal auszuprobieren :) Aber du weißt ja selbst, bei langem Tele sausen die Himmelskörper aufgrund der Erddrehung so schnell durch das Sucherbild, dass man kaum hinterhergucken kann ;) Wenn der Sensor sich nur aber nur um z.B. 2 mm auslenken lässt, sind kaum lange Belichtungen möglich. Für ernsthaften Einsatz kommst du um deine externe Teleskop-Nachführung nicht herum.
Oder halt nach wie vor der traditionelle Stacking-Workflow. Immerhin könnte die GPS-Nachführung die Anzahl der Stacking-Teilbilder reduzieren helfen.


Eines Sache, die allerdings in die Suppe spucken und das ganze letztlich doch noch verderben könnte, ist ja dass die Himmelsobjekte aufgrund der Luft-Thermik ziemlich wabbeln und flackern, vor allem bei Tele(skop)-Einsatz, weißt du ja als Astro-Photographer. Ob das ausreicht um das Resultat zu verderben, wird man wohl nur durch Ausprobieren untersuchen können. Vielleicht kommt man mit einem blauen Auge davon, weil ja jede der vier Teilbelichtungen lang ist, und somit einen Mittelwert des "dynamischen" Motivs bildet. Was allerdings wiederum auf Kosten der Auflösung/Schärfe geht, und damit auf Kosten des potentiellen Mehrwerts eines Hardware-Demosaicking durch Sensor-Shifting.


Für "normale" Motive werde ich aber aus dem Sensor-Shifting (den Beispielbildern) eh noch nicht schlau.

Die "ohne"-Bilder (Software-Demosaicking in der Cam) wirken unschärfer, als sie eigentlich sein dürften. Mit einem (guten) Demosaicking-Algorithmus werden keine Details verschmiert (es wird nicht über Detail-Kanten hinweg interpoliert). Die "ohne"-Bilder wirken aber regelrecht verschmiert ggü. den "mit"-Bildern.

Die "mit"-Bilder (Hardware-Demosaicking durch Sensor-Shfit) dagegen wirken auf mich schärfer als plausibel, denn es fehlt eigentlich das natürliche Anti-Aliasing auf Subpixel-Ebene durch den Mikrolinsen-Filter. Es findet also in der Cam durch den JPEG-Prozessor offenbar eine sehr smarte und gute (artefaktfreie) Nachschärfung statt? Diese Nachschärfung ist somit vielleicht die eigentliche Leistung des Verfahrens (und weniger das Demosaicking).

Daraus folgt, dass man das mit geeigneter Software aber auch so den Look hätte bewerkstelligen können. Ich habe den Verdacht, das Sensor-Shifting hat nur eine Alibi-Funktion, während die eigentliche Musik in einer neuartigen, guten Nachschärfung spielt.

Das gilt auch für vollfarb-RAWs. Früher verhinderte das Bayer-Mosaik eine "heimliche" Nachschärfung von ausgelieferten RAW-Daten. jetzt, mit Vollfarb-Pixeln, ist eine Schärfung von RAW-Dateien durch die Cam hürdenlos geworden, und daher ohne weiteres denkbar. Ich habe den Verdacht, da geht was in der Richtung ab.
 
Zuletzt bearbeitet:
...
Daraus folgt, dass man das mit geeigneter Software aber auch so den Look hätte bewerkstelligen können. Ich habe den Verdacht, das Sensor-Shifting hat nur eine Alibi-Funktion, während die eigentliche Musik in einer neuartigen, guten Nachschärfung spielt.
...

Nein. Man kann sich gerne die bereits existierenden Beispiele nehmen und die ohne Pixelshift verschlimmbessern durch überschärfen.

Für mich als noch K-5 Besitzer wird die K-3II definitiv der Nachfolger. PS ist nicht das Feature für mich, aber es gibt rundherum eine Menge neues welches die Kamera sehr attraktiv macht.
 
Die "mit"-Bilder (Hardware-Demosaicking durch Sensor-Shfit) dagegen wirken auf mich schärfer als plausibel...
Schon nicht einfach für die Hersteller. Für die ewig Nörgelnden ist, statt gut genug, die nächste Stufe nach "schlecht" dann gleich "zu gut" (um wahr zu sein). Für alle anderen aber wird "sehr gut" einfach noch "besser".

mfg tc
 
Zuletzt bearbeitet:
Nein. Man kann sich gerne die bereits existierenden Beispiele nehmen und die ohne Pixelshift verschlimmbessern durch überschärfen.

Nein das geht tatsächlich nicht, weil die Auflösung der "ohne"-Bilder irgendwie kaputt-verschmiert wurde, ohne dass es dafür einen technischen Grund gibt. Vielleicht durch einen schlechten Demosaicking-Algorithmus, der es entweder nicht besser kann, oder seine Schwächen durch ein leichtes Softening verbergen will.

Vielleicht fällt sogar Adobes Demosaicking in diese Kategorie, denn Adobe gilt als weniger Auflösungserhaltend, dafür als mehr Artefakt-robust als andere Implementierungen. Denn Adobe kümmert sich mehr um professionelle Anforderungen, als um Pixelpeeper-Nerds. Bei vielen freien Implementierungen ist es genau umgekehrt ;) die sind deshalb oft schärfer aber Artefakt-riskanter. Im Grunde gilt das auch für das Sensor-Shifting als Ganzes, denn draußen ist es auch bei statischen Objekten (Gebäudefassaden) übersäht mit leichten Zippering-Artefakten (das war gut auf den Tokyo-Stadtszenen-Beispielbildern zu sehen).
Weil aufgrund der Luft-Thermik die Teilbilder oft nicht ganz deckungsgleich sind, sondern um Pixel-Bruchteile voneinander abweichen. Bei Indoor-Stilleben (wie Test-Targets) zeigt sich sowas natürlich nicht.

Ausgangspunkt für einen richtigen Vergleich müsste schon ein unverschmiertes RAW-Bild (Bayer-Mosaik) sein. Dass wäre dann mit einem guten modernen Demosaicking-Verfahren zum Vollfarb-Bild umzuwandeln. Auf das könnte man dann eine Schärfung anwenden, mit der perfekt richtigen/dezenten Dosierung, so dass es knackiger wird, ohne Artefakte zu erzeugen.

Die K-3 II wird da natürlich keine primitive Unsharp-Mask anwenden, oder das fast genauso simple Schärfen das Adobe-RAW-Converters. Vielleicht geht die K-3 II-Schärfung der Pixelshift-Bilder schon in Richtung Deconvolution (so etwas was Piccure macht) (mein Verdacht). Trotzdem eine gute Leistung von Ricoh, denn auch Deconvolution ist heikel, was Artefakt-Risiken betrifft. Vielleicht haben die irgendetwas raffiniertes "hybrides" geschaffen, was das beste aus verschiedenen Schärfungsverfahren zusammen-kombiniert? wer weiß....
 
Zuletzt bearbeitet:
Vielleicht geht die K-3 II-Schärfung der Pixelshift-Bilder schon in Richtung Deconvolution (so etwas was Piccure macht) (mein Verdacht).
Du haust wieder mal alles mögliche durcheinander. Dekonvolution wird ja kameraintern schon möglich gemacht, auch für die "normalen" Bilder ohne PSR. Beispielsweise hinter der "Diffraktionskorrektur" steckt ein Dekonvolutionsalgorithmus. Speziell für PSR-Bilder darfst du mir mal die Grundlage für entsprechende Entfaltungsoperatoren erläutern. Vielen Dank!

mfg tc
 
Das mit dem O-GPS1 weil du ja Tracks mit dem Smartphone ... und diese zuhause mit GeoSetter auf die Bilder anwenden kannst.

Daraus folgt, dass man das mit geeigneter Software aber auch so den Look hätte bewerkstelligen können. Ich habe den Verdacht, das Sensor-Shifting hat nur eine Alibi-Funktion, während die eigentliche Musik in einer neuartigen, guten Nachschärfung spielt.

Das gilt auch für vollfarb-RAWs. Früher verhinderte das Bayer-Mosaik eine "heimliche" Nachschärfung von ausgelieferten RAW-Daten. jetzt, mit Vollfarb-Pixeln, ist eine Schärfung von RAW-Dateien durch die Cam hürdenlos geworden, und daher ohne weiteres denkbar. Ich habe den Verdacht, da geht was in der Richtung ab.

Mir persönlich ist - wie ich schon mehrfach geschrieben habe -, der GPS Empfänger mit Richtung zum Objekt (das können die Externen nicht)
in der Kamera lieber als noch ne Büchse mitzuschleifen.

Du scheinst das PS - Verfahren nicht zu mögen, speziell mit deinen beiden oben angeführten Unterstellungen. Da ich viel in Kirchen und Gebäuden photographiere halte ich das für eine sinnvolle Erweiterung. Und endlich hat der Begriff 24 MPx auch eine richtige Bedeutung und es sind nicht mehr 6 MPix interpoliert auf 24 Mpix. Wenn das Verfahren funktioniert - und da gehe ich bei Pentax von aus - braucht man kein künstliches Nachschärfen mehr.

Und zu Astro und PS - ich glaube nicht das es geht beides gleichzeitig zu benutzen ist , da beide Steuerungsverfahren auf denselben Teil der Kamera zugreifen und sich damit sicher in die Quere kommen.
 
Nein das geht tatsächlich nicht, weil die Auflösung der "ohne"-Bilder irgendwie kaputt-verschmiert wurde, ohne dass es dafür einen technischen Grund gibt. Vielleicht durch einen schlechten Demosaicking-Algorithmus, der es entweder nicht besser kann, oder seine Schwächen durch ein leichtes Softening verbergen will.
....

Einige aktuelle RAW-Konverter können die PS-DNGs öffnen und zeigen ein Bild von vier an. Von dcraw gibt es eine Version von Tom Vijlbrief die PS-DNGs in 16-bit TIFF wandeln kann.
http://www.v7f.eu/public/pentax/

Ich würde mich auch darüber freuen, wenn mir jemand zeigt wie man schärfere Bilder aus der K-5 bekommt mit darktable. Vielleicht kannst du ja den Code so ändern von dt das ich mir keine neue Kamera wünsche ...
 
Wenn das Verfahren funktioniert - und da gehe ich bei Pentax von aus - braucht man kein künstliches Nachschärfen mehr.
Das ist ein Widerspruch :) denn künstliches, aber sehr hochwertiges Nachschärfen halte ich für den Kern ("das Geheimnis") des Verfahrens. Du hast insofern recht, dass man sich dann nicht mehr nachträglich selber um sowas "künstlich" bemühen muss, was für viele sicher angenehm ist, zumal auch Photoshop & co da mittlerweile nicht mehr in allem up-to-date zu sein scheint und den hochqualitativen In-Cam-Schärfungen vielleicht längst weit hinterherhinkt.

Vielleicht sollte man sich abgewöhnen, von Nachschärfung zu sprechen. Denn Nachschärfung heißt ja nur, die Schärfe-Illusion zu erhöhen, aber nur sehr indirekt und begrenzt auch die Auflösung. Während neuere Verfahren (wie die K-3 II oder auch Software wie Piccure+) ja "echt" die Microdetail-Auflösung knackiger machen, ohne Überschärfungs-Look, wie man an den Pixelshift-Bildern eigentlich gut erkennt.

Die gute Nachschärfung der Pixelshift-JPEGs (vielleicht auch von RAWs) ist wohl auch der Grund, wieso Pentax visuell eine höhere "knackigere" Auflösung zu erzielen scheint als Olympus, obwohl (nur) Olympus eigentlich technisch eine höhere Auflösung haben dürfte (da Olympus auch um halbe Pixel verschiebt).
 
Zuletzt bearbeitet:
Das ist ein Widerspruch :) denn künstliches, aber sehr hochwertiges Nachschärfen halte ich für den Kern ("das Geheimnis") des Verfahrens.
Diese Argumentation beruht also nur auf deiner recht willkürlichen Meinung? Demnach ist das kein Widerspruch, sondern du hältst es nur für einen? Wenn die feine Unterscheidung von Meinung und Fakten mal die entsprechende Beachtung fände und auch gebührend in die Formulierung einfließen würde...
 
Und zu Astro und PS - ich glaube nicht das es geht beides gleichzeitig zu benutzen ist , da beide Steuerungsverfahren auf denselben Teil der Kamera zugreifen und sich damit sicher in die Quere kommen.

Warum sollte O-GPS und PS nicht gleichzeitig funktionieren? Das O-GPS1 führt ja kontinuierlich nach, wenn der Sensor verschoben wird beginnt dann ja eine neue Teilaufnahme und die gesehenen Sterne sind immer noch die gleichen. Von daher "könnte" es schon funktionieren. Das ist mir persönlich aber egal, da ich mittlerweile bessere Technik zur Verfügung habe und schon lieber mit größeren Brennweiten arbeite, die weniger was fürs O-GPS sind.

Mir geht's rein um das Pixelshift, das O-GPS ist wegen der Koordinaten ein nettes Feature. Sicherlich ginge das mit meinem Garmin auch, was ich aber nicht immer dabei habe und beim Handy habe ich GPS meistens aus, weil es da kaum benötigt wird und nur unnötigerweise den Akku leer saugt. Außerdem müsste ich mir dann immer noch die Daten manuell zu den Fotos hinzufügen, was ich auch erreichen kann, wenn ich einfach Google anschmeiße und mir da die Koordinaten mit wenigen Klicks heraussuche. Aber warum so kompliziert, wenn es auch einfacher geht?

Bei einer "normalen" Nachführung wird das Ganze dann schon interessanter, denn lediglich der Sensor wird ja parallel verschoben, die Optik bleibt auf den gleichen Bereich ausgerichtet. Und es sind ja nicht nur winzige Punkte und verrauschter Hintergrund, sondern Galaxien und Nebel, die (je nach Optik) so groß werden können, dass sie nicht mehr komplett auf den Sensor passen. Im Endeffekt ist es (für mich vom Prinzip her) das Gleiche, als würde man heutzutage mit einer SW-Kamera aufnehmen und RGB Filter davor setzen. Das macht die K-3 II dann ja schon quasi automatisch und somit gehe ich von einem klar sichtbaren Gewinn aus. Ob dem so ist, wird sich zeigen, aber warum sollte es nicht so sein?
 
Zuletzt bearbeitet:
Einige aktuelle RAW-Konverter können die PS-DNGs öffnen und zeigen ein Bild von vier an.
Achso, das wusste ich nicht. Ich war irgendwie davon ausgegangen, dass ein einziges Vollfarb-RAW erzeugt wird (wie bei einer Sigma-Foveon-Kamera), und nicht vier getrennte Bilder in der DNG nebeneinanderstehen. Ich wusste bis dato garnicht, dass DNG ein Container für mehrere verschiedene Bilder sein kann.

Getrennte Bilder haben den Nachteil, dass die gute JPEG-Nachschärfung nicht greift, aber dafür den Vorteil, dass man verpixelte Bereiche von bewegten Objekten (Pflanzen, Autos, Menschen, Wolken, ...) mit Hilfe eines Einzelbilds ausflicken könnte. Und dies lässt Raum für zukünftige Software, die sowas vielleicht sogar automatisiert machen könnte. Wenn das passiert, wäre ein Hauptnachteil des Sensor-Shiftings schon deutlich abgemildert.

Ich würde mich auch darüber freuen, wenn mir jemand zeigt wie man schärfere Bilder aus der K-5 bekommt mit darktable. Vielleicht kannst du ja den Code so ändern von dt das ich mir keine neue Kamera wünsche ...

Dazu darf ich leider nichts sagen, da es hier immer schnell off-Topic-Anschwärzungen durch einen User gibt.
 
Zuletzt bearbeitet:
Getrennte Bilder haben den Nachteil, dass die gute JPEG-Nachschärfung nicht greift, aber dafür den Vorteil, dass man verpixelte Bereiche von bewegten Objekten (Pflanzen, Autos, Menschen, Wolken, ...) mit Hilfe eines Einzelbilds ausflicken könnte.

Entweder ich gehe hin und lasse die Kamera ein jpg berechnen und habe genau ein Bild mit einer Farbtief von 8 Bit pro Kanal oder ich speichere die Daten in RAW (PEF/DNG) , dann sind in einer Datei die 4 Bilder in 14 Bit Farbtiefe pro Kanal und es hängt vom nachfolgenden processing ab wie das mit dem Verrechnen und Degosting geht. - Das modifizierte dcRAW, vergleicht die bei Grün Bilder und alles was sich da über einen definerten Rahmen ändert wird klassisch Bayer mäßig aus dem ersten Bild gefüllt. Schon mal ein erster interessanter Ansatz eine "Amateurs".

Um es nicht zu vergessen wir können mit RAW+ natürlich raw und jpg haben. Um im Notfall läßt man Adobe an das RAW ran, dann bekommt man das erste Bild debeyert.
 
Getrennte Bilder haben den Nachteil, dass die gute JPEG-Nachschärfung nicht greift, aber dafür den Vorteil, dass man verpixelte Bereiche von bewegten Objekten (Pflanzen, Autos, Menschen, Wolken, ...) mit Hilfe eines Einzelbilds ausflicken könnte. Und dies lässt Raum für zukünftige Software, die sowas vielleicht sogar automatisiert machen könnte.
Da sind andere, wie üblich, schon deutlich weiter. Will sagen: Diese Software gibt es ja bereits.
https://www.dslr-forum.de/showthread.php?t=1580599

mfg tc
 
Pixelshift ließe sich wahrscheinlich auch sehr einfach per Firmware-upgrade in jede Pentax mit SR implementieren. Diese Möglichkeit wird Pentax allerdings aus absatzökonomischen Gründen nicht nutzen.:grumble:
 
WERBUNG
Zurück
Oben Unten