• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pentax K-3 II - der Diskussionsthread

Behauptet doch niemand, dass es nicht "geht".....
.... die Frage wird nur sein, was dabei herauskommt.
Du kannst auch ein (kamerainternes) HDR aus der Hand machen, nur ist das Resultat zu 99% Scheixxe, während du vom Stativ aus wenigstens ein scharfes Bild ausgeworfen bekommst.

Bei meinen Freihand-HDR-Aufnahmen aus der K5, K5 IIs, Q7 und Q gelingen mir fast immer scharfe, knackige HDR´s.;)
 
Du kannst auch ein (kamerainternes) HDR aus der Hand machen, nur ist das Resultat zu 99% Scheixxe, während du vom Stativ aus wenigstens ein scharfes Bild ausgeworfen bekommst.

Ich glaube da besteht ein entscheidender Unterschied zwischen HDR, und PS Bildern.

Bei HDR darfst du ruhig mit der Kamera wackeln, auch Offset von mehreren Pixeln in beiden Achsen kann die Kamera gerade übereinanderlegen. Deswegen sind die HDR Bilder auch minimal kleiner, als das was man im Sucher sieht.

Bei PS-Bildern müssen die 4 Bilder von Anfang an besser als 3.6 Micrometer übereinanderliegen, damit die richtigen Pixel in den Bildern zugeordnet werden - hier werden ja keine Pixel mehr miteinander verrechnet, außer die jeweiligen Grünen Pixel. Deswegen ist Stativ und Fernauslösung eigentlich Pflicht.


Und HDR-Freihand geht problemlos, ist nur eine Frage der ruhigen Hand. Bei Nachtaufnahmen mit 30,15,7.5, 3.5, 1.75 Sekunden Belichtungszeit sollte jedem klar sein das man ein Stativ braucht.
 
Ich glaube da besteht ein entscheidender Unterschied zwischen HDR, und PS Bildern.

Bei HDR darfst du ruhig mit der Kamera wackeln, auch Offset von mehreren Pixeln in beiden Achsen kann die Kamera gerade übereinanderlegen. Deswegen sind die HDR Bilder auch minimal kleiner, als das was man im Sucher sieht.

Bei PS-Bildern müssen die 4 Bilder von Anfang an besser als 3.6 Micrometer übereinanderliegen, damit die richtigen Pixel in den Bildern zugeordnet werden...
Noch. Auch bei Incam-HDR bestand zu Beginn Stativpflicht und PSR existiert ja gerade mal in der ersten Generation. Bislang also keine entscheidenden Unterschiede.

mfg tc
 
Ich habe keine Ahnung, wie lange die Neuentwicklung eines Vollformatsensors dauert, aber vielleicht wurde diese neue Funktion zuerst in der günstigeren Variante (K-3 II) eingebaut, um solche möglichen Fehlerquellen bereits entdecken und beseitigen zu könnten. In der VF folgt dann das perfektionierte Modell, mit automatischer Ausrichtung der Einzelbilder, auch ohne Stativ. Warum?

Ich kann mir nicht vorstellen, dass ein Programmcode, der Gemeinsamkeiten in einzelnen Bilder "sucht", um dann die einzelnen Bilder korrekt ausrichten zu können, so gewaltig groß sein würde. Etwa so: Untersuche und merke dir die ersten 50 Pixel oben links in Bild 1, suche diese in den anderen Bildern 2, 3 und 4. Dann suche und merke dir die ersten 50 Pixel oben rechts in Bild 1, suche diese dann in 2, 3 und 4 usw. Natürlich würde ich als Programmierer aber nicht direkt die obersten und untersten Zeilen nehmen, da die Bilder ja verwackelt sein könnten. Also würde ich von der Mitte heraus nach außen arbeiten, etwa suche in Zeile 2500 die Pixel 1000 - 1050 heraus und merke dir die Tonwerte bzw. Helligkeiten aller Pixel. Die Wahrscheinlichkeit, dass diese Pixel in genau dieser Folge noch an anderer Stelle auftreten, ist zwar rein theoretisch vorhanden, aber doch so gering, dass es in den meisten Fällen funktionieren sollte. Bei der Geschwindigkeit heutiger Prozessoren und der bereits vorhandenen Zwischenspeichergröße, dürfte so eine "Suche" vermutlich den Bruchteil einer Sekunde dauern. Tatsächlich gehe ich sogar davon aus, dass bereits mit der K-3 II unter guten Lichtbedingungen Freihandaufnahmen inkl. PS möglich sind. Ich muss aber noch 4 Wochen sparen, bevor ich es selber testen kann :D :cool:
 
Ich kann mir nicht vorstellen, dass ein Programmcode, der Gemeinsamkeiten in einzelnen Bilder "sucht", um dann die einzelnen Bilder korrekt ausrichten zu können, so gewaltig groß sein würde. Etwa so: Untersuche und merke dir die ersten 50 Pixel oben links in Bild 1, suche diese in den anderen Bildern 2, 3 und 4.
So einfach ist es wiederum nicht, denn die Pixel sind ja nicht gleich grün, rot und blau. Unterschiede nach dem shift also die Regel und eigentlich zu erwarten - daraus kommen ja letztlich die zusätzlichen Informationen.

mfg tc
 
... und dann auf eine Dateigröße von etwa 1mb runterrechnen, um es bequem auf dem Handy oder Tablet betrachten zu können:D .

Wahrscheinlich würde man sogar da einen Unterschied merken, wenn du nicht die Datenreduktion aus einer Auflösungsreduktion generierst, sondern aus einer Komprimierung.

.... Etwa so: Untersuche und merke dir die ersten 50 Pixel oben links in Bild 1, suche diese in den anderen Bildern 2, 3 und 4. Dann suche und merke dir die ersten 50 Pixel oben rechts in Bild 1, suche diese dann in 2, 3 und 4 usw. ...

So einfach ist das nicht: Da muss man die Objektivverzeichnung auch herausrechnen und da wissen wir ja, wie lange das dauert.
 
Aus meiner Sicht kann man die ganzen "Fehler" erst mal drin lassen und die unkorrigierten Bilder matchen, denn alle 4 Bilder haben ja diesselben Fehler.

Im Gegensatz zu den oben vorgeschlagenen Ideen eine Ecke oder die Mitte
zu nehmen würde ich 3 kleinere Flächen aus den Bilder nehmen und diese matchen.

Die Lage der 3 Flächen wäre grob bei

  • * 1/4 von oben und von rechts
  • * 3/4 von oben und 1/4 von rechts
  • * 2/4 von oben und 3/4 von rechts
Durch diese Wahl müßten sich Translationen und Rotationen korrigieren lassen.

Nach dem matchen kann man jetzt die anderen Korrekturen anwenden.

Ob das aber so schnell geht wie gehofft, wage ich etwas zu bezweifeln. Denn im Gegensatz zu einem Gehirn, welches interessante Punkte/Kanten/Linien relativ einfach entdeckt, ist eine Algorythmik in Graustufen über 4 Bilder dafür nicht trivial.
 
Die Frage, die ich mir stelle, ist, ob ein Pixel Shift Bild, dass unter suboptimalen Bedingungen aufgenommen wurde und im Nachhinein korrigiert wird in der Qualität einer normalen Aufnahme überlegen ist, bei der ich keine Geisterbilder, Verwackler rausrechnen lassen muss.
 
Die Frage, die ich mir stelle, ist, ob ein Pixel Shift Bild, dass unter suboptimalen Bedingungen aufgenommen wurde und im Nachhinein korrigiert wird in der Qualität einer normalen Aufnahme überlegen ist, bei der ich keine Geisterbilder, Verwackler rausrechnen lassen muss.

Da zumindest im RAW alle 4 Bilder vorhanden sind, kann man sich das oberste oder ein beliebiges aussuchen und normal entwickeln und hat dann den normalen Qualitätsstandard. Wenn ich mir die Zeit nehme und die Bilder mit Masken überlagere kann ich mit Sicherheit immer noch ein "technisch besseres" Bild herausrechnen, bei denen es dann nur kleine "normal" entwickelte Stellen gibt. Man muss hat wissen ob man den Aufwand treiben will.
 
@ Joergens.mi Das ist natürlich ein Argument. Ich nutze öfter mal den serienbildmodus und schieße ein paar Fotos hintereinander zur Reserve, um in Nachhinein das beste rauszusuchen. Das Pixel Shiften bietet das, wie du es schon beschrieben hast, über die Hintertür.
 
Aus meiner Sicht kann man die ganzen "Fehler" erst mal drin lassen und die unkorrigierten Bilder matchen, denn alle 4 Bilder haben ja diesselben Fehler.

Im Gegensatz zu den oben vorgeschlagenen Ideen eine Ecke oder die Mitte
zu nehmen würde ich 3 kleinere Flächen aus den Bilder nehmen und diese matchen.

Die Lage der 3 Flächen wäre grob bei

  • * 1/4 von oben und von rechts
  • * 3/4 von oben und 1/4 von rechts
  • * 2/4 von oben und 3/4 von rechts
Durch diese Wahl müßten sich Translationen und Rotationen korrigieren lassen.

Nach dem matchen kann man jetzt die anderen Korrekturen anwenden.
Ich frage mich die ganze Zeit, was in Gottes Namen für Bilder ihr nach welchen Kriterien matchen wollt. Wie grundsätzliche Alignment-Strategien aussehen muss man Ricoh nicht erklären, beim HDR funktioniert das schon perfekt. Aber das rote Bild beispielsweise sieht, zumindest wenn man eine Auflösungsverbesserung auch erkennen und nutzen will, anders aus wenn man es um einen Pixelpitch versetzt. Und darum geht es beim PSR ja auch. Shifte ich aber um eine Unbekannte X kann ich ein Alignment nur auf 2px genau machen, weil das Pixel daneben garantiert die falsche Farbe hat. Dann habe ich aber keine Information gegenüber dem Debayering gewonnen.

mfg tc
 
Zuletzt bearbeitet:
Hallo

Hallo,

Ich frage mich während der ganzen Diskussion hier, warum eigentlich fest
davon ausgegangen wird, dass PixelShift nur vom Stativ aus geht.
Zumindest bei kurzen Brennweiten könnte ich mir vorstellen, dass es
auch freihand geht.

Ich habe gerade folgenden Satz bei heise gefunden:

Aufnahmen aus der Hand sind uns im Pixel-Shift-Modus ebenfalls
gelungen, allerdings braucht es dafür ein wenig Glück, optimale
Lichtbedingungen und ein ruhiges Foto-Objekt.


Immerhin. ;-)

Bis dann

R"udiger
 
...allerdings braucht es dafür ein wenig Glück, optimale Lichtbedingungen und ein ruhiges Foto-Objekt.

Die Frage die sich stellt: "Wollen wir fotografieren oder Knipsen?"

Wer fotografiert ist sich nicht zu schade auch ein Stativ aufzubauen, um aus dieser technischen Innovation das beste für seine Bilder raus zu holen.

Wer das ganze als knipsen betrachtet, wird von vornherein den Sinn und Zweck solch einen technischen Möglichkeit nicht einordnen können und "diesen modernen Firlefanz" als unnötig abtun, da man ja damit aus der Hand nicht eh wirklich gute Fotos machen kann.

"Ich hab jetzt 8x probiert den Kölner Dom um Mitternacht aus der Hand mit Pixelshift zu fotografieren! Geht gar nicht, vollkommen verwackelte/unscharfe Bilder - obwohl Pentax eine unglaubliche Schärfe beim Pixelshift versprochen hat!!!"
 
Es gibt halt auch mal Stellen, wo man einfach ein Stativ nicht aufbauen darf, oder mit reinnehmen darf usw...

So zu dem nur "Knipser-Vorwurf".
 
Es gibt noch viel mehr gute Gründe, kein Stativ zur Hand zu haben.

Ist ein zusätzliches Feature, kostet nicht extra, also was soll die ganze Diskussion? Wenn man es nicht nutzt, macht man mit der Kamera keine schlechteren Bilder als vorher. Und wenn man es nutzen will, hat man halt die Einschränkung, dass es nur mit Stativ (und ohne Wind, Bewegung etc.) sinnvoll ist.
 
Es gibt noch viel mehr gute Gründe, kein Stativ zur Hand zu haben.

Ist ein zusätzliches Feature, kostet nicht extra, also was soll die ganze Diskussion?
Ein wenig ging es darum, unter welchen Bedingungen man das Feature auch bei Freihandaufnahmen nutzen kann, und natürlich auch, welche Motivation Ricoh haben könnte/sollte PSR in diese Richtung weiter zu entwickeln.

Anschlussfrage dazu: Kann man die PSR-RAW's eigentlich auch dem InCam-Konverter aufdrücken? Gibt es dort ggfs. die Option nur eines der RAW's mit Debayering zu entwickeln?

mfg tc
 
Ein wenig ging es darum, unter welchen Bedingungen man das Feature auch bei Freihandaufnahmen nutzen kann, und natürlich auch, welche Motivation Ricoh haben könnte/sollte PSR in diese Richtung weiter zu entwickeln.

ich glaube nicht, dass das eine Frage der Motivation ist, sondern des zur zeit technisch machbaren.
Ich vermute einfach mal, das sich Pixelshift auch weiterentwickeln wird, hin zur konsequenten Nutzbarkeit aus der Hand.
Wenn es denn nicht von foveonartigen Sensoren mit der dementsprechenden Auflösung abgelöst wird.
Oder vielleicht wird es ja auch "3-Sensor-Kameras" geben, die den Strahlengang aufspalten (in R/G/B) und dann daraus ein "Voll-RGB-Komplettbild" arrangieren. Problem sollte dann aber die Kompaktheit der Kamera sein. :D
 
Sowohl die Pentax-KB noch Sony sind hier ohne konkreten Bezug zur K-3 II OffTopic, die Beiträge dazu wurden entfernt.

Ich verweise mal wieder auf die auch im Startbeitrag festgehaltenen Vorgaben.
 
Zuletzt bearbeitet:
Ich überlege, von meiner alten K10 aufzugraden auf K3 II. Ich habe jetzt nicht alle 36 Seiten dieses Threads gesichtet, daher bitte einen Hinweis, wo meine Frage vielleicht schon beantwortet wurde:

Ich mache im Wesentlichen Architektur- und Landschaftsfotos vom Stativ. Gibt es Erfahrungen oder Beispielbilder, wie z.B. fahrende Fahrzeuge oder gehende Fussgänger im Vordergrund von Gebäuden, oder fließendes Wasser oder sich bewegende Blätter mit Pixelshift abgebildet werden?

Rainer
 
WERBUNG
Zurück
Oben Unten