• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pentax K-3 II - der Diskussionsthread

Moin Moin...

so ich habe die Tips gestern mal angewendet, jedoch keine Lösung...immer noch das gleiche Problem.

Hab die Kamera jetzt zurück geschickt, mal schauen was Pentax dazu sagt. Der Verkäufer konnte sich das nämlich auch nicht erklären.

Euch noch ein schönes Wochenende

Gruß
André
 
Pixelshift auch eingeschaltet?

Ich frage deswegen, weil du das geschrieben hast:
Zitat:
Ohne Bedienungsanleitung,das Gerät in Betrieb gesetzt,weil alles Selbsterklärend ist.
Pixelshift direkt aus der Kamera als JPG?
Oder als Pixelshift-RAW (DNG/PEF) durch einen RAW-konverter erstellt?
Wenn ja, welcher Konverter?

Nun macht mal halblang-DNG RAW PEF-Nein mache nur JPG,mir reichts.Bedienungsanleitung braucht man für die K3 2 nicht,wenn man von einer anderen Schiene kommt.Pixelshift war eingeschaltet.Das ist ja nun wirklich kein Problem.Es handelt sich ja nicht um eine Olympus.Und,jeder der eine K3 2 hat kann es ja selbst ausprobieren,mit Pixelshifting ohne Stativ zu Fotografieren.Wenn das Motiv nicht Meilenweit weg ist,ich schwöre Euch gar kein Problem.
 
Moin zusammen,

nachdem meine K5 ja etwas unrühmlich ihren Dienst immer mehr versagt muss wohl mal ein update her. Nun gibt es ja die K3 gerade mit Cash-back für unter 800€ und die K3ii liegt bei 1000.
Da ich GPS bisher nicht vermisst habe und die PSR-Funktion in meiner Praxis wohl selten Anwendung findet, lohnt sich eine K3ii dann überhaupt (für mich)?
Hat schon jemand Erfahrungen und Vergleiche mit dem Stabi- und AF-Update machen können?
Ich nutze hauptsächlich FBs (limiteds und fa50) und bin noch nicht so richtig überzeugt ob sich die fast 250€ Aufpreis für mich lohnen. Was meint ihr?

Viele grüße
Bobo
 
Ich nutze hauptsächlich FBs (limiteds und fa50) und bin noch nicht so richtig überzeugt ob sich die fast 250€ Aufpreis für mich lohnen. Was meint ihr?

Wenn es um reine (technische) Bildqualität geht (ohne Pixelshift), dann kann man m.M.n. auch "nur " zur K-3 greifen!

Hier kann man ja recht gut sehen/vergleichen, das K-3II und k-3 bei "ohne" Pixelshift die gleiche Abbildungsqualität haben:

http://www.dpreview.com/reviews/ima...x=-0.008608058608058609&y=0.28895909828366495

bzw. mit Pixelshift starke unterschiede:

http://www.dpreview.com/reviews/ima...x=-0.008608058608058609&y=0.28895909828366495
 
Moinsen,

danke für die Antwort. Ja, den Link kannte ich auch schon und die aufgrund des identischen Chips sehr sehr ähnliche Bildqualität habe ich mir schon gedacht.

Die Frage ist ja, sind die Updates im AF-C und dem Stabilisator in der Praxis tatsächlich spürbar oder ist das eher 'Marketing'?

Klar, ist PSR und Astro-tracer ein nettes Gimmick, aber die Frage ist ob (mir) das soviel Geld wert sein sollte...
Hmm... immer so schwierige Entscheidungen...

Grüße
Bobo
 
Klar, ist PSR und Astro-tracer ein nettes Gimmick, aber die Frage ist ob (mir) das soviel Geld wert sein sollte...
Hmm... immer so schwierige Entscheidungen...
Frage: kommt die KB-Pentax für dich infrage? Ich denke, die wird die Neuerungen der II im Vergleich zur K-3 mit an Bord haben (weshalb die II z.B. für mich weitgehend uninteressant ist).

Wenn nicht, halte ich die K-3 II für die grundsätzlich interessantere Option. Je nach Nutzungsprofil würde ich dann entscheiden: wenn du die Kamera lange behältst, nimm die II, dann kommt es auf die Preisdifferenz nicht großartig an. Wenn du öfter mal wechselst, ist die K-3 zu den derzeitigen Konditionen vielleicht interessanter, weil du an der in nächster Zeit kaum was verlieren wirst.
 
Auch auf die Gefahr hin das es sich um eine selten dämliche frage handelt, stelle ich sie trotzdem mal.

Thema Pixelshift.

Man schießt mit der K3 II ein Foto, dann wird der Sensor bei den kommenden 3 Fotos um jeweil einen Pixel nach links/recht unten oder oben verschoben. Das ganze wird dann Kamera-Intern (?) verrechnet und das dadurch entstandene Bild ist im Vergleich zum einfachen Foto nicht nur datentechnisch aufgebläht, sondern auch detailreicher, schärfer und rauscht wahrscheinlich auch noch weniger (optimale Bedingungen vorausgesetzt)

Ob das im Detail alles so zu 100% richtig dargestellt ist, spielt jetzt nur eine untergeordnete Rolle.

Nun zur eigentlichen Frage. Ich nehme jetzt ein einzelnes Foto aus der K3, schnippel jeweils an einer anderen Seite eine Pixelreihe ab und lege die 4 Fotos hinterher übereinander und lasse die verrechnen, entweder von einem Programm das diese Technik bereits beherrscht, oder man müsste halt noch ein kleines Tool basteln.

Ist das was völlig anderes, als dieses Pixelshift?

Gruß
Jörg
 
joergens.mi schrieb:
Du hast nicht diesselbe Information als wenn du die 4 Aufnahmen mit PS machst und somit die volle Farbinformation für jeden Pixel bekommst

Kann man so unterschreiben.
Die einzige Möglichkeit das hinzubekommen wäre das Bayer-Pattern des Sensors Pixelgenau zu kennen. Das vorausgesetzt könnte man für jeden Pixel die interpolierten Farbwerte löschen. Was man dann hat ist ein 'durchlöchertes' Bild wo aber nur 'echte' Informationen vorhanden sind.
Nun muss man 'nur' vom selben Motiv so viele Bilder mit leichten Verschiebungen (z.B. aus Hand Fotografieren) machen, dass man durch Stacking der Bilder die 'Löcher' mit 'echten' Bildinformationen füllen kann....

Ich weiß jetzt zwar nicht ob das auch nur irgendwie komfortabel ist, aber theoretisch sollte es möglich sein...:D

Greetz
Bobo
 
Ohne physische Bewegung bei der Aufnahme kann eine Stelle im Bild auf einem Bayer-Sensor erstmal nur eine Grundfarbinformation einsammeln und der Mangel an den beiden anderen kann niemals gleichwertig per Software nachträglich hinzugeraten werden kann.

Ist ein bisschen wie mit einem Menschen, der halb hinter einer Hausecke steht. Man kann zwar mit einiger Sicherheit raten, wie seine linke Hälfte ausschaut, aber das ist fehlerbehaftet (er könnte ja eine Narbe auf der anderen Gesichtshälfte haben) und führt zu einer Gleichmacherei.
Ohne den eigenen Kopf physisch zu bewegen und um die Ecke zu gucken, wird man niemals die volle Informationsdichte erhalten. Jedes spezifische Detail auf der anderen Seite geht verloren.
 
Das vorausgesetzt könnte man für jeden Pixel die interpolierten Farbwerte löschen. :D Bobo

Nette Idee, die es auch sehr gut veranschaulicht.

Obs funktioniert, den Effekt über "Loch.stacking" und zitternder Hand zu erreichen wäre mal interessant. Problem könnte sein, das auch der Messwert für den Pixel durch die Nachbarn beinflußt wird um alle symetrisch zu interpolieren.

Wenn man das auf Raw-Ebene vor der Anwendung der Bayermatrix macht, könnte es aber funktionieren.

Ein anderes Problem, beim PS weiß die Kamera die Zuordnung der 4 Bilder, beim "Loch.stacking" müsste man die Bilder noch korrekt übereinanderlegen.
 
...jupp, das Ausrichten müsste dann noch Pixelgenau erledigt werden. Sollte mit ein wenig Programmierkenntnissen anhand der Helligkeitswerte aber schon möglich sein.

Eine Andere Variante wäre das entfernen des Bayer-filters vom Chip (bzw. s/w-Chip nehmen) und das anschließende aufnehmen des selben Bilds durch drei Farbfilter. Könnte man ja ähnlich wie DLP-Beamer mit einem kleinen Filterrad erledigen... :lol:

Was ich mich dabei immer frage: wenn ich wirklich nur auf die 'echten' Pixel zugreife und dann immer 4 Pixel zu einem zusammenfüge müsste ich das selbe Ergebnis erreichen als wenn ein entsprechend schlechter auflösender Sensor (z.B. 2000x2000Px statt 4000x4000Px) eine PSR-Aufnahme macht, oder?
D.h. mit einem 2x2-Vollbilder Panorama und anschließender Skalierung (basierend auf Echt-Pixeln) müsste das selbe Ergebnis wie bei PSR rauskommen.

Oder habe ich da einen Denkfehler?

Greetz
Bobo
 
Was ich mich dabei immer frage: wenn ich wirklich nur auf die 'echten' Pixel zugreife und dann immer 4 Pixel zu einem zusammenfüge müsste ich das selbe Ergebnis erreichen als wenn ein entsprechend schlechter auflösender Sensor (z.B. 2000x2000Px statt 4000x4000Px) eine PSR-Aufnahme macht, oder?

Nein, denn das Demosaicing füllt ja nicht durch tumbes Kopieren, sondern es rät mit einer gewissen Treffergenauigkeit >0% und <100% die fehlenden Farbwerte auf den zusätzlichen Pixeln. Daher liegt die Detailauflösung eben dazwischen.
 
Nein, denn das Demosaicing füllt ja nicht durch tumbes Kopieren, sondern es rät mit einer gewissen Treffergenauigkeit >0% und <100% die fehlenden Farbwerte auf den zusätzlichen Pixeln. Daher liegt die Detailauflösung eben dazwischen.
Ja, Demosaicing tut das wohl. Demosaicing war aber auch nicht gemeint.

Die Frage war doch : Wenn ein 2x2-Pano zusammengesetzt wird, indem man vorher in den einzelnen RAW's die RGGB-Infos von 4 Pixeln zu einem RGB-Pixel verschmilzt, dann erhält man erst mal 4 RGB-Bilder mit einem Viertel der Auflösung. Nach dem Stitchen wäre man dann im Idealfall wieder bei der originalen Auflösung mit vollen RGB-Informationen pro Pixel - also wie bei PSR. Praktischerweise dürfte das schon so funktionieren, aber die klassische Kombination aus Demosaicing und Pano dürfte eine weit bessere Nettoauflösung ergeben.

mfg tc
 
Ja, Demosaicing tut das wohl. Demosaicing war aber auch nicht gemeint.

Die Frage war doch : Wenn ein 2x2-Pano zusammengesetzt wird, indem man vorher in den einzelnen RAW's die RGGB-Infos von 4 Pixeln zu einem RGB-Pixel verschmilzt,...

Aus RGGB wird doch im RAW-Konverter RGB.
Und wenn du vier nebeneinander liegende Pixel aus dem RGB-Bild nimmst, dann addieren sich letztlich die Fehler, die aus dem RAW-Konverter durch die Umwandlung von RGGB->RGB entstanden sind. Und diese fehler wirken auch, wenn du dann diese 4 Pixel mittelst.
Dadurch ergibt sich doch aber noch lange nicht der volle RGB-Umfang, der durch das Pixelshift erreicht wird.
Da kannst du mit einer Bayer-Sensor-Kamera noch so viele Panos machen, Du hast immer das Problem, das du aufgrund des RGGB-Musters rechnen musst. Und durch das Rechnen immer Rundungsfehler und Demosaicingfehler bekommst, die bei einem schon real vorhandenem RGB-Pixel aus der Kamera nicht vorkommen.

Nach dem Stitchen wäre man dann im Idealfall wieder bei der originalen Auflösung mit vollen RGB-Informationen pro Pixel

Nein, wärst du nicht, da aus RGGB im Rawkonverter RGB gemacht wird.
Zwar hast du 4 Teilpanoramabilder aber die sind alle mit dem Problem RGGB -> RAW-Konverter -> RGB belastet.
Wenn du jetzt stitchst, und das ganze dann auf "Orignalgröße" runterrechnest, hast du immer noch verkappte "RGGB/RGB-Bilder".
Und beim runterrechnen kommen dann noch Verrechnungsalgorythmen (Bikubisch/Lanczos/..) zum tragen.
 
Zuletzt bearbeitet:
Ohje, dass mit dem Bayergedönse hab ich eh nie kapiert, aber es reicht mir, wenn ich weiß das es ohne verschiebbaren Sensor nicht funktioniert, danke :)

Gruß
Jörg
 
Aus RGGB wird doch im RAW-Konverter RGB.
Warum habe ich wohl dieses eine Wort unterstrichen. Schau noch mal ins Zitat und denke darüber nach. Und ich habe sogar noch mal betont: KEIN DEMOSAICING!!! Es geht um 4:1 Verschmelzen von RGGB zu RGB unter Verlust der Auflösung. Debayering ist ja Interpolation, idealerweise ohne Auflösungsverlust (zumindest brutto).

Und wenn du vier nebeneinander liegende Pixel aus dem RGB-Bild nimmst, dann addieren sich letztlich die Fehler, die aus dem RAW-Konverter durch die Umwandlung von RGGB->RGB entstanden sind. Und diese fehler wirken auch, wenn du dann diese 4 Pixel mittelst.
Nun ja, für den vergleichbaren, endgültigen Bildausschnitt muss ich ja eine entsprechend längere Brennweite nehmen. Die Teilbilder sind also gegenüber PSR vergrößert und werden beim Verschmelzen wieder verkleinert. Da kommt dann kein zusätzlicher Fehler hinein - zumindest nicht im Vergleich.

Alles weitere deiner Ausführungen beruht auf dem Debayering - welches ja gar nicht statt finden soll. Also eine TITO-Argumentation: Trash in > trash out.

mfg tc
 
Die Frage war doch : Wenn ein 2x2-Pano zusammengesetzt wird, indem man vorher in den einzelnen RAW's die RGGB-Infos von 4 Pixeln zu einem RGB-Pixel verschmilzt, dann erhält man erst mal 4 RGB-Bilder mit einem Viertel der Auflösung. Nach dem Stitchen wäre man dann im Idealfall wieder bei der originalen Auflösung mit vollen RGB-Informationen pro Pixel - also wie bei PSR. Praktischerweise dürfte das schon so funktionieren, aber die klassische Kombination aus Demosaicing und Pano dürfte eine weit bessere Nettoauflösung ergeben.

Das ist aber in gewisser Weise eine altbekannte Trivialinformation:
Wenn ich mit hoher Brennweite Gigapixelpanoramen zusammenstitche, erhöht sich die Detailauflösung quasi beliebig.
Auf die Art und Weise liefert auch eine K10D mehr Auflösung als eine A7RII nativ.

Praktisch ginge der konkrete Ansatz schon nicht, weil man immer 3x3, also 9 Bilder bräuchte, da ein pixelgenaues Zusammenkleben der Kanten auf Stoss kaum zu erwarten wäre. Das könnte man nicht wirklich ausrichten.
 
Das ist aber in gewisser Weise eine altbekannte Trivialinformation:
Wenn ich mit hoher Brennweite Gigapixelpanoramen zusammenstitche, erhöht sich die Detailauflösung quasi beliebig.
Richtig. Ich hatte seine "Idee" deshalb auch eher so verstanden, dass man die Erhöhung der Detailauflösung auch wieder opfern kann, um dafür mehr Farbauflösung zu bekommen. So könnte man halt PSR simulieren. Sinn macht das wohl keinen, aber es wurde ja nur gefragt ob es so funktionieren kann. Und das kann es imho durchaus.

mfg tc
 
WERBUNG
Zurück
Oben Unten