• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pentax K-3 II Pixel Shift: Extrem gut im Vergleich mit D810 und Oly

Zumindest bei dcraw gibt es einen ersten Support, der anscheinend ein TIFF16 daraus macht, damit kann man es dann im Raw-Entwickler seiner Wahl bearbeiten.

Siehe hier:
https://www.dslr-forum.de/showthread.php?t=1580599
 
Die Jungs von Imaging Resource haben sich mal wieder toll ins Zeug gelegt und Dutzende Vergleichsfotos zum Pixelpeepen gemacht:
http://www.imaging-resource.com/PRODS/pentax-k3-ii/pentax-k3-iiTECH2.HTM

Man kann hier sehen, dass die 24 Mpix Pixelshift Fotos aus der Pentax K-3 II APSC Kamera in genau derselben Liga spielen, wie die mFT 40 MPx Bilder aus der Oly und die 36 MPx Bilder aus der KB D810.

Alles kann sich sehen lassen.

Respekt. :top:

Man kann hier sehr gut sehen, wie man mit gleicher Sensor und Bildauflösung viel mehr Auflösung im Sinne von Schärfe und Details erzielen kann.


Fage nebenbei: wo bekommt man den geilen Belt auf
http://www.imaging-resource.com/PRODS/pentax-k3/pentax-k3A.HTM ???
Bei Pentax/Ricoh nicht zu finden...
 
Die K3 in silber kaufen, da liegt der neben dem silbernen Batteriegriff mit bei. Die Limitierten Auflagen bekommen immer einen eigenen Gurt verpasst ;)

Danke, aber für den Gurt werde ich mir das Teil nicht kaufen...schade drum
 
Frage an die Physiker unter den TN:
was ich bei dem Pixelshift Verfahren nicht verstehe: hier werden doch rote, grüne und blaue Pixel gegenseitig überlagert, also auch rot und grün. Das sind sog. Komplementär-Farben, die sich gegenseitig auslöschen, je nach angewandtem Verfahren zu schwarz oder weiß. Was bewirkt das hier? Entsteht an der Stelle ein schwarzer oder ein weißer Pixel?
 
Frage an die Physiker unter den TN:
was ich bei dem Pixelshift Verfahren nicht verstehe: hier werden doch rote, grüne und blaue Pixel gegenseitig überlagert, also auch rot und grün. Das sind sog. Komplementär-Farben, die sich gegenseitig auslöschen, je nach angewandtem Verfahren zu schwarz oder weiß. Was bewirkt das hier? Entsteht an der Stelle ein schwarzer oder ein weißer Pixel?

Was meinst du mit überlagern?

Vor dem Sensor ist eine Maske, die jedem Pixel eine feste Farbe zuordnet.
Fangen wir links oben an Pixel 1,1 ist grün, 1,2 ist rot, 2,1 ist blau und 2,2 ist grün gefiltert. Daraus werden dann 4 Pixel mit RGB Werten berechnet - es ist etwas komplizierter in der Realität von der Idee her tut das nicht zur Sache. Beim PSR geht man jetzt hin und macht vier Aufnahmen. Aufnahme 1 wie bisher, für die Aufnahme zwei wird der Sensor 1 Pixel nach links geschoben so daß der Pixel 1,2 an der Stelle 1,1 ist und eine Aufnahme gemacht. Nächster Schritt der Sensor geht einen Pixel hoch jetzt liegt der 2,2 an der Stelle 1,1 und eine Aufnahme wird gemacht und abschließend ein Pixel nach rechts jetzt liegt der 2,1 an der richtigen Stelle. Somit habe ich für die Position 1,1 jetzt 4 Aufnahmen Zwei grüne, eine rote und eine blaue, die zwei Grünen werden gemittelt und machen den 14 Bit G Wert aus, R und B werden direkt genutzt. Somit habe ich ich für den Punkt 1,1 3 14 Bit Zahlen mit den 3 Farbwerten. Das geschieht parallel für alle Pixel des Sensors.

In dem Falle ist das Bayer Pattern von Vorteil, da es regelmäßig ist, was aber im Rahmen einer Bayer Aufnahme zu Moiree führen kann, andere Firmen haben sich größere unregelmäßigere nicht repetitive Filtermuster ausgedacht um dem zu begegnen - diese Sensoren sind nicht für PSR geeignet.
 
Zuletzt bearbeitet:
was ich bei dem Pixelshift Verfahren nicht verstehe: hier werden doch rote, grüne und blaue Pixel gegenseitig überlagert, also auch rot und grün. Das sind sog. Komplementär-Farben, die sich gegenseitig auslöschen, je nach angewandtem Verfahren zu schwarz oder weiß.

Um die Farbe eines Pixels darzustellen, hast Du drei mal 8 Bit: je 8 Bit für Rot, Grün, und Blau, maximal 256 verschiedene Werte pro Farbe (2 hoch 8). Die Mischung der einzelnen Farbanteile erfolgt erst bei der Darstellung am Computer oder im Druck. Hier kann man dann zwischen additiver und subtraktiver Farbmischung unterscheiden.

Ohne PSR hast Du für jeden Pixel des Bildes erst mal nur eine Farbe gemessen --> Bayer Filter. Nimm den grünen Pixel 2,2 aus dem Beispiel von Joergens.mi. Den Grünwert hast Du gemessen, Dir fehlen Rot und Blau. Die berechnest (interpolierst) Du aus den benachberten roten und blauen Pixeln.

Mit PSR verschiebst Du die Pixel 2,1; 1,1; und 1,2 an die Stelle wo Du 2,2 gemessen hast und hast nun im Idealfall 2 Grünwerte, 1 Blau- und einen Rotwert für den gleichen Pixel.
Der Unterschied ist: Du hast diese Werte ebenfalls gemessen und musst nicht interpolieren.

MK

Edit: Ich habe beim PSR von links nach rechts, oben nach unten, dann rechts nach links verschoben - das ist bei joergens.mi anders rum. Nicht davon irritieren lassen, die Idee ist die gleiche
 
Zuletzt bearbeitet:
Um die Farbe eines Pixels darzustellen, hast Du drei mal 8 Bit: je 8 Bit für Rot, Grün, und Blau, maximal 256 verschiedene Werte pro Farbe (2 hoch 8).

Das ist so falsch, das hängt vom Bildformat ab bei pentax hat da PSR RAW 3*14
  • *.bmp 24 Bit 3*8
  • *.jpg 24 Bit 3*8
  • *.tiff wählbar 3* 8 , 3*16 und Gleitkomma 3*96
  • *.png wählbar 3*8 und 2*16
  • *.hdr Radiance 3*32 (für HDR)
  • *.pfm Gleitkomma 3*96 (für HDR)
  • *.exr Gleitkomm 3*48 (für HDR)
  • RAW-Formate Herstellerabhängig 3*8, 3*10, 3*12, 3*14, größere Farbtiefen sind mir zur Zeit nicht bekannt
 
Das ist so falsch, das hängt vom Bildformat ab bei pentax hat da PSR RAW 3*14

Das gebräuchlichste Bildformat ist Jpeg und die gebräuchlichste Ausgabe ist 8bit Ausgabe auf Monitoren und da sind die Farben nun mal mit 3x 8 bit kodiert. Ich habe keinen Anspruch auf Vollständigkeit erhoben und um die Frage von Ranchero zu beantworten ist das Format komplett unwichtig.

MK
 
Das gebräuchlichste Bildformat ist Jpeg und die gebräuchlichste Ausgabe ist 8bit Ausgabe auf Monitoren und da sind die Farben nun mal mit 3x 8 bit kodiert. Ich habe keinen Anspruch auf Vollständigkeit erhoben und um die Frage von Ranchero zu beantworten ist das Format komplett unwichtig.

MK

Für die Frage von Ranchero hätte das sogar ausgereicht, das stimmt - ist aber ein bisschen verwirrend, weil ich ein paar Zeilen von 3*14 Bit geschrieben hatte. Außerdem wäre einen halben Meter tiefer im thread von irgendeinem die Diskussion aufgekommen dass Pentax bei PSR nur 8 Bit aufzeichnet und die Aufnahmen deswegen nichts taugen können. Dass du keinen Anspruch auf Vollständigkeit erhoben hast, weist du, aber andere Mitleser sehen das nicht unbedingt.

Und in welcher Reihenfolge die vier Bilder aufgenommen werden, weiss im Moment nur Pentax allein und wie MK schreibt ist die Reihenfolge völlig egal.
 
Zuletzt bearbeitet:
Das alles sagt noch nichts darüber aus, wie gut das in der Landschaft funktioniert. z.B. weit wntfernte Wiese. Hier geht es nicht mehr drum, jedenHalm einzeln abzubilden wie er war, sondern glaubwürdige Struktur drinnen, oder einfach nur grüner Matsch? Bei Olympus gibt es da bei den Beispielen, die ich bisher sah, stellenweise mehr Details, stellenweise auch nur Matsch. Das Problem ist halt, dass sich das bewegt zwischen den Einzelaufnahmen. Ich hab die Vermutung, dass hier ein höher auflösender Bayer Sensor (40 oder 50 MP) oder eben der Foveon im Vorteil sind.
 
Und in welcher Reihenfolge die vier Bilder aufgenommen werden, weiss im Moment nur Pentax allein und wie MK schreibt ist die Reihenfolge völlig egal.
Nun ja, die Reihenfolge hängt ja logischerweise primär davon ab, welches CFA zuerst vor dem betrachteten Pixel im Bild steht. Zwangsläufig hat das Pixel daneben eine andere Reihenfolge. Viel interessanter finde ich allerdings welches "Muster" die PSR abscannt - Π oder N kommt wohl in Frage (jeweils noch um Vielfache von 90° drehbar).

mfg tc
 
Nun ja, die Reihenfolge hängt ja logischerweise primär davon ab, welches CFA zuerst vor dem betrachteten Pixel im Bild steht. Zwangsläufig hat das Pixel daneben eine andere Reihenfolge. Viel interessanter finde ich allerdings welches "Muster" die PSR abscannt - Π oder N kommt wohl in Frage (jeweils noch um Vielfache von 90° drehbar).

mfg tc

Ich glaube da reden wir aneinandervorbei, das jedes Pixel eine ander Frabreihenfolge hat ist klar. Mein Äußerung bezog sich darauf ob die Kamera den Sensor einen Pixel

  • links, runter, rechts, rauf
  • links,rauf,rechts,runter
  • rechts,runter,links,rauf
  • rechts,rauf,links,runter
  • ...
Ich habe die Sorge, das sich auch bei einer falschen Reihenfolge der Auswertung ein sinnvolles Bild ergibt - das richtige aber nur wenn die Auswertung und die Bewegung des Sensors übereinstimmt.
 
Ich glaube da reden wir aneinandervorbei, das jedes Pixel eine ander Frabreihenfolge hat ist klar. Mein Äußerung bezog sich darauf ob die Kamera den Sensor einen Pixel

  • links, runter, rechts, rauf
  • links,rauf,rechts,runter
  • rechts,runter,links,rauf
  • rechts,rauf,links,runter
  • ...
Nein, reden wir eigentlich nicht. Ich wollte nur auf etwas anderes hinaus...

Richtig ist: Wenn man es so wie oben macht ist es wirklich komplett egal. Auch wenn man mit einer Vertikalbewegung beginnt, erhält man in jedem Fall über einem Bildpixel die CFA-Folge GRGB (wobei der Startwert innerhalb der Folge variieren kann, je nach erstem Farbwert und Bewegungsalgorithmus).

Ein Gegensatz dazu wäre aber der Ansatz: Wenn man als zweiten Schritt eine Diagonalbewegung macht, ist es plötzlich nicht mehr egal, die möglichen CFA-Folgen sind dann nämlich GRBG und GBRG (wieder mit variierendem Startwert). Und das hätte einen ganz bestimmten Vorteil...

mfg tc
 
Die Startwerte, mit denen ich die Folge aufgeschrieben habe, geben schon einen Hinweis: Wenn ein Pixel beim ersten Bild Grün ausliest, tut er das auch beim letzten Bild. Also wenn man künftig mal Bewegungsprofile über die gesamte Belichtung bilden will, um die Eigenbewegung der Kamera subpixelgenau herauszurechnen, dürfte das interessant sein, weil man das erste Bild einfach nur im letzten Bild wieder finden muss - anhand der Helligkeitswerte im Grünkanal. Dann hat man schon mal Start und Ziel der Bewegung.

mfg tc
 
WERBUNG
Zurück
Oben Unten