• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

K50, K70, K3ii, K-S2 im Vergleich

Betrachtest du aber die Bildinformationen die zur Interpolation gebraucht, werden, kommst Du schnell auf die von mir errechneten Werte.

Vielleicht war meine Formulierung nicht ganz eindeutig.
Anders betrachtet ergibt sich der Sinn, das für einen Bildpunkt eigentlich nur ¼ der Sensorauflösung genutzt werden kann. Das man die nicht erfassten Bildwerte durch einen geschickten Algorithmus dann wieder versucht dazu zu rechnen ist ein anderes Thema. Und die 1/3 kommen dann mit den drei Grundfarben ins Spiel.
Ich weiß nicht, wie du darauf kommst. Zur Interpolation wird gebraucht, was ganz offenbar vorhanden ist. Eine K-3 hat grob kalkuliert 12 Mio grüne, 6 Mio blaue und 6 Mio rote Sensel und dennoch kommen am Ende 24 Mio bunte Pixel heraus. Deine "Rechnung" würde bedingen, dass als Debayering-Algorithmus einfachstes Pixel-Binning angewendet würde, als dessen Ergebnis nur 1/4 der Pixel übrig bleiben. Das macht aber keine mir bekannte Systemkamera und erst recht keiner der Konverter.

mfg tc
 
Offenbar kommst du über allgemeinkonkrete Andeutungen doch nicht hinaus. #43 war der Ausgangspunkt, deine Hypothese mit den "gerade mal 1/4 - 1/3 der MP-Zahl". Worauf basiert denn diese Angabe?
Nun ja, eine detaillierte Beschreibung würde den Rahmen eines Forenpost natürlich sprengen. Daher mein Verweis auf Literatur. Da gibts auch (ggf bebilderte Beispiele usw).

Das ganze beginnt schon bei den Grundlagen der (optischen, graphischen) Digitalisierung.
Und wohl bräuchte man erst mal (wie bereits von @rednosed angedeutet definieren, obs nun um die eigentliche Sensor-Auflösung geht, oder um die erreichbare effektive.
Aus pragmatischer Sicht schlage ich stets vor, sich auf zweiteres zu fokusieren. Damit verlässt man quasi auch die Grundlagen nicht.

Auch da ist noch einiges Frage der Definition. Etwa, was man überhaupt als einzelner "Bildpunkt" (Pixel) betrachten sollte.
Ist es eine einzelne Diode (mit natürlich nur einer Farbe), ist es ein Farbblock (also bestehtend aus drei Dioden oder ist es bereits ein Block der kleinsten rechnerischen Einheit.
Fragen tut sich das, weil eine A/D-Wandlung stattfindet und beginnt in der Literatur meist mit den Themen "Digitaler Definitionsbereich", "Nyquist-Theorem und "Wertebereich".
Das reale Licht (Lichtstrahlen vom Motiv und Umgebung) trift durch den Vorfilter auf den Sensor bzw die Dioden) wo dann die elektrischen Informationen in digitale Daten umgewandelt werden.
Bereits an dieser Stelle muss man sich vergegenwärtigen, dass alles Licht erst mal nur in drei Farben eingeteilt wird (eigentliche Bildaufzeichnung), woraus dann durch die Digitalisierung wiederum möglichst alle originalen Farben errechnet bzw später wiedergegeben werden sollten. Ebenso "spreizen" und "dämpfen" Vorfilter (AntiAliasing, AntiIF, Schutzfilter) die Lichtbündel/strahlen.

In der klassischen Bayer-Matrix werden die Dioden folgendermassen in Farben aufgeteilt :
Grün 50% , Rot & Blau jeweils 25%.
Errechnet (Farbinterpolation) werden aber für : Grün 50% und Blau und Rot 75%.
Warum Blau und Rot 75% statt 50% hängt damit zusammen weil benachbarte Bildpunkte schliesslich zusammengerechnet werden müssen (Errechnung der Zeilen 50% - benachbart in Folgezeilen- 100%).
Stochastisch (math. Wahrscheinlichkeit) hängen die Pixel zusammen bzw werden zusammengeführt, müssen sie schliesslich auch,da die digitalisierten Daten möglichst den vom elektrischen vom Sensor und wiederum von den natürlichen Übergängen entsprechen sollen.

Sonst wäre die spätere Darstellung von feinsten (zB modelierten) Details aber auch Flächen schlichtweg nicht möglich.
Diese Interpolation begründet die Differenz zwischen der nominellen und tatsächlichen Auflösung. Eben, das ein BayerMatrix-Sensor eine weitaus geringere Auflösung als Dioden erzielt. Mal unabhängig der resltichen Verluste der effektiven Auflösung durch optische Begebenheiten (Objektiv usw).



Einen Vergleich von Sensoren unterschiedlicher Größe und technischem Aufbau bei auch noch unterschiedlichen Kameramodellen kann nie vorbehaltlos angewendet werden.
Die Nachbearbeitung in der Kamera, das verwendete Objektiv und auch das Motiv haben einen wesentlich größeren Einfluss auf die Bildqualität als nur der reine Sensor.
Das sehe ich genau so.

Sogar noch einiges Mehr hat Einfluss auf die schlussendliche, effektive Auflösung, wobei's mir und @tabbycat hier spezifisch um den Auflösungsverlust alleinig durch die Matrix ging.
 
Diese Interpolation begründet die Differenz zwischen der nominellen und tatsächlichen Auflösung. Eben, das ein BayerMatrix-Sensor eine weitaus geringere Auflösung als Dioden erzielt.
Und hier sind wir wieder am Ausgangspunkt: Du solltest deinen RAW-Konverter wechseln. Scheinbar arbeitet der noch mit Pixel-Binning, ich ging oben schon darauf ein. Dann käme deine Angabe auch ziemlich exakt hin, denn bei Bayer würden 4 Subpixel zu einem verschmolzen. Typische Konverter und ihre Algorithmen (selbst die in der Kamera) retten aber bis zu 80%, je nach Motiv auch schon mal mehr. Das ist nicht weitaus geringer als die Brutto-Auflösung. Und es ist weit weg von "gerade mal 1/4 - 1/3 der MP-Zahl". Es sei denn du meinst, dass letztlich 1/4 - 1/3 der Auflösung fehlen (was deine Formulierung nicht hergab), dann kämen wir einander schon näher.

mfg tc
 
Zuletzt bearbeitet:
Ich lese hier viel das Wort "Auflösung".
Leider nur gibt es dafür ja bekanntlich überhaupt keine zweifelsfrei anerkannte Definition. Ohne die kann man aber nix vergleichen, denn welche Werte soll man wählen?

Empirisch könnt ihr ja simpel ein Bild mit und ohne Pixelshift vergleichen und seht recht gut, was sich ändert.
 
Und hier sind wir wieder am Ausgangspunkt: Du solltest deinen RAW-Konverter wechseln. Scheinbar arbeitet der noch mit Pixel-Binning,
Ich verwende unterschiedliche Konverter, aber das tut nichts zur Sache.
Ganz einfach, weil's ja nicht darum geht, was nach dem Sensor bzw nach der kamerinternen Engine bzw Interpolation kommt.

Was mir nicht ganz einleuchtet : Binning würde doch mit gernig auflösenden Sensoren kaum Sinn machen, wenn schon, dann heute mit hochauflösenden. Aber : wie siehst du das?
 
Ich lese hier viel das Wort "Auflösung".
Leider nur gibt es dafür ja bekanntlich überhaupt keine zweifelsfrei anerkannte Definition. Ohne die kann man aber nix vergleichen, denn welche Werte soll man wählen?
Da magst du recht haben. Als nutzbare Nettoauflösung kann man durchaus einfach einen MTF-Messwert umrechnen. Ich überschlage das mit 6*(lp/ph)² für das hier übliche Bildseitenverhältnis.

Binning würde doch mit gernig auflösenden Sensoren kaum Sinn machen, wenn schon, dann heute mit hochauflösenden. Aber : wie siehst du das?
Ob Pixel-Binning Sinn macht hängt eher vom gewünschten Ergebnis und der zur Verfügung stehenden Rechenzeit/-leistung ab. Der Vorteil ist halt eine Verbesserung der SNR zulasten der Auflösung und der schnelle Algorithmus. Für Industrieanwendungen oder Video beispielsweise.

mfg tc
 
WERBUNG
Zurück
Oben Unten