• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

K50, K70, K3ii, K-S2 im Vergleich

Betrachtest du aber die Bildinformationen die zur Interpolation gebraucht, werden, kommst Du schnell auf die von mir errechneten Werte.

Vielleicht war meine Formulierung nicht ganz eindeutig.
Anders betrachtet ergibt sich der Sinn, das für einen Bildpunkt eigentlich nur ¼ der Sensorauflösung genutzt werden kann. Das man die nicht erfassten Bildwerte durch einen geschickten Algorithmus dann wieder versucht dazu zu rechnen ist ein anderes Thema. Und die 1/3 kommen dann mit den drei Grundfarben ins Spiel.
Ich weiß nicht, wie du darauf kommst. Zur Interpolation wird gebraucht, was ganz offenbar vorhanden ist. Eine K-3 hat grob kalkuliert 12 Mio grüne, 6 Mio blaue und 6 Mio rote Sensel und dennoch kommen am Ende 24 Mio bunte Pixel heraus. Deine "Rechnung" würde bedingen, dass als Debayering-Algorithmus einfachstes Pixel-Binning angewendet würde, als dessen Ergebnis nur 1/4 der Pixel übrig bleiben. Das macht aber keine mir bekannte Systemkamera und erst recht keiner der Konverter.

mfg tc
 
Offenbar kommst du über allgemeinkonkrete Andeutungen doch nicht hinaus. #43 war der Ausgangspunkt, deine Hypothese mit den "gerade mal 1/4 - 1/3 der MP-Zahl". Worauf basiert denn diese Angabe?
Nun ja, eine detaillierte Beschreibung würde den Rahmen eines Forenpost natürlich sprengen. Daher mein Verweis auf Literatur. Da gibts auch (ggf bebilderte Beispiele usw).

Das ganze beginnt schon bei den Grundlagen der (optischen, graphischen) Digitalisierung.
Und wohl bräuchte man erst mal (wie bereits von @rednosed angedeutet definieren, obs nun um die eigentliche Sensor-Auflösung geht, oder um die erreichbare effektive.
Aus pragmatischer Sicht schlage ich stets vor, sich auf zweiteres zu fokusieren. Damit verlässt man quasi auch die Grundlagen nicht.

Auch da ist noch einiges Frage der Definition. Etwa, was man überhaupt als einzelner "Bildpunkt" (Pixel) betrachten sollte.
Ist es eine einzelne Diode (mit natürlich nur einer Farbe), ist es ein Farbblock (also bestehtend aus drei Dioden oder ist es bereits ein Block der kleinsten rechnerischen Einheit.
Fragen tut sich das, weil eine A/D-Wandlung stattfindet und beginnt in der Literatur meist mit den Themen "Digitaler Definitionsbereich", "Nyquist-Theorem und "Wertebereich".
Das reale Licht (Lichtstrahlen vom Motiv und Umgebung) trift durch den Vorfilter auf den Sensor bzw die Dioden) wo dann die elektrischen Informationen in digitale Daten umgewandelt werden.
Bereits an dieser Stelle muss man sich vergegenwärtigen, dass alles Licht erst mal nur in drei Farben eingeteilt wird (eigentliche Bildaufzeichnung), woraus dann durch die Digitalisierung wiederum möglichst alle originalen Farben errechnet bzw später wiedergegeben werden sollten. Ebenso "spreizen" und "dämpfen" Vorfilter (AntiAliasing, AntiIF, Schutzfilter) die Lichtbündel/strahlen.

In der klassischen Bayer-Matrix werden die Dioden folgendermassen in Farben aufgeteilt :
Grün 50% , Rot & Blau jeweils 25%.
Errechnet (Farbinterpolation) werden aber für : Grün 50% und Blau und Rot 75%.
Warum Blau und Rot 75% statt 50% hängt damit zusammen weil benachbarte Bildpunkte schliesslich zusammengerechnet werden müssen (Errechnung der Zeilen 50% - benachbart in Folgezeilen- 100%).
Stochastisch (math. Wahrscheinlichkeit) hängen die Pixel zusammen bzw werden zusammengeführt, müssen sie schliesslich auch,da die digitalisierten Daten möglichst den vom elektrischen vom Sensor und wiederum von den natürlichen Übergängen entsprechen sollen.

Sonst wäre die spätere Darstellung von feinsten (zB modelierten) Details aber auch Flächen schlichtweg nicht möglich.
Diese Interpolation begründet die Differenz zwischen der nominellen und tatsächlichen Auflösung. Eben, das ein BayerMatrix-Sensor eine weitaus geringere Auflösung als Dioden erzielt. Mal unabhängig der resltichen Verluste der effektiven Auflösung durch optische Begebenheiten (Objektiv usw).



Einen Vergleich von Sensoren unterschiedlicher Größe und technischem Aufbau bei auch noch unterschiedlichen Kameramodellen kann nie vorbehaltlos angewendet werden.
Die Nachbearbeitung in der Kamera, das verwendete Objektiv und auch das Motiv haben einen wesentlich größeren Einfluss auf die Bildqualität als nur der reine Sensor.
Das sehe ich genau so.

Sogar noch einiges Mehr hat Einfluss auf die schlussendliche, effektive Auflösung, wobei's mir und @tabbycat hier spezifisch um den Auflösungsverlust alleinig durch die Matrix ging.
 
Diese Interpolation begründet die Differenz zwischen der nominellen und tatsächlichen Auflösung. Eben, das ein BayerMatrix-Sensor eine weitaus geringere Auflösung als Dioden erzielt.
Und hier sind wir wieder am Ausgangspunkt: Du solltest deinen RAW-Konverter wechseln. Scheinbar arbeitet der noch mit Pixel-Binning, ich ging oben schon darauf ein. Dann käme deine Angabe auch ziemlich exakt hin, denn bei Bayer würden 4 Subpixel zu einem verschmolzen. Typische Konverter und ihre Algorithmen (selbst die in der Kamera) retten aber bis zu 80%, je nach Motiv auch schon mal mehr. Das ist nicht weitaus geringer als die Brutto-Auflösung. Und es ist weit weg von "gerade mal 1/4 - 1/3 der MP-Zahl". Es sei denn du meinst, dass letztlich 1/4 - 1/3 der Auflösung fehlen (was deine Formulierung nicht hergab), dann kämen wir einander schon näher.

mfg tc
 
Zuletzt bearbeitet:
Ich lese hier viel das Wort "Auflösung".
Leider nur gibt es dafür ja bekanntlich überhaupt keine zweifelsfrei anerkannte Definition. Ohne die kann man aber nix vergleichen, denn welche Werte soll man wählen?

Empirisch könnt ihr ja simpel ein Bild mit und ohne Pixelshift vergleichen und seht recht gut, was sich ändert.
 
Und hier sind wir wieder am Ausgangspunkt: Du solltest deinen RAW-Konverter wechseln. Scheinbar arbeitet der noch mit Pixel-Binning,
Ich verwende unterschiedliche Konverter, aber das tut nichts zur Sache.
Ganz einfach, weil's ja nicht darum geht, was nach dem Sensor bzw nach der kamerinternen Engine bzw Interpolation kommt.

Was mir nicht ganz einleuchtet : Binning würde doch mit gernig auflösenden Sensoren kaum Sinn machen, wenn schon, dann heute mit hochauflösenden. Aber : wie siehst du das?
 
Ich lese hier viel das Wort "Auflösung".
Leider nur gibt es dafür ja bekanntlich überhaupt keine zweifelsfrei anerkannte Definition. Ohne die kann man aber nix vergleichen, denn welche Werte soll man wählen?
Da magst du recht haben. Als nutzbare Nettoauflösung kann man durchaus einfach einen MTF-Messwert umrechnen. Ich überschlage das mit 6*(lp/ph)² für das hier übliche Bildseitenverhältnis.

Binning würde doch mit gernig auflösenden Sensoren kaum Sinn machen, wenn schon, dann heute mit hochauflösenden. Aber : wie siehst du das?
Ob Pixel-Binning Sinn macht hängt eher vom gewünschten Ergebnis und der zur Verfügung stehenden Rechenzeit/-leistung ab. Der Vorteil ist halt eine Verbesserung der SNR zulasten der Auflösung und der schnelle Algorithmus. Für Industrieanwendungen oder Video beispielsweise.

mfg tc
 
WERBUNG
Zurück
Oben Unten