• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

D800

Die D800 bietet noch genügend Verbesserungspotential, da mache ich mir über unsere Geldbeutel keine Sorgen :-)

Verbesserten werden können sicherlich AF, LiveView, Dynamik. Die Auflösung (Bayersensor) ist dagegen, meiner Meinung nach, an einen Punkt wo ich kaum Verbesserungspotential sehe, aber auch hier wird vermutlich wieder draufgepackt werden. Bei DX hat man mit 24MP ja auch schon längst das technisch sinnvolle überschritten.
 
Für mich ist der nächste logische Schritt in der Entwicklung das Weggehen von Bayerfilter-Sensoren. ...

Warum eigentlich weg vom Bayer-Prinzip?


Durchschnittlich muss man beim Bayer- Prinzip mit Auflösungsverlust von ca. 30% des interpolierten Fotos rechnen.

Um bei der D800 zu bleiben: man bekommt mit dem Sensor der D800 also durchschnittlich ein interpoliertes Foto entsprechend einem 3- Farb- Nicht-Bayer- Sensor mit 0,7 *36 MP = 25 MP pro Farbe


Gäbe es dann einen solchen "echten" 3- Farb- Nicht-Bayer- Sensor mit 3 x 25 = 75 MP, so könnte man statt einem 3- Farb- Filter auch eine Bayer- Matrix vorsetzen und bekäme mit dem durchschnittlichen Auflösungsverlust nach der Interpolation ca. 0,7 x 75 MP = 52 MP.


Nun, was ist so schlimm am Bayer-Sensor ?

Gruß
ewm



PS: zur Auflösung siehe u.a. hier http://www.heise.de/foto/artikel/Echte-und-bunte-Pixel-228562.html
 
Zuletzt bearbeitet:
Wie Du eben vorgerechnet hast ein Verlust von 30% Auflösung.
 
Eben, die technischen Möglichkeiten erlauben Sensoren mit immer kleineren und empfindlicheren Pixeln (-> Signalverarbeitung...) herzustellen, der nächste Schritt in dieser Richtung wird sein, dass die einzelnen Farbpixel noch nen Tick kleiner werden, und man dann einfach nur noch 4 zu einem Verrechnet und danach darauf verzichtet die Auflösung wieder nach oben zu interpolieren... Praktisch ähnlich wie bei Monitoren, ein Pixel besteht aus 3, in dem Fall dann 4, Subpixeln.

beim Pixelpitch der D800 würde das dann auf die Weise schon uniterpolierte 36 : 4 = 9 MP ergeben... Bin gespannt wann (und ob) es denn tatsächlich in die Richtung geht...

Edit: rein aus Neugierde, weiß jemand zufällig ob es einen RAW-Konverter gibt, der in der Lage ist die Daten so zu verarbeiten? (auch wenn mir klar ist, dass es, falls überhaupt, keinen Nennenswerten Unterschied zu nem runterskalierten Bild geben wird...)
 
Zuletzt bearbeitet:
Wie Du eben vorgerechnet hast ein Verlust von 30% Auflösung.

Nein, ein Gewinn gegenüber separaten RGB- Pixeln.

Theoretisch könnte man jetzt schon die Interpolation der Bayer- Matrix sparen und würde bei der D800 auf ein 36 / 4 = 9 MP nicht interpoliertes Bild kommen.

Durch das Demosaicing kommt man aber auf eine durchschnittliche Auflösung, die einem 3x 25 MP RGB Sensor entspricht.

Gruß
ewm
 
Moin,

der nächste logische Schritt wäre, sich am Ausgang von den physikalischen Pixeln zu lösen und in Ausgabegrößen sowie dafür nötigen Auflösungen zu denken. Da dieser Schritt von den Anwendern gemacht werden muss, sehe ich ihn in der Praxis leider nicht so schnell :angel:
Außerdem wäre da ein "Problem" zu lösen, das sich RAW nennt :eek:

Interpolation ist nicht grundsätzlich und immer was negatives ;)

Ich bin gespannt, wie man in ein paar Jahren die D800 einordnen wird :cool:
 
Ok, ich versuche es noch mal zu erklären: Ich möchte gerne 36 Millionen echte R, G oder B Pixel, möglichst groß und auf einem KB-Sensor bequem verteilt.

Im Anhang mal drei kleine Bildchen von gerade eben.

Nein, ein Gewinn gegenüber separaten RGB- Pixeln.

Theoretisch könnte man jetzt schon die Interpolation der Bayer- Matrix sparen und würde bei der D800 auf ein 36 / 4 = 9 MP nicht interpoliertes Bild kommen.

Durch das Demosaicing kommt man aber auf eine durchschnittliche Auflösung, die einem 3x 25 MP RGB Sensor entspricht.

Gruß
ewm
 
Zuletzt bearbeitet:
Ok, ich versuche es noch mal zu erklären: Ich möchte gerne 36 Millionen echte R, G oder B Pixel, möglichst groß und auf einem KB-Sensor bequem verteilt...

Nebeneinander verteilt?

Ok, sei es so.

Dann wird aber irgendein schlauer Kopf kommen und sagen: wenden wir doch eine Interpolation an und verkaufen das dann als 100 MP Kamera.



Ich bin überzeugt davon, dass man auch ein RAW der D800 als 9 MP R,G,B- Foto entwickeln kann, indem man nicht interpoliert, sondern immer die einzelnen Farbpixel in Höhe und Breite verdoppelt (und die Helligkeit der beiden Grün-Pixel addiert).

Dann hast Du ein echtes RGB- Bild, mit der echten Auflösung von einem Viertel der gesamten Pixelzahl.

Gibt eigentlich irgendein RAW- Konverter eine solche Möglichkeit her?

Ein Vergleich dieser Pixelverdopplung gegen eine Interpolation wäre mal interessant.

Gruß
ewm
 
Zuletzt bearbeitet:
Nebeneinander verteilt?
[...]
Ich bin überzeugt davon, dass man auch ein RAW der D800 als 9 MP R,G,B- Foto entwickeln kann, indem man nicht interpoliert, sondern immer die einzelnen Farbpixel in Höhe und Breite verdoppelt (und die Helligkeit der beiden Grün-Pixel addiert).

Dann hast Du ein echtes RGB- Bild, mit der echten Auflösung von einem Viertel der gesamten Pixelzahl.

Gibt eigentlich irgendein RAW- Konverter eine solche Möglichkeit her?

Ein Vergleich dieser Pixelverdopplung gegen eine Interpolation wäre mal interessant.

Gruß
ewm

Hi ewm, ich glaube nicht, dass das einen Sinn hätte, denn alle vier Pixel RGGB haben ja nicht nur die Farbinformationen, sondern auch die Helligkeitsinformationen. Deshalb ist ja auch die Leica M auflösungstechnisch meiner Meinung nach so interessant.

Ich stelle mir das immer so vor, dass ich bei 36MP eine wirkliche 36MP Helligkeitsverteilungsinformation habe die schon einen sehr genauen Eindruck vermittelt über der dann ein 9MP "Farbschleier" liegt. Aber auch wenn ein 36MP Sensor nur 9MP Farbinfo hat, so haben wir diese 9MP doch in 4 unterschiedlichen Helligkeiten vorliegen, was einen deutlich höher interpolierten Eindruck macht. Vor allen Dingen wenn man denkt, dass schnelle pixelscharfe Farbwechsel meiner Meinung nach auf einem Bild seltener sind als ein Wechsel in der Helligkeitsinformation einer Farbe.

Ich denke, dass deshalb die Steigerung einer 36MP, nennen wir sie "Idealpixelkamera", wo jedes Pixel eine vollständige Helligkeits und Farbinformation hätte, gegenüber einer Bayer 36MP Kamera nur mariginal wäre und praktisch nur an sehr harten feinen Farbübergängen auffallen würde.

Aus 36MP Helligkeit und 9 MP Farbe eine reine 9MP Farbdatei zu machen ginge nach meiner Meinung mit einem ganz deutlichen Verlust an Auflösung und Qualität einher.

Grüße
Alexander
 
Hi ewm, ich glaube nicht, dass das einen Sinn hätte, denn alle vier Pixel RGGB haben ja nicht nur die Farbinformationen, sondern auch die Helligkeitsinformationen...

Die haben sie eben nicht. Jedes Pixel hat nur die Information seiner gefilterten Grundfarbe. Daraus eine Helligkeitsinformation zu generieren gelingt nur durch Interpolation der umgebenden Pixel gleicher Farbe . Unter der Annahme, dass sich die Farbverläufe im Bild weniger ändern als die Auflösung, gelingt das gut.

Versagen wird die Interpolation völlig für Bildstrukturen, bei denen sich die Farben mit einer ähnlich hohem Ortsfrequenz ändern wie das Farbraster des Sensors.

Meiner Meinung nach ein Grund, warum Gras manchmal matschig in der 100% Darstellung wirkt.

Für solche Strukturen hätte ein "echter" 3 Farben- Sensor Vorteile. Der Auflösungsvorteil würde aber nur zum tragen kommen, wenn die 3 Farbsensoren in Strahlrichtung hintereinander liegen.

Liegen die Farbsensoren nebeneinander, so ergibt sich das gleiche Problem wie bei der Bayer- Matrix. Entweder die Auflösung beträgt nichtinterpoliert ein Drittel pro Bildbreite oder Bildhöhe oder es wird interpoliert und man kommt eine erhöhte Auflösung, solange die Ortsfrequenz der Farbstrukturen niedriger ist als die Abstände der Farbsensoren gleicher Farbe.

Nun aber zurück zur D800 ;)

Gruß
ewm
 
Was ja auch notwendig ist, wenn Du den AA-Filter gepaart mit Bayerfiltrierung meinst? Denn der soll ja Artefakte minimieren.

Als Beispiel: Bei dem von mir geposteten Bild vom Reiterbrunnen ist goldene Schrift zu sehen. Die habe ich schon mit einer meiner filterlosen S5 fotografiert und üble bunte Pixelartefakte bekommen, die sich praktisch nicht herausretuschieren lassen.
 
Die haben sie eben nicht. Jedes Pixel hat nur die Information seiner gefilterten Grundfarbe. Daraus eine Helligkeitsinformation zu generieren gelingt nur durch Interpolation der umgebenden Pixel gleicher Farbe
[...]
Nun aber zurück zur D800 ;)

Gruß
ewm

Wir sind ja bei der D800. Allerdings bei einem Detail ;)

Jede Fotozelle erfasst NUR Helligkeitsinformation. Die Farben entsehen dadurch, dass die Fotozellen jeweils einen Filter erhalten der nur R, G oder B durchlässt und somit jeweils die Helligkeitsinformation für eine Teil-Farbe gespeichert wird. Auf der Bayermatrix einmal R zweimal G einmal B.

Wir haben also 4 Helligkeitsinformationen und 3 Teilfarbinformationen und können damit für 4 Pixel 4 mal etwas über die Helligkeitsverteilung und 1 mal etwas über die reale Farbe sagen.

Ob und wie das ein Sensor auswertet weiß ich nicht. Ein Pixel, sprich Fotozelle weiß ja nicht nur "blau" sondern wie viel blau und das nennt sich dann Helligkeit und wird zusammen mit der Mischung der anderen zur Farbe. Lässt Du die Mischung bleiben hast Du 4 mal Helligkeit.

Natürlich kann man die Helligkeisinformation ebenso auf ein Pixel zusammenführen aber wäre es nicht hilfreich, wir würden ja in meiner Annahme über 4 mal Helligkeitsinformation einmal eine Farbinformation legen und damit die Auflösung an allen Stellen wo kein harter Farbwechsel aber Helligkeitschwankungen wäre deutlich steigern.

Ich kann nicht sagen was die Software der Kamerahersteller aus den Daten macht. Physikalisch gesehen könnte ich in jedem Fall mehr Information aus diesen Daten auslesen wie 1 mal Farbe und 1 mal Helligkeit und ich würde mich doch sehr stark wundern, sollte dies noch keinem Kamerahersteller eingefallen sein.

Würde mich aber über einen Link zu einem technischen Dokument welches das genauer erklärt sehr freuen.

Grüße
Alexander
 
Zuletzt bearbeitet:
Ein Bayer Sensor hat eine um ca. 30% niedrigere Auflösung als ein entsprechender Sensor ohne Bayer-Pattern.
Pixelbinning auf Sensorlevel ist bei einem Bayerpattern nicht sinnvoll, wenn man sich mal das Muster auf dem Sensor ansieht, wird schnell klar, warum.
Um das Debayering (die Konvertierung aus dem Rohbild in ein RGB Bild) durchzuführen, kann man nun in Software verschiedene Algos anwenden.
Das was ihr hier in der Regel diskutiert, ist eine lineare Interpolation mit einer 2x2 Maske. Das kann man allerdings vergessen, das Verfahren liefert gruselige Artefakte (Farb und Helligkeitssäume an Kontrast bzw. Farbkanten).
Wesentlich schöner wird es, wenn man eine 3x3 Maske verwendet, aber auch das ist noch eine sehr einfache Methode. Es gibt auch Algos, die lokal unterschiedliche Methoden anwenden, je nach Bildstruktur und Inhalt.

Lange Rede - technisch ist da vieles Denkbar, aber solange man nicht wirklich weiss, wie das Konkret (in der D800) gemacht wird, ist es müßig ;-)
 
Wir sind ja bei der D800. Allerdings bei einem Detail ;)

Jede Fotozelle erfasst NUR Helligkeitsinformation. Die Farben entsehen dadurch, dass die Fotozellen jeweils einen Filter erhalten der nur R, G oder B durchlässt und somit jeweils die Helligkeitsinformation für eine Teil-Farbe gespeichert wird. Auf der Bayermatrix einmal R zweimal G einmal B.

Wir haben also 4 Helligkeitsinformationen und 3 Teilfarbinformationen und können damit für 4 Pixel 4 mal etwas über die Helligkeitsverteilung und 1 mal etwas über die reale Farbe sagen.


Nein, wir können für die Matrix aus 2x2 Pixeln nur etwas zu den Intensitäten den 3 Teilfarben etwas sagen. Ich benutze absichtlich noch nicht den Begriff Helligkeit.


Ansatz 1: keine Interpolation -> echte Auflösung = 1/4 der Sensor- MP- Zahl

Ich kann die R- G- und B- Werte der Farb- Pixel nehmen und daraus für die gesamte 2x2 Matrix eine Aussage zu einem Farbpunkt ableiten. Meinetwegen im HSL- Modell, deren einer Parameter die Helligkeit ist.

- aber nur eine Helligkeit für diese 2x2 Matrix und keinen Verlauf!
- für diese 2x2 Matrix sind die gewonnenen Werte genau bestimmt und es ist die maximal erreichbare Genauigkeit



Ansatz 2: Interpolation -> interpolierte Auflösung des Sensor- MP- Zahl

Ich schau mir jetzt nicht die 2x2 Matrix an, denn die liefert 3 verschiedene Informationen zu verschiedenen Farben, die ich nicht interpolieren kann (ich kann zwar 4 Äpfel und 3 Birnen zusammen wiegen und erhalte x kg Obst. Ich kann aber aus dem Gewicht allein nicht auf die Anzahl der Äpfel oder Birnen schließen).

Ich vergleiche jetzt benachbarte Pixel gleicher Farben. Gemäß der Bayer- Matrix liegt zwischen den Pixeln gleicher Farbe immer ein Pixel einer anderen Farbe.

Ich kann nun aus den Intensitäten zweier gleichfarbiger Pixel die Intensität für das dazwischenliegende, nicht vorhandenes gleichfarbiges Pixel interpolieren.


Ich bekomme so für eine Matrix aus mindestens 3x3 Pixeln = 9 Pixeln für jede der Farben 2 richtige Intensitäten und eine interpolierte Intensität.

- ich kann für die schrittweise Berechnung der Interpolation z.B. den betrachteten 3x3 Ausschnitt gleitend verschieben und bekommen den Verlauf der Intensität für die Farbwerte jeweils aus 2 echten und einem interpolierten Wert
- nach der Interpolation habe ich für jedes "im Sinne der MP- Angabe zählende) Pixel einen echten Wert der Intensität, nämlich die gemessene Intensität für die Filterfarbe dieses Pixels und 2 interpolierte Intensitäten der beiden anderen Farben

Aus diesem kann ich dann je nach Farbmodell z.B. die Helligkeit berechnen.


Aber wie auch immer: pro Pixel erhalte ich nur eine echte Information für eine Farbe. Die beiden anderen werden interpoliert.


Ich hoffe, dass war wieder nicht zu weit weg von der D800 ;)

Gruß
ewm

Hier der gewünschte Link:

http://www.heise.de/foto/artikel/Echte-und-bunte-Pixel-228562.html
 
Zuletzt bearbeitet:
@ewm

zunächst einmal vielen Dank. Also wir erhalten nur eine echte Farbinformation ist zumindest schon einmal Konsens :)

Über die Helligkeitsfrage werde ich noch einmal intensiv nachdenken und mit dem von Dir verlinkten Artikel und hoffentlich noch weiteren Infos, bald mehr zum Thema wissen.

Hatte bei der LeicaM schon ein ähnliches Problem, da ich 18MP reine s/w Information, also mehr oder weniger 18MP reine Helligkeits-Fotozellen als sehr hochauflösend einschätzte und man dort aber der Meinung war sie wäre nicht doppelt so hoch wie die der D800. D800=36/4 und LeicaM= 18MP"real"?

Aber das ist nun wirklich OT. Aber ich werde mich etwas genauer mit den Sensoren und deren Auswertung beschäftigen.

Grüße
Alexander
 
@ewm

zunächst einmal vielen Dank. Also wir erhalten nur eine echte Farbinformation ist zumindest schon einmal Konsens :)

Über die Helligkeitsfrage werde ich noch einmal intensiv nachdenken und mit dem von Dir verlinkten Artikel und hoffentlich noch weiteren Infos, bald mehr zum Thema wissen...

Hallo Alexander, falls hier zu sehr OT, dann gern auch ein weiterer Meinungsaustausch per PN.

Gruß
ewm
 
WERBUNG
Zurück
Oben Unten