• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Der Tiefpassfilter - 5Ds R und die normale Version

Naja, dazu brauchst Du aber außerdem noch, wie Du ja schon geschrieben hast, die verwendeten (sicherlich aufs Filter abgestimmten) Gleichungen zur Farbinterpolation der RAW-Daten. Wenn alle Infos da sind, ist sowas z. B. mit MATLAB schnell simuliert.
 
Die AA-Filter machen aber angeblich weniger Versatz zwischen den Teilstrahlen als der Pixelabstand ist.

Das macht meiner Meinung nach Sinn. Waere der Abstand zwischen zwei Teilstrahlen gerade zwei Pixel, so waere eventuelles Farbmoire nicht beseitigt, sondern nur verschoben. Bei einem Pixel Abstand ist gewaehrleistet, dass bei praktisch jedem roten (blauen) Hauptstrahl genau ein Teilstrahl auch ein rotes (blaues) Pixelchen trifft. Vermutlich kann man das "Anti-Moire-Filter" auch schwaecher auslegen, weil noch Unschaerfen durch das Objektiv dazu kommen.

Die grosse Unbekannte ist wohl die Interpolation. Aber man kann sich schon vorstellen, dass selbst die einfachste (also die lineare) Interpolation weitreichender ist als ein Pixel, so dass die zusaetzliche Unschaerfe durch "Anti-Moire-Filter" relativ schwach ist.


Gruesse,
Paul
 
Das macht meiner Meinung nach Sinn. Waere der Abstand zwischen zwei Teilstrahlen gerade zwei Pixel
Zwei Pixel macht in der Tat keinen Sinn; davon war aber auch nicht die Rede.

den Versatz zwischen ordentlichem und außerordentlichem Strahl (wenigstens für achsnahe Strahlen) gerade so zu dimensionieren, daß er dem Pixelpitch entspricht, um Farbmoiree bestmöglich zu unterdrücken.
 
Gelöscht, ich scheitere an meinem Handy.

So, jetzt nochmal ohne das fummelige Handy:

Es war ja aber doch die Rede von "genau gleich dem Pixelabstand", doch meines Wissens ist es sogar etwas weniger. Die Quelle müsste ich jetzt allerdings erst noch suchen.

Mir ist die Idee "Aufspaltung in 4 Teilstrahlen, damit alle 4 Bayerpixel getroffen werden" aber sowieso zu lokal und pixelorientiert gedacht. Ich würde es mir gern etwas globaler und "im Fourier-Raum" zusammenreimen, habe aber bisher noch keinen richtigen "Griff dran". Und das Denkmodell darf gern stark vereinfacht sein (aber nicht falsch, das ist ganz was anderes), die "Nackommastellen" interessieren mich erstmal nicht. Und insofern hätte ich auch nichts von MatLab-Simulationen. Die würden mir "Nachkommastellen" liefern, aber ich könnte nicht mal die Plausibilität der "Vorkommastellen" beurteilen.
 
Zuletzt bearbeitet:
Ich klinke mich mal aus neugier auch mal ein

Die R Version bietet mehr schärfe, es besteht aber die Gefahr auf dieses Moire. Richtig?

Für mich ist das schwierig vorzustellen das in einem negativen Beispiel aussehen soll. Das wäre ja absolut ärgerlich wenn man sich eine Kamera für fast 4000 Euronen holt, in dann auf jeden Bail ein feines Rater/Muster im Foto hat.

Und ich schätze wenn man das Moire dann per EBV entfernt bzw. abmildert, gehen die Details ja auch wieder verloren oder? Also kann man gleich die normale Verison nehmen?

Und die Frage ist, wie viel macht das überhaupt aus in der 100% Ansicht? geht da deutlich was?
 
Die R Version bietet mehr schärfe, es besteht aber die Gefahr auf dieses Moire. Richtig?

Für mich ist das schwierig vorzustellen das in einem negativen Beispiel aussehen soll. Das wäre ja absolut ärgerlich wenn man sich eine Kamera für fast 4000 Euronen holt, in dann auf jeden Bail ein feines Rater/Muster im Foto hat.
Vielleicht etwas übertrieben, aber im Prinzip so:
http://francoismalan.com/wp-content/uploads/2012/07/Nikon-D800-vs-D800E-Moire.jpg


Und ich schätze wenn man das Moire dann per EBV entfernt bzw. abmildert, gehen die Details ja auch wieder verloren oder? Also kann man gleich die normale Verison nehmen?
Moiré kann sich in hochfrequenten Artefakten oder auch in flächigeren Farb- oder Helligkeits-Störungen äußern. Das per EBV zu entfernen, ohne andere Aspekte des Bildes mit zu treffen, ist alles andere als trivial.

Da allerdings nicht jedes Bild von Moiré betroffen sein wird, muss man auch nicht jedes Bild nachbearbeiten.

Wenn das Motiv Moiré-anfällig ist, kann man im Moment der Aufnahme allenfalls versuchen, durch starkes Abblenden den Detailkontrast so stark zu dämpfen, dass kein Moiré mehr am Sensor auftritt. Mikro-Verwacklungen wäre zwar eine zweite Möglichkeit, sind aber wesentlich schlechter steuerbar. Geht man umgekehrt in die Offenblende, dann ist der Moiré-dämpfende Effekt des Objektivs i.d.R. im Bildfeld sehr ungleichmäßig verteilt ...

Wie gesagt, gibt es auch flächige Auswirkungen von Moiré - und diese sind natürlich auch in normaler BIldansicht störend, erfordern also eine entsprechende Nachbearbeitung.
 
Das Beispiel ist sehr schön insofern, als man das Farbmoiré auch bei der D800 in geringem Umfang im dunklen Stoff erkennen kann. Dort sticht es halt nur nicht so ins Auge.

Auch ein AA-Filter ist nur ein Kompromiß zwischen "unscharf" und "Moiré". Ohne liegt dieser Kompromiß sehr auf der Seite "scharf und Moiré-anfällig".

So heftig wie im Beispiel passiert das nur mit flächigen regelmässigen Strukturen (hier Gewebe) im richtigen Abbildungsmaßstab (der ungünstigen Entfernung). Weniger scharfe Objektive ersetzen den AA-Filter teilweise. Das ist die Idee, ihn in der Kamera wegzulassen.
 
Weniger scharfe Objektive ersetzen den AA-Filter teilweise. Das ist die Idee, ihn in der Kamera wegzulassen.
Konsequent weitergedacht müsste an Objektiven und Kameras mit Bildstabilisator eigentlich eine wählbare Antialiasing-Option beruhend auf definierter Bild- oder Sensorbewegung möglich sein!

Wo geht es bitte zum Patentamt? :D
 
Was Du hier schreibst, dafür ist es eh zu spät für dem Weg zum Patentamt.

Ansonsten Antwort von Radio Eriwan: im Prinzip ja. - nur wird das bei kürzeren Belichtungszeiten etwas schwierig. ;)
 
Zuletzt bearbeitet:
Was Du hier schreibst, dafür ist es eh zu spät für dem Weg zum Patentamt.
(Loriotmodus) ... ach! (/Loriotmodus) :D

... nur wird das bei kürzeren Belichtungszeiten etwas schwierig. ;)
Wenn ich gut drauf bin, verreiße auch mal eine 8000stel. :p

Der Aufschlag für die revolutionäre HIDA-Technologie (highspeed image destabilisation-based antialiasing) ist also getan. Jetzt muss es eigentlich nur noch gebaut werden.

Bei Lasertechnologie gibt es übrigens solche "Schüttelstrategien" um andere Interferenzerscheinungen ("Speckles") zu reduzieren.
 
Wenn ich gut drauf bin, verreiße auch mal eine 8000stel. :p
So wie erforderlich zweidimensional (also vielleicht in kreisender Mikrobewegung) stelle ich mir das schon interessant vor....

Der Aufschlag für die revolutionäre HIDA-Technologie (highspeed image destabilisation-based antialiasing) ist also getan. Jetzt muss es eigentlich nur noch gebaut werden.
Die Marke könntest Du Dir jetzt noch eintragen lassen. Aber vielleicht besser "new image destabilisation-based antialiasing" = NIDA ?

Bei Lasertechnologie gibt es übrigens solche "Schüttelstrategien" um andere Interferenzerscheinungen ("Speckles") zu reduzieren.
Aber auch da bleibt das Speckle-Muster an sich erhalten, und nur wenn man lange genug detektiert, mittelt es sich heraus.
 
Für mich ist das schwierig vorzustellen das in einem negativen Beispiel aussehen soll. Das wäre ja absolut ärgerlich wenn man sich eine Kamera für fast 4000 Euronen holt, in dann auf jeden Bail ein feines Rater/Muster im Foto hat.

Keine Panik. Moire taucht eigentlich eher selten auf. Und wenn man es sieht, dann hat es oft weniger mit dem fehlenden "Anti-Moire-Filter'' zu tun, sondern vielmehr mit unpassender Bildverkleinerung.

Als Beispiel hier mal ein extrem Moire-anfaelliges, periodisch strukturiertes Motiv, geknippst mit einer Kompakten mit 14 MP. Bild 1 zeigt einen Ausschnitt, der bei mir in der 16 Prozent-Ansicht Moire, dagegen in der 100 Prozent-Ansicht (oder groesser) kein Moire mehr aufweist.

Das Bild wurde zusaetzlich in der Kamera auf VGA (640*480) verkleinert. Derselbe Motivausschnitt des verkleinerten Bildes zeigt nun starkes Moire (Bild 2), egal in welcher Ansicht.

Kurz: Wenn man Moire sieht, heisst das noch nicht, dass man Moire auf dem digitalen Bild hat.


Gruesse,
Paul
 
Zuletzt bearbeitet:
Aber auch da bleibt das Speckle-Muster an sich erhalten, und nur wenn man lange genug detektiert, mittelt es sich heraus.
Klar, bei einer Schüttellinse oder einem Rüttelsensor wäre das ebenso. A-propos Rüttelsensor: ist nicht ein Staubschüttler ein Bauteil, welches auch mal mit Ultraschall arbeitet? Da hätte man dann >> 10 kHz und läge bei Bewegungsgeschwindigkeiten, die auch noch bei 1/8000 s greifen sollten.
 
WERBUNG
Zurück
Oben Unten