• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Auswirkungen des AA-Filters *Vergleichsbilder*

Weil dann das Moirée nicht verschwindet, sondern lediglich in die leicht daneben liegende, neue Fokusebene verschoben wird?

Bei einem Hersteller für CCD-Kameras kann man hier nachlesen, daß man Moiré-Effekte durch leichtes Unscharfstellen dämpfen kann, da die Kameras auch keine AA-Filter haben.
 
Bei einem Hersteller für CCD-Kameras kann man hier nachlesen, daß man Moiré-Effekte durch leichtes Unscharfstellen dämpfen kann, da die Kameras auch keine AA-Filter haben.

Wie Mi67 schon festgestellt hat, funktioniert das zwar ganz toll, wenn das Motiv in einer eng begrenzten Ebene liegt, bei dreidimensionalen Motiven nützt das nur wenig. Gerade industrial vision cameras werden oft und gerne zur Inspektion flacher Objekte eingesetzt, darum schlägt Imaging Source das so vor. Wenn du ein Haus in der Wiese fotografierst, nützt die Defokussieren wenig, außer du betreibst es so stark, dass nichts mehr erkennbar ist, nur dann ist die ganze Wiese garantiert unscharf.
 
Willkommen in der Welt der zweidimensionalen Motive! ;)

Jaja, ihr habt ja recht :rolleyes:
 
Hallo zusammen,

vorneweg: einer der besten Threads die ich seit langem gelesen hab!

Ich kenn mich zwar nicht unbedingt mit Fourier-Optik aus, aber könnte (nach meinen rudimentären Kenntnissen aus der klassischen Fourierrechnung) nicht folgender Ansatz zur AA-Filterung funktionieren:


Wenn ein Signal mit einer Abtastfrequenz f1 abgetastet wird, dann ergibt sich doch eine Nyquistfrequenz n1=f1/2 und eine unterabgetaste Schwingung wird auf eine Aliasingfrequenz a1 abgebildet.

Wenn nun das gleiche Signal mit einer Abtastfrequenz f2 ungleich f1 abgetastet wird, ergibt sich eine andere Nyquistfrequenz n2 und die selbe unterabgetastete Schwingung wird auf eine Aliasingfrequenz a2 ungleich a1 abgebildet.

Nun müsste man nur noch die beiden Spektren vergleichen und alle Frequenzen die sich verschoben haben sind unterabgetastet.

Die Kunst wäre nun zwei Bilder zeitgleich mit unterschiedlicher Abtastrate (Auflösung des Sensors) zu machen. Bietet aber nicht genau das Bayer-Pattern eben diese Möglichkeit? Wie man ja auch sehr schön an der Zerlegung des Eingangsbildes in die drei Farbkanäle durch kaha300D gesehen hat. Dort ergaben sich ja auch verschiedene "Aliasing-Frequenzen"

Falls ich hier puren Quatsch von mir gegeben hab, bitte ich das zu entschudigen :D
 
Bei Entfernung des AA-Filters ist etwa 15-20% mehr Auflösung zu erwarten, je nachdem wie stark der Filter war (das haben Thom Hogan und Iliah Borg durch Messungen ermittelt). Bei der S5 Pro, die 6 Mpixel hat, allerdings oktagonal geformt noch etwas mehr, so 8 Mpix. Jedenfalls war das meine Erfahrung, ich habe das nicht gemessen, sondern einfach die 12 Mpixel so lange herunterskaliert bis ich zum subjektiv besten Ergebnis gekommen bin. Dann noch ein sehr scharfes Objektiv genommen, versucht, gescheit zu fokussieren und nicht zu verwackeln, dann kommt man zu erstaunlichen Ergebnissen. Auch der Kontrast wird verbessert, das Bild wird wesentlich klarer.

Wer Angst vor Moirés hat, es gibt AA-filterähnliche Schraubfilter, die man bei Bedarf auf dem Objektiv verwendet, oder es gibt die Möglichkeit, Moirés per Photoshop zu entfernen.
http://www.dbphoto.net/moire/indexpage.html

RPP_portrait.jpg
 
Wenn ein Signal mit einer Abtastfrequenz f1 abgetastet wird, dann ergibt sich doch eine Nyquistfrequenz n1=f1/2 und eine unterabgetaste Schwingung wird auf eine Aliasingfrequenz a1 abgebildet.

Wenn nun das gleiche Signal mit einer Abtastfrequenz f2 ungleich f1 abgetastet wird, ergibt sich eine andere Nyquistfrequenz n2 und die selbe unterabgetastete Schwingung wird auf eine Aliasingfrequenz a2 ungleich a1 abgebildet.

Nun müsste man nur noch die beiden Spektren vergleichen und alle Frequenzen die sich verschoben haben sind unterabgetastet.

Die Kunst wäre nun zwei Bilder zeitgleich mit unterschiedlicher Abtastrate (Auflösung des Sensors) zu machen. Bietet aber nicht genau das Bayer-Pattern eben diese Möglichkeit? Wie man ja auch sehr schön an der Zerlegung des Eingangsbildes in die drei Farbkanäle durch kaha300D gesehen hat. Dort ergaben sich ja auch verschiedene "Aliasing-Frequenzen"

Im Prinzip könnte das funktionieren. Nur praktisch wirds das wohl vorerst nicht geben...

1. Um auch bei Mustern mit geringer Ausdehnung (wenige Perioden) die Unterabtastung - in den sichtbaren Fällen - zu erkennen müssten die Auflösungen merklich unterschiedlich sein (schätze Faktor 2 oder mehr).

2. Rauschen führt zu Fehlerkennungen von Moire.

3. Man müsste das Bild - sehr exakt - auf 2 Sensoren aufteilen. Folge: Lichtverlust und mehr Rauschen.

In der Summe ist es einfacher einen einzelnen Sensor mit 15MP und AA-Filter zu bauen als einen mit 5MP und einen mit 10MP zu kombinieren um Moiree anschließend rauszurechnen.

Sinnvoller käme mir da noch vor einen hochauflösenden Sensor ohne AA-Filter für die Luminanzinfo und einen mit geringerer Auflösung für die Chrominanz einzusetzen.
 
Leider würde das nicht einmal im Prinzip funktionieren, weil ein Pixel keine Frequenz hat. Um eine Frequenz genau zu messen, braucht man viele Pixel, und genau damit landen wir beim Problem: Wie messe ich a1 und a2 so genau, dass ich eine zuverlässige Aussage treffen kann? Wenn ich aber nur über viele Pixel verteilt (sprich: räumlich ungenau) genau eine Frequenz ermitteln kann, dann wird mein anti aliasing Algorithmus entweder sehr unscharf oder sehr ungenau oder beides.

An alle, die's nicht glauben wollen: das Nyquist-Theorem ist keine Ausrede-Formel für schlechte Techniker, die schlampig abtasten und zu faul sind, gute Algorithmen auszutüfteln, sondern ein fundamentaler Satz, um den man genauso wenig herumarbeiten kann wie um den Satz der Energieerhaltung oder die Heisenberg'sche Unschärferelation.

Jeder ist herzlich eingeladen, den AA-Filter runterzunehmen und die zusätzliche Schärfe zu genießen, um den Preis, dass er je nach Motiv hässliche aliasing Effekte bekommt. Da übliche anti aliasing Filter keine besonders guten Tiefpässe sind, gibt es eine Reihe von Motiven, die vom Entfernen des Filters stark profitieren und trotzdem kein aliasing erzeugen (Ortsfrequenzen knapp unter der höchsten Abtastrate, die vom AA-Filter abgeschwächt würden, am Sensor aber gerade noch kein aliasing erzeugen). Aber wenn es zu starken Effekten kommt, kann Software die resultierenden aliasing Effekte zwar teilweise soweit wegrechnen, dass sie nicht mehr so stark sichtbar sind, aber im Ernst: bessere Bildqualität als mit anti aliasing Filter habt ihr dann auch nicht, oder ?
 
Hallo Rudeofus,

Leider würde das nicht einmal im Prinzip funktionieren, weil ein Pixel keine Frequenz hat. Um eine Frequenz genau zu messen, braucht man viele Pixel, und genau damit landen wir beim Problem: Wie messe ich a1 und a2 so genau, dass ich eine zuverlässige Aussage treffen kann? Wenn ich aber nur über viele Pixel verteilt (sprich: räumlich ungenau) genau eine Frequenz ermitteln kann, dann wird mein anti aliasing Algorithmus entweder sehr unscharf oder sehr ungenau oder beides.

daran hatte ich nicht gedacht, dass sich die Frequenz erst über mehrere Pixel ergibt. Kannte die Fouriertransformationen bisher nur von "gewöhnlichen" Zeitsignalen. Aber du hast recht, danke für die Erklärung.
 
daran hatte ich nicht gedacht, dass sich die Frequenz erst über mehrere Pixel ergibt. Kannte die Fouriertransformationen bisher nur von "gewöhnlichen" Zeitsignalen.

Genau das meinte ich mit "Faktor 2 oder mehr".

Bei einzelnen scharfen Linien würde (Farb-)Moire nicht nennenswert auffallen, aber ab 2 Linien müsste es erkannt und "geplättet" werden. Dafür bräuchte man dann z.B. einen 5MP-Sensor für die Nutzinformation und einen mit >=10MP für die Prüfung.
Macht aber wenig Sinn, da ich bei einem 15MP-Sensor genausowenig Moire habe und das ganze in der Konstruktion einfacher wird.
 
ich finds schon eigenartig, dass sich kein hersteller mal die mühe macht ein system auszutüfteln, bei dem der AA filter zwischen body und objektiv ist - ähnlich dem IR Filder der sd14. Dann könnte man das selbst entscheiden und hätte noch dazu nen staubschutz vorm gehäuseeingang.
 
ich finds schon eigenartig, dass sich kein hersteller mal die mühe macht ein system auszutüfteln, bei dem der AA filter zwischen body und objektiv ist - ähnlich dem IR Filder der sd14. Dann könnte man das selbst entscheiden und hätte noch dazu nen staubschutz vorm gehäuseeingang.

Hallo,

Staubschutz ja. Aber was ist mit dem Verschlussabrieb?
Ich kann mich noch an meine 20D erinnern.
Bis 2000 Belichtungen war häufiges Sensoreinigen angesagt.
Danach eher normal.

Gruß
Waldo
 
Staubschutz ja. Aber was ist mit dem Verschlussabrieb? Ich kann mich noch an meine 20D erinnern.
Bis 2000 Belichtungen war häufiges Sensoreinigen angesagt.
Danach eher normal.
Das ist das eine, das andere:

1. Filter - welcher Art auch immer - sind umso abträglicher, je weiter sie vom Sensor entfernt montiert werden. An dieser Stelle: können AA-Filter auf hohe optische Güte geschliffen werden? Nun ja, ich werde es ja sehen ... ;)

2. Wie ein Phasenvergleichs-Autofokusmodul gut mit Doppel- oder Vierfachbildern zurechtkommen sollte, ist mir relativ schleierhaft. Immerhin erwarten wir von einem gut justierten AF eine Genauigkeit, die im Bereich der Pixelauflösung liegt.

3. Damit AF und Belichtungsmessung hinter dem halbdurchlässigen Spiegel nicht in Verwirrung geraten, müsste ein AA-Filtersandwich am Gehäuseeingang nicht nur eine, sondern gleich zwei Zirkularisierungsschichten haben. Er wäre damit komplexer, als in einer Position direkt vor dem Sensor.
 
ich finds schon eigenartig, dass sich kein hersteller mal die mühe macht ein system auszutüfteln, bei dem der AA filter zwischen body und objektiv ist - ähnlich dem IR Filder der sd14. Dann könnte man das selbst entscheiden und hätte noch dazu nen staubschutz vorm gehäuseeingang.

Gabs doch alles. Kodak hat das bei der 600er/700er-Reihe (umgebaute Nikon F5) realisiert, wahrscheinlich auch bei der 500er-Serie auf Canon-Basis. Da konnte man wahlweise einen IR-Filter oder einen AA-Filter (oder auch gar nix) einsetzen. Der Lieferumfangt der Kameras variierte dabei; zuerst wurden AA-Filter mitgeliefert, später IR-Filter.

Der Nachteil dabei ist, dass konstruktiv eigentlich kein Platz für einen Filter vorgesehen ist. Bei zahlreichen Nikkoren ohne AF gibt es da Probleme, da diese zu weit in die Kamera hineingebaut sind. Bei der Umstellung auf AF hat Nikon da offensichtlich die Spezifikation für den Abstand Hinterlinse/Verschlussebene geändert.
 
Ähmmm, nö. Die Beugung wirkt sich gleichmäsig über das ganze Bildfeld aus. Mi67 bitte übernehmen sie! :rolleyes::angel:

Nein, die Beugung ist nicht gleichmässig über das ganze Bildfeld! Die Lichtstrahlen, die Kontakt mit der Blendeklinke haben, streuen sich zu dem Sensor kegelartig, wo die breiteste Seite des weichen Lichtkegels auf den Sensor fällt. Bei einer Blende, die Beugungsunschärfe z.B. bei C50D schon anfängt, ist F8. Bei dieser Blende sind die weiche Lichtkegel noch klein, kleiner als die Gesamtfläche des Sensors, wo die Mitte ist noch nicht betrofen. Also es ist änlich wie bei einem z.B. 1,4/50 Objektiv auf F1,4. Je weitere Blende, F11, F16 usw. werden die weiche Lichtkegel immer breiter bis sie sich auf dem Sensor überdecken. Diese doppelt überbedeckte Sensorfläche wird dann noch mehr unschärf und damit völlig unbrauchtbar.:)
 
Zuletzt bearbeitet:
Nein, die Beugung ist nicht gleichmässig über das ganze Bildfeld! Die Lichtstrahlen, die Kontakt mit der Blendeklinke haben, streuen sich zu dem Sensor kegelartig, wo die breiteste Seite des weichen Lichtkegels auf den Sensor fällt. Bei einer Blende, die Beugungsunschärfe z.B. bei C50D schon anfängt, ist F8. Bei dieser Blende sind die weiche Lichtkegel noch klein, kleiner als die Gesamtfläche des Sensors, wo die Mitte ist noch nicht betrofen. Also es ist änlich wie bei einem z.B. 1,4/50 Objektiv auf F1,4. Je weitere Blende, F11, F16 usw. werden die weiche Lichtkegel immer breiter bis sie sich auf dem Sensor überdecken. Diese doppelt überbedeckte Sensorfläche wird dann noch mehr unschärf und damit völlig unbrauchtbar.:)
Ich kann Dir leider nicht ganz folgen. Warum sollte sich die Beugung im Bildfeld unterscheiden? Was ist "ein weicher Lichtkegel, kleiner als die Gesamtfläche des Sensors"? Warum sollte dabei die Mitte noch nicht betroffen sein? Gehst Du etwa von der irrigen Annahme aus, dass die Beugung lediglich ein Effekt der Blendenkante als solcher sei? Falls dem so wäre: wie kannst Du davon ausgehen, dass ein ins Bildeck zu projezierender Punkt am Ort der Blende ebenfalls an einer "Blendenklinke" anliege und dort ganz besonders stark gebeugt werde? Ich fürchte irgendwie, dass Du im Grundprinzip der Beugung etwas durcheinanderbringst.
 
Wie siehts eigentlich bei den AA-Filtern der aktuellen Nikons aus, also z.B. D700 oder D90?
 
Aus eigenem Interesse würden mich auch Erfahrungen einer umgebauten D300 interessieren.
Wäre interessant etwas über das Moiréeverhalten zu erfahren, in anderen Foren hab ich bisher relativ wenig Umbauten gefunden.
 
Hast Du mal bei dpreview geschaut. Ganz spontan kann ich Dir diesen nennen:
http://forums.dpreview.com/forums/read.asp?forum=1021&message=29423041

In dem Thread findet man Links zu Vorher-/Nachher-RAW-Dateien.

Fazit: die Unterschiede sind sehr subtil. Die D300 hat nach Umbau einen leicht verschobenen WB, man sollte also RAW fotografieren, die D3/D700 scheint allerdings keine solchen Probleme haben. Allerdings ist der Umbau knackig-teuer und die Garantie verfällt.
 
WERBUNG
Zurück
Oben Unten