• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Auswirkungen des AA-Filters *Vergleichsbilder*

Das ist natürlich nicht gerade typisch für einen herkömmlichen Tiefpass und deshalb ist die Bestimmung einer effektiven Grenzfrequenz nicht so ganz einfach.
Ich tu mich bei der Definition einer Grenzfrequenz auch nicht so einfach, das gleiche gilt aber auch für die Grenzfrequenz eines Bayer-Sensors. Wahrscheinlich ist es besser sie als Gesamtpaket zu betrachten.
 
Wahrscheinlich ist es besser sie als Gesamtpaket zu betrachten.

....und das könnte z.B. die MTF50 des Sensors mit Filter, aber ohne Objektiv (bzw. mit einem perfekten Objektiv) sein. Hast Du so etwas schon mal gesehen? Oder muss man da einfach die mit dem allerbesten Objektiv erreichte MTF50 nehmen?


Gruß, Matthias
 
Ich tu mich bei der Definition einer Grenzfrequenz auch nicht so einfach [...]

....und gestern abend kam mir eine kleine Erleuchtung. Statt eines einzigen Strahls gibt es 4 aufgespaltene, jeweils mit 1/4 der Intensität. Entlang einer Richtung auf dem Sensor gibt es also 2 Strahlen, die um eine kleine Strecke Δ versetzt sind. Oder symmetrisch gedacht: 2 Strahlen, die um +Δ/2 und -Δ/2 versetzt sind. Das selbe gilt natürlich auch für sinusförmige Muster y(x)=sin(2*π*k*x), die aufgespalten werden in

y'(x)= sin(2*π*k*(x+Δ/2))/4 + sin(2*π*k*(x-Δ/2))/4

(k= Wellenzahl [1/m], man könnte sie auch die Anzahl Linienpaare pro Meter nennen)

Laut meinem ollen Bronstein-Semendjajew ist das identisch mit

y'(x)= sin(2*π*k*x)*cos(2*π*k*Δ/2)/2

und unterscheidet sich von dem einzelnen Strahl nur um den Faktor
cos(2*π*k*Δ/2)/2, und das wäre dann der Ortsfrequenzgang des reinen AA-Filters. Der hat eine erste Nullstelle bei π*k*Δ= π/2, also k=1/(2*Δ), und das entspricht gerade der Ortsfrequenz, wo die Verschiebung gerade 1/2 Wellenlänge oder 180° entspricht und die beiden sich auslöschen.

Oberhalb dieser Frequenz steigt der Frequenzgang aber wieder auf den vollen Wert an. Hier kommt dann aber die Ausdehnung der Pixel selber hinzu, die dafür sorgt, dass mit steigender Frequenz gleichzeitig immer mehr "positive und negative" Wellenteile vom selben Pixel erfasst werden und sich gegenseitig auslöschen. Darüber werde ich dann heute abend ein bisschen grübeln.



Gruß, Matthias
 
Zuletzt bearbeitet:
Laut meinem ollen Bronstein-Semendjajew ist das

Nee - ist der immernoch im Gebrauch?
Ich glaub's net...
 
Ich verstehe zwar nicht allzuviel von Signaltheorie, aber was mir bei der Lektüre dieses Threads in den Sinn kommt:
Die Wirkung des AA-Filters, also die Aufspaltung auf definierte vier Pixel müsste doch auch Eingang in das Demosaicing finden? Es sollte doch einen Unterschied machen, ob versucht wird, fehlende Information zu rekonstruieren, oder ob klar ist, dass die gesuchte Information durch den AA-Filter in bestimmten benachtbarten Pixel enthalten ist.
Bisher bin ich aber nicht über entsprechende Hinweise gestolpert. Oder übersehe ich etwas offensichtliches?
 
...und das entspricht gerade der Ortsfrequenz, wo die Verschiebung gerade 1/2 Wellenlänge oder 180° entspricht und die beiden sich auslöschen.
Zu dem gleichen Ergebnis kam ich auch schon in Post #155, genau aus den gleichen geometrischen Überlegungen. Mit den Formeln hab ich es nicht so. :o

Oberhalb dieser Frequenz steigt der Frequenzgang aber wieder auf den vollen Wert an.
Und das ist wohl auch der Grund dafür, warum keiner bei einem optischen Tiefpassfilter eine Grenzfrequenz definieren oder angeben will. Erst mit einem Sensor dahinter, der die Frequenzen selbst nochmal beschneidet, wird ein Lowpass draus. Und da der Sensor hier so wichtig ist, spielt der Füllfaktor der Pixel und auch der Bayeralgorithmus eine Rolle. Es gibt spezielle RAW Konverter bzw. Plugins, die genau für AA-lose Kameras gemacht sind und fast alle Falschfarben raus filtern können. Den Link kennst aber schon?

http://www.cic.unb.br/~mylene/PI_2010_2/ICIP10/pdfs/0004305.pdf

Ich hab versucht mir auch die Quellen dazu zu besorgen, aber ich hab im Moment die falsche IP Adresse. Morgen in der Uni sollte ich Zugriff auf den SPIE Server haben.

Nee - ist der immernoch im Gebrauch?
Ein Bronstein, ein Gerthsen und ein Tipler sollten in keinem guten Haushalt fehlen. :D
 
Ganz einfach gedacht würde also ein einzelner Lichtstrahl auf 4 getrennte (und gleich helle?) Einzelstrahlen aufgespalten, die auf den Ecken eines Quadrats mit der Kantenlänge dieser "Stärke des AA-Filters" liegen.

Gruß, Matthias

Das kann so nicht stimmen: "Scharfe" Kanten-Abbildungen bringen auch mit AA-Filter eine klare Dominanz von 1-Pixel-Linien, die von abgeschwächten Nachbarpixeln begleitet werden. Das ginge mit bloßer Aufteilung nicht.
Ein Teil des Originalstrahls bleibt also erhalten, ein anderer Teil wird abgepalten.

Etwa so wie auf der Zeiss nachgenutzten Skizze (die aber mit 8 Streupunkten wohl untypisch ist).

Gruß messi
 
Zu dem gleichen Ergebnis kam ich auch schon in Post #155, genau aus den gleichen geometrischen Überlegungen. Mit den Formeln hab ich es nicht so. :o

Und mir macht es durchaus Spaß, mir so was herzuleiten.

Und das ist wohl auch der Grund dafür, warum keiner bei einem optischen Tiefpassfilter eine Grenzfrequenz definieren oder angeben will. Erst mit einem Sensor dahinter, der die Frequenzen selbst nochmal beschneidet, wird ein Lowpass draus. Und da der Sensor hier so wichtig ist, spielt der Füllfaktor der Pixel und auch der Bayeralgorithmus eine Rolle. Es gibt spezielle RAW Konverter bzw. Plugins, die genau für AA-lose Kameras gemacht sind und fast alle Falschfarben raus filtern können. Den Link kennst aber schon?

http://www.cic.unb.br/~mylene/PI_2010_2/ICIP10/pdfs/0004305.pdf

Ich hab versucht mir auch die Quellen dazu zu besorgen, aber ich hab im Moment die falsche IP Adresse. Morgen in der Uni sollte ich Zugriff auf den SPIE Server haben.

Den Link kenne ich nicht, gucke gleich mal rein. Den Bayer-Algorithmus und all den Kram kriege ich da im Moment gedanklich noch nicht unter, im Moment grübel ich deshalb über einen idealisierten monochromatischen Sensor mit quadratischen Pixeln. Für's Prinzip sollte es erstmal reichen.

Ein Bronstein, ein Gerthsen und ein Tipler sollten in keinem guten Haushalt fehlen. :D

Meiner ist von 1977 und ziemlich abgeschubbert. :D

Das kann so nicht stimmen: "Scharfe" Kanten-Abbildungen bringen auch mit AA-Filter eine klare Dominanz von 1-Pixel-Linien, die von abgeschwächten Nachbarpixeln begleitet werden. Das ginge mit bloßer Aufteilung nicht.
Ein Teil des Originalstrahls bleibt also erhalten, ein anderer Teil wird abgepalten.

Etwa so wie auf der Zeiss nachgenutzten Skizze (die aber mit 8 Streupunkten wohl untypisch ist).

Schon klar, aber für meine kleinen Grübeleien im Moment 'ne Nummer zu hoch. Man könnte aber auch Gewichtungsfaktoren einbauen.

Geht gleich weiter.



Gruß, Matthias
 
....noch ein Anlauf, dieses Mal angelehnt an die Definition von Kontrast (wie z.B. hier):
Kontrast =(Maximum-Minimum)/(Maximum+Minimum)

Die bei der Bestimmumg der MTF (Modulation Transfer Function) benutzten Signale sind streifenförmige Muster mit einem sinusförmigen Helligkeitsverlauf zwischen 0 und 1 entlang einer Linie. Mathematisch sieht das so aus:

y(x)=1/2 + sin(2*π*k*x)/2

(k= Wellenzahl [1/m], man könnte sie auch die Anzahl Linienpaare pro Meter oder Millimeter nennen)

AA-Filter

Wenn ich jetzt vereinfachend annehme, dass ein Strahl nur in 2 Einzelstrahlen aufgespalten wird, die in der x-Richtung um die kleine Strecke Δ versetzt sind, werden also auch 2 versetzte Streifenmuster projiziert:

y'(x)= 1/2 + sin(2*π*k*(x+Δ/2))/4 + sin(2*π*k*(x-Δ/2))/4 oder

y'(x)= 1/2 + sin(2*π*k*x)*cos(π*k*Δ)/2

Die Maxima dieser Funktion auf der x-Achse sind bei k*x = 1/4; 5/4..., die Minima bei k*x = 3/4; 7/4.... und erreichen:

y'max= 1/2 + |cos(π*k*Δ)|/2
y'min= 1/2 - |cos(π*k*Δ)|/2

Und der maximale Kontrast des idealisierten AA-Filters ist dann frequenzabhängig:

KAA = |cos(π*k*Δ)|

aber das hatte ich ja oben schon. Und jetzt zum

Sensor

Ganz vereinfachend würde ich jetzt von einem monochromatischen Sensor mit quadratischen Pixeln ausgehen, deren Empfindlichkeit auf der gesamten Pixelfläche konstant ist und die linear arbeiten. Mit anderen Worten, deren Ausgangssignal linear von der auf die gesamte Pixelfläche auftreffende Lichtmenge abhängt.

Das Streifenmuster soll jetzt

y(x)=1/2 + cos(2*π*k*x)/2

sein (das ist gleichwertig, aber einfacher zu integrieren). Den maximal möglichen Kontrast zwischen 2 Pixeln finde ich dann, wenn der eine genau mittig vom Maximum dieser Kurve getroffen wird, der andere vom Minimum. Die beiden nenne ich y1 und y2. Zwischen allen anderen Pixeln ist der Kontrast geringer. Die Kantenlänge des Pixels nenne ich p.

y1 = 1/(2*p)*∫(1 + cos(2*π*k*x))dx (integriert von -p/2 bis p/2)
y2 = 1/(2*p)*∫(1 - cos(2*π*k*x))dx (integriert von -p/2 bis p/2)

ymax ist nun das Maximum dieser beiden, ymin das Minimum:

ymax = 1/2*(1 + |sin(π*k*p)|/(π*k*p))
ymin = 1/2*(1 - |sin(π*k*p)|/(π*k*p))

und der Kontrast des idealisierten Sensors

KS = |sin(π*k*p)|/(π*k*p) = |sinc(π*k*p)|

(die Sinc-Funktion hat 2 verschiedene Normierungen!)

Unter all den idealisierenden Annahmen ist dann also die Kontrastübertragung des Gesamtsystems aus idealem (1-dimensionalem) AA-Filter und idealem monochromatischem Sensor

Kges = KAA * KS

Mit den Werten aus der Tabelle für Canon 10D/300D, wo das Verhältnis gerade fast genau 100% ist, habe ich das im Anhang mal ausgerechnet und komme auf eine maximal erreichbare MTF50 von etwa 40lp/mm.

Kann das stimmen? Hab ich irgendwo einen Fehler gemacht? Was entscheidendes unterschlagen? Das ist alles gerade "aus dem Bauch" und auf 'nem Blatt Papier entstanden. Und jetzt hol ich mir 'nen Laphroaig. ;)



Gruß, Matthias
 
Zuletzt bearbeitet:
Und mir macht es durchaus Spaß, mir so was herzuleiten.
Theoretiker! :ugly::D

....noch ein Anlauf, dieses Mal angelehnt an die Definition von Kontrast
Kontrast =(Maximum-Minimum)/(Maximum+Minimum)
Nach der Definition ist der Kontrast nur dann 0, wenn Maximum=Minimum. Ist OK, aber jetzt kommt eine weitere Einschränkung, das geht nur mit y'max=y'min= 1/2
Und das geht nur, wenn einer der Wellenzüge y(x) exakt die Periode p hat und das ist jetzt nur mein Bauchgefühl, aber da zieht es in meinem kleinen Zeh.
ymax = 1/2*∫(1 + cos(2*π*k*x))dx (integriert von -p/2 bis p/2)
ymin = 1/2*∫(1 - cos(2*π*k*x))dx (integriert von -p/2 bis p/2)
*wilde Spekulation on*
Ich glaube hier geht was mit Randbedingung, unterschiedliche x die implizit gleich gesetzt werden, Integrationsgrenzen oder was anderes das ich nicht überblicke daneben.
*wilde Spekulation off*

Kann das stimmen? Hab ich irgendwo einen Fehler gemacht? Was entscheidendes unterschlagen?
Kges geht zu größeren lp/mm wieder auf. Das finde ich zumindest befremdlich.
 

Danke schön! :)

Nach der Definition ist der Kontrast nur dann 0, wenn Maximum=Minimum. Ist OK, aber jetzt kommt eine weitere Einschränkung, das geht nur mit y'max=y'min= 1/2
Und das geht nur, wenn einer der Wellenzüge y(x) exakt die Periode p hat und das ist jetzt nur mein Bauchgefühl, aber da zieht es in meinem kleinen Zeh.

Erste Hälfte: Ja, stimmt. Zweite Hälfte: Nein! Gerade das y' (für den aufgespaltenen Strahl) erreicht tatsächlich 0 und 1.

*wilde Spekulation on*
Ich glaube hier geht was mit Randbedingung, unterschiedliche x die implizit gleich gesetzt werden, Integrationsgrenzen oder was anderes das ich nicht überblicke daneben.
*wilde Spekulation off*

Nee, ich glaub nicht. Ich habe nur klammheimlich sin(-x)=-sin(x) vorausgesetzt.

Kges geht zu größeren lp/mm wieder auf. Das finde ich zumindest befremdlich.

Ach Herrje! Dieses kleine doofe Modell beinhaltet man gerade eben 2 Effekte und beschreibt die ganze Geschichte schon relativ hübsch, finde ich. Wenn Du jetzt noch Abbildungsfehler des Objektivs (noch ein Tiefpass) und solche Sachen hinzunimmst, sieht das für mich prinzipiell schon ganz ordentlich aus.


Gute Nacht und Slaintè!


Matthias
 
Nee, ich glaub nicht. Ich habe nur klammheimlich sin(-x)=-sin(x) vorausgesetzt.
Das hatte ich nach etwas Grübeln auch noch raus gefunden. Ich glaube jetzt kann ich formulieren was mich an der Betrachtung stört. Deine Betrachtung vom maximal möglichen y_min und y_max gilt genau dann, wenn die Minima und Maxima vom Signal y exakt auf die Mitte vom Pixel treffen. Gebe ich jetzt z.B. die Nyquist Frequenz vor, dann kann ich damit den maximal möglichen Kontrast bei der Frequenz ausrechnen. Ist auch richtig, aber verschiebe ich das Eingangssignal um p/2, dann würde mein Experiment nur noch einen einheitlichen Grauwert liefern mit Kontrast=0. Diesen Fall kann ich mit deinen Formeln nicht nachbilden, was aber auch an meiner Unfähigkeit damit umzugehen liegen kann.
 
[...] Ist auch richtig, aber verschiebe ich das Eingangssignal um p/2, dann würde mein Experiment nur noch einen einheitlichen Grauwert liefern mit Kontrast=0. Diesen Fall kann ich mit deinen Formeln nicht nachbilden, was aber auch an meiner Unfähigkeit damit umzugehen liegen kann.

Nein, der schlechteste Fall wäre, dass das Maximum oder Minimum genau auf dem Rand zwischen 2 Pixeln liegt. Dafür muss ich nur von 0 bis p integrieren, statt von -p/2 bis +p/2. Und insofern auch wieder "ja": Es ist eine Verschiebung um p/2, aber der Effekt ist nicht ganz so dramatisch. Mache ich nachher mal, jetzt sitze ich bei einem Vortrag.


Gruß, Matthias
 
Zuletzt bearbeitet:
So, während des langweiligen Vortrags sind mir noch 2 Gedanken gekommen und ich habe die Herleitung oben entsprechend korrigiert:

1. Statt über die Pixelbreite zu integrieren, muss ich natürlich über die Pixelbreite mitteln, was in den Formeln aber nur einen zusätzlichen Faktor 1/p bedeutet und y'min und y'max dimensionslos macht, was ja auch korrekt ist.

2. Ich habe y'max iimmer symmetrisch zu einem Maximum und y'min entsprechend symmetrisch zu einem Minimum angenommen. Das ist nicht ganz korrekt, denn diese beiden Werte können ihre Reihenfolge auch umkehren und ihre "Rollen tauschen" und der berechnete Kontrast wäre negativ. Das lässt sich aber durch Betrachtung der Beträge umgehen. was ich übrigens in dem Diagramm ja schon gemacht hatte.


Gruß, Matthias
 
Mache ich nachher mal, [...]

Und es ist nahezu trivial:
Für die größte und kleinste von einem Pixel erfasste Lichtmenge betrachte ich die Fälle, dass ein Pixel genau mittig vom Maximum oder Minimum dieser Kurve getroffen wird, und nenn die beiden erstmal y1 und y2.

y1 = 1/(2*p)*∫(1 + cos(2*π*k*x))dx (integriert von -p/2 bis p/2)
y2 = 1/(2*p)*∫(1 - cos(2*π*k*x))dx (integriert von -p/2 bis p/2)

ymax1 ist nun das Maximum dieser beiden, ymin1 das Minimum:

ymax1 = 1/2*(1 + |sin(π*k*p)|/(π*k*p))
ymin1 = 1/2*(1 - |sin(π*k*p)|/(π*k*p))

und der höchstmögliche Kontrast des idealisierten Sensors

KSmax = |sin(π*k*p)|/(π*k*p) = |sinc(π*k*p)|

Jetzt kann man aber auch das "dunkelste" Maximum und das "hellste" Minimum suchen, wo das Maximum und Minimum der Helligkeitsverteilung gerade auf der Kante zwischen 2 Pixeln liegt. Dann finde ich y3 und y4.

y3 = 1/(2*p)*∫(1 + cos(2*π*k*x))dx (integriert von 0 bis p)
y4 = 1/(2*p)*∫(1 - cos(2*π*k*x))dx (integriert von 0 bis p)

ymax2 ist nun das Maximum dieser beiden, ymin2 das Minimum:

ymax2 = 1/2*(1 + |sin(2*π*k*p)|/(2*π*k*p))
ymin2 = 1/2*(1 - |sin(2*π*k*p)|/(2*π*k*p))

Und der Kontrast zwischen diesen beiden wäre

KSmin = |sin(2*π*k*p)|/(2*π*k*p) = |sinc(2*π*k*p)|

Jetzt kann man natürlich alle möglichen Kombination betrachten, die vom idealisierten Sensor erfassten Kontraste lägen aber zwischen diesen beiden Grenzen. Und die sehen (mit den Werten von oben) so aus wie im Diagramm unten.



Gruß, Matthias
 
Zuletzt bearbeitet:
Jetzt kann man natürlich alle möglichen Kombination betrachten, die vom idealisierten Sensor erfassten Kontraste lägen aber zwischen diesen beiden Grenzen. Und die sehen (mit den Werten von oben) so aus wie im Diagramm unten.
Ja, jetzt bin ich ganz bei dir. Als Experimentalphysiker springt bei mir aber sofort die Frage auf und was würde ich messen? Die Grenzen sind nun fest gelegt, trifft man sich pragmatisch in der Mitte?
Zerlegen wird das Bild in diese Frequenzen müssen wir es eh im Fourier-Raum betrachten. Macht man dann Statistik im Fourier-Raum?
 
Macht man dann Statistik im Fourier-Raum?

Nöö, ich würde erstmal schön im (wie sagt man denn hier?) "Orts"raum bleiben. Schlussendlich ist ja jede Lage des Pixels relativ zu Maxima und Minima der Helligkeitsverteilung gleich wahrscheinlich. Dann käme man zu etwas wie:

y1 = 1/(2*p)*∫(1 + cos(2*π*k*x))dx (integriert von -p/2+z bis p/2+z)
y2 = 1/(2*p)*∫(1 - cos(2*π*k*x))dx (integriert von -p/2+z bis p/2+z)

...und müsste das Ergebnis dann nochmal über z von 0 bis p/2 mitteln. Das wird etwas unhandlich, fürchte ich. Ich quäle heute abend dann nochmal den Bronstein.



Gruß, Matthias
 
...also weiter im Text....

y1 = 1/(2*p)*∫(1 + cos(2*π*k*x))dx (integriert von -p/2+z bis p/2+z)
y2 = 1/(2*p)*∫(1 - cos(2*π*k*x))dx (integriert von -p/2+z bis p/2+z)

y1 = 1/2*(1 + sin(π*k*p)*cos(2*π*k*z)/(2*π*k*p))
y2 = 1/2*(1 - sin(π*k*p)*cos(2*π*k*z)/(2*π*k*p))

Und die Mittelwerte:

y1 = 1/p*∫(1 + sin(π*k*p)*cos(2*π*k*z)/(2*π*k*p))dz (integriert von 0 bis p/2)
y2 = 1/p*∫(1 - sin(π*k*p)*cos(2*π*k*z)/(2*π*k*p))dz (integriert von 0 bis p/2)

Doch nicht so unübersichtlich, aber irgendwie kaum zu glauben:

y1 = 1/2*(1 + (sin(π*k*p)/(π*k*p))²)
y2 = 1/2*(1 - (sin(π*k*p)/(π*k*p))²)

Und jetzt ist der Kontrast zwischen Mittelwerten:

KSav = (sin(π*k*p)/(π*k*p))²

Kann das sein? Die Kurve ist im Diagramm unten. Ich kann erstmal nicht weitermachen. Besuch.



Gruß, Matthias
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten