Nachtrag:
Die Antwort liegt in Posting #8 hier:
Wir wollen doch wissen ob für eine bestimmte Kamera mit -sagen wir - 6my Pixeln die Beugungseffekte eine Rolle spielen. Die Beugungseffekte haben mit dem Pixelraster nichts zu tun (siehe die Formel), nur mit der Lichtwellenlänge, Blende und Abbmasstab (wie ich gelernt habe). Sie haben physikalisch bedingt eine gewisse lineare Grösse in der Brennebene. Für ein Objekt im Unendlichen hab ich diese Beugunsgeffekte im obigen Beispiel mit 11my ausgerechnet.
Jetzt setze ich diese Optik vor die Kamera mit dem Chip, der 6my Pixel hat. Die Frage ist: sind wir auf diesem Pixelraster durch die Beugung limitiert (oder durch das Pixelraster!?) ?
Ich muss also ausrechnen, wie klein der kleinstmöglich darstellbare (farbige) Bildpunkt ist auf diesem Pixelraster. Wegen theoretischer Begrenzungen (Sampling Theorem, Nyquist Limit in der Bildverarbeitung) kann man physikalisch keine kleineren Punkte auf dem Raster erzeugen als jede die 2 Pixel breit sind. Weil wir farbig denken müssen, heisst das wir brauchen für jedes der 2 Pixel die volle Farbinfo, also brauchen wir 2 x 1 komplette Bayer-Matrix (die schon alleine 2 Pixel breit ist), also die lineare Breite des kleinsten farbigen Bildpunkts ist 4 x Pixelgrösse = 24my (Du hattest argumentiert der Bayer-Faktor ist nur 1.5, na gut dann sind wir bei abgeschätzten 2 x 1.5 = 3x Pixelgrösse = 18my statt meiner 24my).
Heisst also insgesamt: die Beugung ist (bei 6my Pixeln noch etwas !) kleiner als die Effekte, die durch das Sampling auf dem Pixelraster auftreten. Deshalb ist Beugung noch nicht essentiell wichtig. (Sie beginnt langsam wichtig zu werden bei dieser Pixelgrösse). Das war der Zusammenhang zwischen Beugung und Rasterung den ich meinte. Der Vergleich welcher Effekt von beiden grösser ist. Wie wir sehen, sind wir durch die Ratserung mehr limitiert als durch die Beugung.
Im nachhinein muss man natürlich sagen: Diese ganzen Abschätzungen gelten nur für ein perfektes optisches System. Natürlich sind reale opt. Systeme eben nicht perfekt und eventuell kommen weitere Effekte auch dadurch zustande, dass das Linsensystem noch interne Beugungseffekte hat, die dominanter sind, als die theoretisch abgeschätzen. Dazu muss man aber das Objektiv durchmessen (MTF-Kurven) und kann nicht mehr gso grob analytisch (=durch einfache Formeln) abschätzen wie ich das versucht habe oben. Das (und die Macro-Effkte) sind wahrscheinlich die Gründe, dass Beugung oder Dreckeffekte in den realen Objektiven doch schon schlimmer sind als oben theoret. abgeschätzt.
Noch was zum Schluss: für die FWHM-Grenze aus meiner Formel oben ist die MTF praktisch = Null, weil durch die Beugungsgrenze sozusagen der Nullpunkt der MTF bestimmt/definiert ist (Beugungseffekte verschmieren jeden Kontrast). Insofern ist es natürlich auch richtig, dass die MTF schon vorher auf niedrigere Werte abfällt, d.h. der Kontrast nachlässt.
Schöne Grüsse
Peter
PeterSausk schrieb:Punkte immer nur auf 2 Pixel - warum ?
Wenn ich mit einem Laser einen (praktisch idealen) Punkt auf einen Chip leuchte, dann wird dieser Punkt immer auf mindestens 2 Pixel (Breite, Anm. des Verf.) abgebildet. (Sampling Theorem, Nyquist Limit in der Bildverarbeitung). Deshalb kann es keine Details in einem physikalisch normal erzeugten Bild geben die kleiner sind als 2 Pixel (natürlich kann ich per Bildverarbietung ein isoliertes Pixel mit soundsoviel ADUs drin erzeugen, das ist aber eine Frage der Manipulation von Daten und nicht der Physik).
Cephalotus schrieb:Das ist schon alles richtig, ich sehe nur keinen Zusammenhang bzgl der Beugungsscheibchen.
Die Antwort liegt in Posting #8 hier:
PeterSausk schrieb:Wir haben also zu vergleichen:
24 my ist der Durchmesser des kleinsten farbigen Bildpunkts
11 my ist der Durchmesser der Beugungseffekte
Wir wollen doch wissen ob für eine bestimmte Kamera mit -sagen wir - 6my Pixeln die Beugungseffekte eine Rolle spielen. Die Beugungseffekte haben mit dem Pixelraster nichts zu tun (siehe die Formel), nur mit der Lichtwellenlänge, Blende und Abbmasstab (wie ich gelernt habe). Sie haben physikalisch bedingt eine gewisse lineare Grösse in der Brennebene. Für ein Objekt im Unendlichen hab ich diese Beugunsgeffekte im obigen Beispiel mit 11my ausgerechnet.
Jetzt setze ich diese Optik vor die Kamera mit dem Chip, der 6my Pixel hat. Die Frage ist: sind wir auf diesem Pixelraster durch die Beugung limitiert (oder durch das Pixelraster!?) ?
Ich muss also ausrechnen, wie klein der kleinstmöglich darstellbare (farbige) Bildpunkt ist auf diesem Pixelraster. Wegen theoretischer Begrenzungen (Sampling Theorem, Nyquist Limit in der Bildverarbeitung) kann man physikalisch keine kleineren Punkte auf dem Raster erzeugen als jede die 2 Pixel breit sind. Weil wir farbig denken müssen, heisst das wir brauchen für jedes der 2 Pixel die volle Farbinfo, also brauchen wir 2 x 1 komplette Bayer-Matrix (die schon alleine 2 Pixel breit ist), also die lineare Breite des kleinsten farbigen Bildpunkts ist 4 x Pixelgrösse = 24my (Du hattest argumentiert der Bayer-Faktor ist nur 1.5, na gut dann sind wir bei abgeschätzten 2 x 1.5 = 3x Pixelgrösse = 18my statt meiner 24my).
Heisst also insgesamt: die Beugung ist (bei 6my Pixeln noch etwas !) kleiner als die Effekte, die durch das Sampling auf dem Pixelraster auftreten. Deshalb ist Beugung noch nicht essentiell wichtig. (Sie beginnt langsam wichtig zu werden bei dieser Pixelgrösse). Das war der Zusammenhang zwischen Beugung und Rasterung den ich meinte. Der Vergleich welcher Effekt von beiden grösser ist. Wie wir sehen, sind wir durch die Ratserung mehr limitiert als durch die Beugung.
Im nachhinein muss man natürlich sagen: Diese ganzen Abschätzungen gelten nur für ein perfektes optisches System. Natürlich sind reale opt. Systeme eben nicht perfekt und eventuell kommen weitere Effekte auch dadurch zustande, dass das Linsensystem noch interne Beugungseffekte hat, die dominanter sind, als die theoretisch abgeschätzen. Dazu muss man aber das Objektiv durchmessen (MTF-Kurven) und kann nicht mehr gso grob analytisch (=durch einfache Formeln) abschätzen wie ich das versucht habe oben. Das (und die Macro-Effkte) sind wahrscheinlich die Gründe, dass Beugung oder Dreckeffekte in den realen Objektiven doch schon schlimmer sind als oben theoret. abgeschätzt.
Noch was zum Schluss: für die FWHM-Grenze aus meiner Formel oben ist die MTF praktisch = Null, weil durch die Beugungsgrenze sozusagen der Nullpunkt der MTF bestimmt/definiert ist (Beugungseffekte verschmieren jeden Kontrast). Insofern ist es natürlich auch richtig, dass die MTF schon vorher auf niedrigere Werte abfällt, d.h. der Kontrast nachlässt.
Schöne Grüsse
Peter
Zuletzt bearbeitet: