Gast_338619
Guest
(egal)
Zuletzt bearbeitet:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Die Pixelgröße hat keinen Einfluss auf die Beugung und die Beugung keinen auf die Pixelgröße, also unabhängig.
Ich meinte eigentlich die in Post 17 erwaehnte Unabhaengigkeit.
Du machst aber den Fehler, auf das Ergebnis zu schielen. Es gibt eine Unschärfe durch Diskretisierung und eine Unschärfe durch Beugung, und die beiden sind vollkommen unabhängig voneinander.
Um den Weg des einzelnen Photons zu verfolgen, musst du Beugung und Rasterisierung falten.
Auch damit habe ich Schwierigkeiten. Die Faltung wuerde nur ein geglaettetes Beugungsmuster erzeugen. Eigentlich sollte am Schluss doch etwas diskretisiertes (absolut unglattes) herauskommen.
Da wären wir dann bei der Relevanz der Nebenglieder der sinc-Funktion in der Fouriersynthese. Bevor du dich jetzt aber auch damit abplagst, verweise ich auf das von Masi1157 geschriebene - die Einzelbetrachtung brauchst du ja gar nicht.Auch damit habe ich Schwierigkeiten. Die Faltung wuerde nur ein geglaettetes Beugungsmuster erzeugen. Eigentlich sollte am Schluss doch etwas diskretisiertes (absolut unglattes) herauskommen.
Es geht hier um Fehlerrechnung, da zählt die stochastische Unabhängikeit verschiedenenr Fehlerquellen voneinander.
So sehe ich das auch. Mein Problem ist, dass hier die Stochastik, die hinter der "Fehlerquelle Pixel" steckt, noch gar nicht diskutiert wurde.
Wenn man davon ausgeht, dass Photonen nur in der Mitte von Pixeln ankommen und danach gleichmaessig ueber den Pixel verschmiert werden, dann sind Fehler durch Beugung wohl unabhaengig von Fehlern durch Diskretisierung.
Der Ort, wo ein Photon auftrifft, ist (mal ganz abgesehen von Heisenberg) nur auf einen Pixelabstand genau bestimmbar. Und das ist der Diskretisierungsfehler.
Wenn man den Diskretisierungsfehler so definiert, dann stellt er lediglich eine obere Schranke fuer irgendeine Abweichung dar. Stochastik ist das noch lange nicht.
Wieso denn das nicht? Der Ort, wo ein Photon auftrifft, ist (mal ganz abgesehen von Heisenberg) nur auf einen Pixelabstand genau bestimmbar. Und das ist der Diskretisierungsfehler.
Davon geht doch aber niemand aus. Jeder Tropfen, der in den Eimer fällt, ist am Ende im Eimer. Und wenn er danebenfällt, ist er im Nachbareimer. Dafür muss ich mir doch nicht vorstellen, dass er genau in die Mitte des Eimers fällt.
Gruß, Matthias
Nyquist beschreibt die Rekonstruktion von Signalen, nicht den Quantisierungs-/Diskretisierungsfehler.
Ja, ich kenne den Begriff. Aber wie gesagt: das Nyquist-Shannon-Theorem bezieht sich auf die Rekonstruktion von Signalen - nicht auf die Genauigkeit einzelner Samples. Übertragen auf den aktuellen Sachverhalt bedeutet das: für die optische Auflösung brauchen wir das Theorem - für die Lokalisierung von Photonen nicht.Das ist es doch, auch Abtasttheorem genannt.
Das ist es doch, auch Abtasttheorem genannt.
Dann guck mal bei Wikipedia unter Quantisierungsfehler oder Quantisierungsrauschen. Da findest Du dann auch eine kleine Formel wieder, die ich gerade schon geschrieben habe, mir aber am Handy zu mühsam ist.
Gruß, Matthias
Der relative Fehler wird kleiner, da bei steigender Photonenzahl N das Rauschen nur ~sqrt(N) zunimmt!. Da hast du recht, das ist das Photonenrauschen, hat aber mit
Pixeln nicht direkt zu tun. Je mehr Licht um so mehr Rauschen![]()