Eieiei..
Nojo, kannst du mir erklären wie du ein Elektron vom anderen unterscheiden willst

Würde mich sehr interessieren, dass würde bei der Arbeit doch helfen.
Nochmal meine Bitte: mach Dich mit Rauschunterdrückungsverfahren vertraut. Es wird nicht "ein Elektron von einem anderen unterschieden" (was für eine absurde Idee), sondern die
Umgebung des aktuellen Signals untersucht. Und das geht tatsächlich auch mit einem Signal, welches nur 1 Bit an Dynamikumfang hat.
Ja, aber dabei werden ja trotzdem "nur" benachbarte Pixel genommen. Kannst ja nicht auf der eine Seite vom Bild das Pixel von der anderen Seite heranziehen
Das hat auch niemand geschrieben?

Diese benachbarten Pixel werden aber eben
nicht wie von Dir dargestellt einfach interpoliert, sondern per
Kosinustransformation und
Tiefpassfilter ganz anders ausgewertet. Vielleicht hilft es, wenn Du Dir auch diese beiden Begriffe einmal anschaust.
Da gebe ich dir schon recht, dass es irgendwann darauf ankommt, in welcher Größe ich es betrachte. Wenn ich ein 20 MP Bild auf 100x100 Pixel verkleiner, kann ich keinen unterschied mehr sehen
Ich habe nicht von einer
Verkleinerung des Bildes geschrieben, sondern von einer
Vergrößerung. Das war doch eigentlich recht eindeutig; was soll das jetzt?
Wenn ich aber nun diese beiden Bilder vergleiche
1. Bei Ansicht in gleicher Ausgabegröße ist der Unterschied zwar immer noch erkennbar, aber nicht mehr so eklatant wie auf Pixelebene. Nach dem, was hier bisher im Thread von dmk³ und mir geschrieben wurde, auch logisch.
2. Die S95 ist 2 Jahre neuer als die G10. Das ist in der Entwicklung von Kamerasensoren eine ganze Menge. So sind Mikrolinsen und Quanteneffizienz verbessert, der Flächenanteil der Signalisierungspfade und das Ausleserauschen reduziert worden.
3. Die G10 ist bei F/4,0 mit 1/1000s belichtet, die S95 bei F/4,5 mit 1/640s. Das sind 1/3 Unterschied in der Blende, aber 1/2 in der Belichtungszeit: D.h. die S95 hat knapp 25% mehr Licht bekommen.
Wenn man vergleicht, sollte man das vielleicht
- mit dem Gesamtbild
- bei Sensoren der gleichen Generation und
- mit gleich viel Licht
tun.
Jo, genau das meine ich ja mit Grenze. Die Messfehler werden ja irgendwann überproportional.
Da muss man noch sehen, wie weit die technische Entwicklung geht bzg. Reduzierung von Auslese- und Quantisierungsrauschen. Die haben dmk³ und ich aber von vornherein ausgeschlossen. Entsprechend stellen sich mir nun folgende Fragen:
- Wenn Du mit der Grenze die Bedingungen meinst, die dmk³ und ich ausgeschlossen haben, warum widersprichst Du uns dann? Wenn man eine Theorie genau an den Punkten angreift, die diese ausgeschlossen hat, ist das je nach Sichtweise eine Strohmanntaktik bis bestenfalls wirkungslos?
- Wieso bringst Du dann Beispiele, die von der von dmk³ und mir genannten Grenze noch weit entfernt sind?
Ich wollte doch nie sagen, dass wir da schon sind, ich hatte nur von einer Grenze gesprochen, die ja bisher immer ausgeschlossen wurde.
?? Wir haben nicht eine
Grenze ausgeschlossen, sondern einen
Bereich hinter der Grenze der sinnvollen Messwerte - soll heißen wir haben doch selbst eine Grenze festgelegt.
Aber das Bild ist ja trotzdem größer
Und das hilft uns in dem Thema jetzt wie?
Interessant bei deinem Bildbeispiel finde ich, dass das Ergebnis eigentlich mit dem einfachen Blur sogar noch am besten entrauscht wurde.
Das dürfte an der zu geringen Datenbasis gelegen haben. So konnten die Programme nicht ordentlich profilieren. Und das greift eben, wie an den Beispielen deutlich zu sehen, insbesondere bei geringerer Auflösung. (Dass es mit 1 und 2 Bit nicht ordentlich klappte, liegt wie gesagt an der Ausrichtung der Programme).
Im Zusammenhang mit meinen Beispielbildern dürfte auf jeden Fall aber auffallen, dass wohl das mit Gauss-Blur Radius 1,00 behandelte 1-Bit-Bild zwar körnig, aber irgendwie noch am besten aussieht. Eben weil das Gehirn auch mit Rauschunterdrückungsalgorithmen arbeitet, die im Fall des reinen (ohne Blur behandelten) 1-Bit-Bildes natürlich an der ebenfalls physiologischen Mustererkennung scheitert. Und in die gleiche Kerbe haue ich noch damit, dass es mal zu DOS-Zeiten ein PC-Programm gab, welches über den
Speaker relativ gut Wavesounds ausgeben konnte. Den Speaker konnte man aber nicht mit einer bestimmten Amplitude regeln, sondern nur mit einem Frequenzgenerator ein- und ausschalten: also quasi 1 Bit Dynamikauflösung (es war ja immer nur
eine Frequenz einstellbar; eine echte Fouriersynthese also auch nicht möglich). Durch eine ausreichend schnelle Ansteuerung auf Hardwareebene (Assembler war geil

) konnte relativ guter Klang erzeugt werden analog dem Verfahren, wie mit Pulsweitenmodulation mittlere Spannungen geregelt werden.