• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Quanteneffizienz, Photonenfluss und High-ISO, wo ist das Limit?

Es gibt doch auch andere physikalische Grenzen aufgrund der gängigen Modelle, z.B. die Lichtgeschwindigkeit. Trotzdem versuchen hunderte Physiker, neue Entdeckungen zu machen, die das alte Modell erschüttern und damit die alten Grenzen überwinden. Gerade im Zusammenhang mit der Lichtgeschwindigkeit liest man ja immer mal wieder derartiges, auch wenn es bisher offenbar da noch keinen Durchbruch gegeben hat.

Zunächstmal: Die spezielle Relativitätstheorie ist experimentell bestätigt und deren Effekte deutlich messbar. Der Einfluss der Lichtgeschwindigkeit als Obergrenze muss Beispielsweise bei den GPS-Satelliten berücksichtigt werden, sonst würde die tatsächlich falsche Koordinaten liefern.

Mit "man liest immer wieder mal" spielst du vermutlich auf das Gran-Sasso Experiment zu Neutrinos an, die Daten ermittelt hatten, die darauf schließen ließen, dass diese Neutrinos mit größerer Geschwindigkeit als der Lichtgeschwindigkeit bewegen. Darauf hin haben die Physiker die Daten und ihre Versuchsappatur veröffentlicht, aber quasi mit dem Aufruf "Helft uns den Fehler zu finden", aus diesem "Helft uns den Fehler zu finden" wurde in der Presse ein "Einstein ist widerlegt". Ursache war schließlich wohl ein defektes Datenkabel.

Im Moment scheint in der Physik alles so zu laufen, dass die theoretischen Modelle der letzten Jahrzehnte nicht erschüttert sondern, durch den LHC, experimentell bestätigt werden. Die Entdeckungen die da gemacht werden, haben aber vermutlich in den nächsten hundert oder mehr Jahren keinen Einflus auf Alltagsleben.

Außerdem enthalten neuere Modelle die funktionierenden alten Modelle fast immer als Grenzfall.
 
Zuletzt bearbeitet:
Das dürfte der Heisenbergschen Unschärferelation unterliegen und auch nicht weiterführen.
Naja, die Belichtungszeit ist für quantenmechanische Verhältnisse ewig. Wenn ich mich jetzt nicht ganz grob verrechnet habe, liefert bei 1/10000 s Belichtungszeit die Unschärferelation für die Wellenlängenbestimmung eine minimale Ungenauigkeit unter einem Millionstel Prozent, bei längerer Belichtung wird die Ungenauigkeit entsprechend geringer. Das sollte also nicht das Problem sein.

L.G.

Burkhard.
 
[..]
Außerdem enthalten neuere Modelle die funktionierenden alten Modelle fast immer als Grenzfall.
+1 :top:
Genau das hab ich umgangssprachlich ausdrücken wollen.
Durchaus möglich das morgen jemand mit einer genaueren Theorie ankommt, deswegen wird die QT ja aber nicht falsch, zumindest nicht in den Bereichen und Toleranzen die bereits empirisch untersucht sind.


Ein neues Modell kann das Alte nur in Bereichen "wiederlegen" für die es entweder keine empirischen Untersuchungen gab oder die Differenz der Vorhersagen kleiner ist als die Messtoleranz.
Letzteres ist für diese Problem so irrelevant wie die Relativitätstheorie für ein Fahrrad. Und da wir uns eben in einem Bereich bewegen der sehr ausführlich experimentell bestätigt ist, ist es auch sehr unwahrscheinlich, das die QT nur in einem bestimmten, isolierten Aspekt so ungenügend ist das es uns helfen würde, es aber einfach noch kein Experiment dazu gab..

Natürlich ist es denkbar das die Menschheit kollektiv in einem Denkmodell festhängt, das verhindert das wir eine Lösung sehen. Aber solche Gedankengänge führen in die Katatonie..
 
Ist das mit dem schwarzen Silizium kein Thema?
Da gehts um Verminderung des vom Sensor refllektierten Licht in abhängig der Wellenlänge.

Das ist allerdings ein neuer Aspekt, der hier noch nicht angesprochen wurde. Wie hoch ist denn das Remissionsgrad eines Sensors?
Vom total unwissenschaftlichen draufkucken würd ich mal auf irgendwas zwischen 40-90% tippen, dann wären ja noch 1-3 Blenden zu holen..

Fällt allerdings auch unter Optimierung der bekannten Methode und nicht unter Pardigmenwechsel.
 
Zuletzt bearbeitet:
Im Moment scheint in der Physik alles so zu laufen, dass die theoretischen Modelle der letzten Jahrzehnte nicht erschüttert sondern, durch den LHC, experimentell bestätigt werden. Die Entdeckungen die da gemacht werden, haben aber vermutlich in den nächsten hundert oder mehr Jahren keinen Einflus auf Alltagsleben.

Ich bin ja kein Physiker, noch nicht einmal Techniker, und kann das alles also nur mit meinem Schulwissen betrachten. Verzeiht daher bitte, wenn ich Unsinn rede.

Es ist aus meiner Laiensicht aber doch durchaus möglich, dass auch ein altes, gut funktionierendes und scheinbar alles erklärendes Modell (Quantentheorie; Relativitätstheorie) aufgrund neuer Beobachtungen durch ein neues ersetzt werden muss.

Nicht anders ist es doch Newton auch gegangen. Alles ließ sich prima erklären und stimmte zusammen, bis irgendwann Einstein und co. eines neues Modell entwickelten.

Und selbst wenn dieses neue Modell das alte als Grenzfall enthält, kann es doch sein, dass man die neuen Erkenntnisse plötzlich auch im Alltagsleben fruchtbar machen kann.

Wird nicht z.B. an einem Quantencomputer gearbeitet, der sehr effizient sein könnte, und eben auf der Quantenmechanik basiert? Mit der alten Theorie von Newton kann man so etwas nicht bauen.

Wenn es nun irgend wann eine neue Theorie gibt, ist es doch vorstellbar, dass man damit auch technische Lösungen für Alltagsprobleme finden kann.

Die momentane Standardtheorie ist doch nun auch schon wieder ziemlich alt, das stimmt mich zuversichtlich, dass endlich mal wieder ein völlig neuer Ansatz kommt :D
 
Es ist aus meiner Laiensicht aber doch durchaus möglich, dass auch ein altes, gut funktionierendes und scheinbar alles erklärendes Modell (Quantentheorie; Relativitätstheorie) aufgrund neuer Beobachtungen durch ein neues ersetzt werden muss.
Nicht ersetzt, sondern erweitert. Die alten Modelle werden ja weiterhin angewendet, wo sie ausreichen. Die neuen sind nämlich oft so kompliziert, dass man damit gar nicht arbeiten kann. Kein Mensch berechnet den Bremsweg eines Autos mit der Allgemeinen Relativitätstheorie, obwohl das genauer wäre. Newton reicht völlig aus.

Und selbst wenn dieses neue Modell das alte als Grenzfall enthält, kann es doch sein, dass man die neuen Erkenntnisse plötzlich auch im Alltagsleben fruchtbar machen kann.
Ja, aber nur in Bereichen, für die die alte Theorie nicht funktionierte oder zu ungenau war. Beides trifft auf die Fotografie nicht zu. Eine Theorie, die für die Fotografie relevant wäre, müsste der Quantenmechanik widersprechen.

Wird nicht z.B. an einem Quantencomputer gearbeitet, der sehr effizient sein könnte, und eben auf der Quantenmechanik basiert? Mit der alten Theorie von Newton kann man so etwas nicht bauen.
Mit herkömmlichen Rechnern hat das soviel zu tun wie ein Kernspintomograph mit deiner DSLR. Ganz andere Funktionsweise, ganz andere Technik, ganz andere Bilder. (Mit Newtons Theorie kann man übrigens nicht mal elektrische Rechner bauen, dessen Theorie beschränkt sich auf die Mechanik.)


L.G.

Burkhard.
 
Das ist allerdings ein neuer Aspekt, der hier noch nicht angesprochen wurde. Wie hoch ist denn das Remissionsgrad eines Sensors?
Vom total unwissenschaftlichen draufkucken würd ich mal auf irgendwas zwischen 40-90% tippen, dann wären ja noch 1-3 Blenden zu holen..
Ich würde da eher 5 bis 10 % tippen, wenn man so auf den Sensor schaut, wie auch das Licht vom Objektiv einfällt. 90 % ist der Reflexionsgrad eines normalen Haushaltsspiegels. Der Schwingspiegel einer DSLR hat normalerweise so ca 75 % (die restlichen 25 % sind für den Autofokus).

L.G.

Burkhard.
 
Eine Theorie, die für die Fotografie relevant wäre, müsste der Quantenmechanik widersprechen.

Wie gesagt bin ich nicht vom Fach, allerdings kommt mir diese These schon ein wenig gewagt vor. Warum sollen nicht Effekte gefunden werden, die sich zwar in die Quantenmechanik als Näherung einfügen, aber doch auf die Fotografie auswirken? Z.B. ein völlig neues Modell des Lichts jenseits von Wellen und Photonen? Oder Begleiterscheinungen des Lichts (z.B. in Form weiterer Elementarteilchen), die indirekte Rükschlüsse auf das Licht zulassen?
 
Ich überlege mir die ganze Zeit, wie ein Prisma in den Zeiten heutiger Pixelgrößen wirkt und erst recht, wenn die Pixelgrößen weiter schrumpfen.
Das Foveon-Grundkonzept - vielleicht mit einem Stack von mehreren Schichten mit unterschiedlichem Bandabstand, also nicht rein in Silizium - wäre schon geeigneter. Aber bis so eine Technologie den selben Reifegrad hätte wie aktuelle Si-Sensoren.... - momentan wären KB-Sensoren in komplizierter III-V-Technologie unbezahlbar.

Prismen und Filterschichten gibt es ja im Großen beim 3CCD-Modell des Camcorder - für hochwertige Photokameras aber kein guter Weg mit 3 Sensoren und einem riesigen Vorbau davor.

Was ich mich frage, ist aber folgendes: Die errechneten physikalischen Grenzen beruhen doch auf den derzeitigen Erkenntnissen bzw. Modellen in der Physik. Ist es nicht denkbar, ja sogar wahrscheinlich, dass sich auch diese im Laufe der Zeit ändern? Kann es nicht sein, dass neue wissenschaftliche Erkenntnisse gewonnen werden, die dann wieder erhebliche Verbesserungen möglich machen?
Nichts ist ausgeschlossen. - Das aktuelle Modell von Licht ist in den Anfängen etwa 100 Jahre alt (Einsteins Theorie des photoelektrischen Effekts von 1905) und im wesentlichen in den 1950er Jahren konsolidiert worden. Seither gilt es als solide. Es hat Ergebnisse wie den Laser oder squeezed states vorhersagen können, bevor sie experimentell realisierbar waren. Die pure naive Hoffnung "es könnte doch etwas anderes geben" eignet sich nicht zur Prognose der technischen Entwicklung der nächsten 10 (und selten der nächsten 50) Jahre. Danach interessiert es mich nicht mehr. :evil:

Es gibt doch auch andere physikalische Grenzen aufgrund der gängigen Modelle, z.B. die Lichtgeschwindigkeit. Trotzdem versuchen hunderte Physiker, neue Entdeckungen zu machen, die das alte Modell erschüttern und damit die alten Grenzen überwinden. Gerade im Zusammenhang mit der Lichtgeschwindigkeit liest man ja immer mal wieder derartiges, auch wenn es bisher offenbar da noch keinen Durchbruch gegeben hat.
"Superluminares Tunneln": ein besonder schönes Beispiel für Leute, die sich meiner Ansicht nach ordentlich blamiert haben. Hätten diese Physiker besser vorher einen Nachrichtentechniker gefragt...
 
Wellen und Photonen sind eben jene Grenzfelle des Modells der Quantefeldtheorie des Lichts. Betrachtet man viele Ereignisse und mittelt darüber, ist das Wellenmodell eine sehr gute Näherung, bei wenigen Ereignisse eben das Teilchenmodell.
 
Zuletzt bearbeitet:
Naja, die Belichtungszeit ist für quantenmechanische Verhältnisse ewig.
So gesehen hast du - auch mit deiner Abschätzung der entstehenden nur geringen Ungenauigkeit - natürlich recht. Blur bezog sich ja aber auf die Messung einzelner Photonen.

Was hat Heisenberg denn dagegen die Energie von Photonen zu bestimmen? Erst recht innerhalb der geforderten Genauigkeit für eine Bildgebung?
Wenn innerhalb eines gegebenen Zeitraumes nur ein Photon kommt, natürlich nichts.

Das Problem ist - unabhängig von eventuellem messtechnischen Aufwand - aber, dass innerhalb der Belichtungszeit weder nur Photonen gleicher Wellenlänge ankommen noch man weiß, wie oft bzw. wann dies genau geschieht. Das dürfte wohl der Grund für Blurs Frage nach der Messung der Wellenlänge einzelner Photonen sein - und ist gleichzeitig die Ursache für die Nichtrealisierbarkeit: Zeitpunkt und Wellenlänge sind nicht gleichzeitig messbar (allgemeinverständliche Analogie hier).

Im Ergebnis bleibt also bei bildgebenden (statischen) Verfahren einem Pixel nur die Messung der innerhalb eines Wellenlängenbereiches über einen definierten Zeitraum eintreffenden Gesamtenergie.

Prismen und Filterschichten gibt es ja im Großen beim 3CCD-Modell des Camcorder - für hochwertige Photokameras aber kein guter Weg mit 3 Sensoren und einem riesigen Vorbau davor.
Ja, das wäre deutlich sinnvoller als Mikroprismen. Mal sehen, ob das auch jenseits spezialisierter Anwendungsbereiche wieder kommt.

"Superluminares Tunneln": ein besonder schönes Beispiel für Leute, die sich meiner Ansicht nach ordentlich blamiert haben. Hätten diese Physiker besser vorher einen Nachrichtentechniker gefragt...
Sie dachten ja, was neues zu finden - und haben dabei wohl den Unterschied zwischen Gruppen- und Signalgeschwindigkeit übersehen. :o
 
Zuletzt bearbeitet:
Ich würde da eher 5 bis 10 % tippen, wenn man so auf den Sensor schaut, wie auch das Licht vom Objektiv einfällt.
Ich hab mal die Spiegelung einer Lampe im Sensor mit meiner 85% abdunkelnden Sonnenbrille verglichen.
Wenn man senkrecht draufschaut könntest Du recht haben, schräg sieht die Sache schon anders aus (aber immer noch weniger als meine erste Vermutung). Der Blick durch die Brille wirkt dunkler aber nicht viel.
Bei lichtstarken Optiken sind seitliche Lichtwege zwar relevant. Der Vorteil den man da noch rausholen kann dürfte aber nicht besonders hoch sein, Schade.

90 % ist der Reflexionsgrad eines normalen Haushaltsspiegels.
Ähm, nicht das es hier eine große Rolle spielt aber das erscheint mir etwas wenig. Wenn ich in gegenüberliegende Spiegel schaue, sehe ich mindesetens 15mal mich selbst (also 30 Reflektionen) und die letzte ist zwar klein aber nicht sonderlich dunkel. Wikipedia sagt ca. 95%, das erscheint mir plausibler.

Wellen und Photonen sind eben jene Grenzfelle des Modells der Quantefeldtheorie des Lichts. Betrachtet man viele Ereignisse und mittelt darüber, ist das Wellenmodell eine sehr gute Näherung, bei wenigen Ereignisse eben das Teilchenmodell.
Und die Modelle harmonieren mitunter auf ganz kuriose Art und Weise.
Wie war das mit dem Doppelspalt bei einzelnen Photonen? Die Interferenz ist da, zumindest solange man sie nicht anschaut.. :D
 
Das mit der Sonnenbrille dürfte so nach Augenmaß nicht zu vergleichen sein: zu unterschiedliche Hintergründe, logarithmische menschliche Helligkeitswahrnehmung. Die ist auch das Stichwort für die Spiegel: 90%^30 sind auch nur etwa 4,5 Blenden. Das muss nicht viel erscheinen.
 
Zuletzt bearbeitet:
Das mit der Sonnenbrille dürfte so nach Augenmaß nicht zu vergleichen sein: zu unterschiedliche Hintergründe, logarithmische menschliche Helligkeitswahrnehmung. Die ist auch das Stichwort für die Spiegel: 90%^30 sind auch nur etwa 4,5 Blenden. Das muss nicht viel erscheinen.

Vollig unwissenschaftlich mit dem dicken Daumen, wie gesagt. Spielt ja aber auch keine große Rolle, denn im Ergebnis stimmen wir ja überein.
 
Das Problem ist - unabhängig von eventuellem messtechnischen Aufwand - aber, dass innerhalb der Belichtungszeit weder nur Photonen gleicher Wellenlänge ankommen noch man weiß, wie oft bzw. wann dies genau geschieht.
Die Wellenlänge der in einem Pixel eintreffenden Photonen fluktuiert aber nur bei Bewegungsunschärfe, wenn man eine eventuelle Änderung während der Belichtung messen kann vielleicht ja sogar ein Ansatz diese Unschärfe bei Bedarf rauszurechnen. Ansonsten einfach mitteln. Wenn man sich der Idee mit infernalischer Auflösung und Sättigung bei einzelnen Photonen annähert entzerrt das auch die zeitliche Problematik. Solange wir noch nicht soweit sind jedem Photon seinen eigenen Sensel anzubieten ist die Genauigkeit trotzdem noch hoch genug. Sollte die Berechnung von burkhard2 stimmen sind da mehrere Größenordnungen Reserve auch wenn sich die Zeiten durch die Erfassung von mehreren Photonen noch deutlich reduzieren würden.

Zeitpunkt und Wellenlänge sind nicht gleichzeitig messbar
Gleichzeitig messbar schon, nur eben nicht beides mit völliger Genauigkeit. Das braucht man ja aber auch gar nicht.

mfg tc
 
Die Wellenlänge der in einem Pixel eintreffenden Photonen fluktuiert aber nur bei Bewegungsunschärfe,
Nein. Die Wellenlänge fluktuiert innerhalb des gesamten Spektrums, welches auf diesem Pixel einfällt. Oder welche Wellenlänge hätte die Abbildung eines weißen Objektes?
Auch das führt uns also wieder dazu, dass die Messung der Wellenlängen einzelner Photonen eine Sackgasse ist.

Sollte die Berechnung von burkhard2 stimmen sind da mehrere Größenordnungen Reserve auch wenn sich die Zeiten durch die Erfassung von mehreren Photonen noch deutlich reduzieren würden.
Du meinst seine Berechnung zur sich aus Heisenberg ergebenden Ungenauigkeit? Die Berechnung ist richtig, kann sich aber auch nur auf Photonen gleicher Wellenlänge beziehen. Die erreichen wir aber nur mit Filter (und in dem Fall extrem schmalbandigen), womit die Messung der Wellenlänge obsolet ist.

Gleichzeitig messbar schon, nur eben nicht beides mit völliger Genauigkeit. Das braucht man ja aber auch gar nicht.
Im betrachteten Bereich (Messung der Photonenwellenlängen), aber prinzipiell auch schon im Entwicklungsstand heutiger Kameratechnik wäre die Messungenauigkeit da schon größer als der Zielbereich - de facto also die Messung tatsächlich nicht möglich.
 
Zuletzt bearbeitet:
Nein. Die Wellenlänge fluktuiert innerhalb des gesamten Spektrums, welches auf diesem Pixel einfällt.
Das stimmt natürlich, zumindest solange wir nicht bei der 1 Sensel/Photon Variante sind. Aber wo ist das diesbezügliche prinzipielle Problem?

Du meinst seine Berechnung zur sich aus Heisenberg ergebenden Ungenauigkeit? Die Berechnung ist richtig, kann sich aber auch nur auf Photonen gleicher Wellenlänge beziehen.
Sorry für die dumme Frage - aber wieso?

Im betrachteten Bereich (Messung der Photonenwellenlängen), aber prinzipiell auch schon im Entwicklungsstand heutiger Kameratechnik wäre die Messungenauigkeit da schon größer als der Zielbereich - de facto also die Messung tatsächlich nicht möglich.
Das habe ich irgendwie anders in Erinnerung, auf der letzten Seite war noch die Rede von "unter einem Millionstel Prozent" Messabweichung wenn man den Zeitpunkt auf 0,1ms genau bestimmen will. Nehmen wir an da kommen 10k Photonen auf ein Pixel innerhalb von 1ms Belichtungszeit - dann bliebe immer noch ein tausendstel Prozent theoretische Genauigkeit bei der Wellenlängenmessung. Oder hab ich das total verkehrt verstanden?

Auch das führt uns also wieder dazu, dass die Messung der Wellenlängen einzelner Photonen eine Sackgasse ist.
Das finde ich jetzt übermäßig pessimistisch. Warum nicht ein bissl weiterfahren? Nur weil mal ein Stück nicht asphaltiert ist ;)?

mfg tc
 
WERBUNG
Zurück
Oben Unten