• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Quanteneffizienz, Photonenfluss und High-ISO, wo ist das Limit?

Gilt das nur für die Ausleseschaltkreise?
Würde ich jetzt erst mal so einschränken, da ich dessen Rauschverhalten nicht kenne. Das des Lichtes ist ja bekannt und darüberhinaus für Entrauschungen eher günstig, da die meisten Werte dicht um das Soll herumliegen und es nur wenige Ausreißer gibt, welche sich gut erkennen lassen.

Momentan ist man bei ISO 100.000 in dunklen Bereichen teilweise schon da drunter und wenn man das ISO noch weiter steigert hat man irgendwann eben relevante Bildteile unterhalb der Rauschgrenze - und dann muss man die Pixel eben wieder größer machen.
Das ist ja, was ich meine: Natürlich ist bei sehr hohen ISO die volle Auflösung de facto nicht mehr nutzbar. Skaliert man nach der Entrauschung aber herunter, sollte sich aus o.g. Grund (Erkennung von Ausreißern) eine bessere Bildqualität als bei einfach nur größeren Pixeln ergeben.
 
Photonenrauschen = Quantenrauschen = Quantenelektrodynamische Grenze. Das ist eine Eigenschaft des Lichts, nicht des Sensors.
Musst Du mir nicht erklären, Ich weiß das. Das habe ich mit harter Grenze gemeint. Nur findet sich oft auch für solche harten (weil durch Naturgesetze vorgegebene) Grenzen manchmal eine Lösung unter Umgehung desselben. ;)

Das ist mehr als 30 Jahre her.
Jetzt könnte man natürlich darüber streiten ob, 30 Jahre, die ja heutzutage wirklich etliche Entwicklungsgenerationen bedeuten, tatsächlich reichen um eine Technologie "reifen" zu lassen, oder ob wir mit dem ganzen Computerkram zwar unheimlich weit, aber trotzdem infantil sind.
Will ich aber gar nicht :D


Würde ich jetzt erst mal so einschränken, da ich dessen Rauschverhalten nicht kenne. Das des Lichtes ist ja bekannt und darüberhinaus für Entrauschungen eher günstig, da die meisten Werte dicht um das Soll herumliegen und es nur wenige Ausreißer gibt, welche sich gut erkennen lassen.

Das ist ja, was ich meine: Natürlich ist bei sehr hohen ISO die volle Auflösung de facto nicht mehr nutzbar. Skaliert man nach der Entrauschung aber herunter, sollte sich aus o.g. Grund (Erkennung von Ausreißern) eine bessere Bildqualität als bei einfach nur größeren Pixeln ergeben.

Spannender Gedankengang!
Der Nutzer hat am Ende zwar kein höher aufgelöstes Bild, aber zum einen ein besser Entrauschtes und zum Anderen die Möglichkeit im Low-ISO Bereich die höhere Auflösung zu nutzen, geschickt. :)

Klar, wenn die Eigenschaften des Rauschens bekannt sind, kann man das nutzen. Hilf mir auf die Sprünge, Signalverarbietung ist bei mir zu lange her, aber an Shannon-Hartley kommt man trotzdem nicht vorbei, oder? Also wenn das thermische Rauschen pro Fläche größer ist als der Mittelwert des Signals, sollte es doch endgültig aus sein. (Das wäre, wenn ich mich recht erinnere, irgendwo bei Zimmertemp. und ISO500.000 soweit). Und kennt man das Rauschen tatsächlich gut genug? Soll heißen, wenn pro Messpunkt (=Subpixel) nur noch eine handvoll Photonen ankommen mit entsprechend kleinem Rauschen, kann man dann noch von Gleichverteilung reden oder darf man über die Gesamtheit der Subpixel pro Ausgabepixel gehen?

Interessant finde ich an dieser Stelle auch die Betrachtung der Dynamik, beim Mitteln durch Berechnung habe ich gegenüber dem großen Pixel ja nicht nur vergleichbares Rauschen, sondern auch vergleichbar viele Abstufungen. Wie entwickelt sich das wenn ich jetzt nicht einfach nur mittele?
 
solche harten (weil durch Naturgesetze vorgegebene) Grenzen manchmal eine Lösung unter Umgehung desselben. ;)
Zumal das ja alles nur Quantentheorie ist :evil:

Spannender Gedankengang!
Der Nutzer hat am Ende zwar kein höher aufgelöstes Bild, aber zum einen ein besser Entrauschtes und zum Anderen die Möglichkeit im Low-ISO Bereich die höhere Auflösung zu nutzen, geschickt. :)
Wenn das nur einer mal ... ach nee halt 41 Mpx in einer Handycamera gibt es ja schon:
http://www.dpreview.com/articles/8083837371/review-nokia-808-pureview

bzw. gleich der nächste Thread:
https://www.dslr-forum.de/showthread.php?t=1036265
 
aber an Shannon-Hartley kommt man trotzdem nicht vorbei, oder?
Ich weiß nicht, ob SH da anwendbar ist, da es bei uns ja eher um diskrete stochastische Ereignisse geht und nicht um stetige Funktionen, aber im Prinzip läuft's wohl in dieselbe Richtung. Dass wir beim Licht außerdem kein weißes Rauschen, sondern eines mit Glockenkurvencharakteristik haben, bietet dann besonders gute Ansatzpunkte. Über das thermische Rauschen in den Pixeln würde ich mir dabei keine Gedanken machen, da das ja mit sinkender Pixelgröße abnimmt. Bzgl. des thermischen Rauschens beim Auslesen sind wir dann bei der geschriebenen Einschränkung: die Pixel dürfen nicht so klein werden, dass das Ausleserauschen überwiegt.
Persönlich denke ich, dass technisch mit entrauschten und anschließend herunterskalierten höheren Auflösungen irgendwann ISO 100.000 mit der Qualität heutiger ISO 6.400 möglich sein könnte, und vielleicht auch ISO 250.000 mit "noch irgendwas erkennbar". Aber dann dürfte auch in der Signalverarbeitung das Ende der Fahnenstange erreicht sein.
Welches ISO-Level erreichen eigentlich Gen. IV Nachtsichtgeräte?

Interessant finde ich an dieser Stelle auch die Betrachtung der Dynamik, beim Mitteln durch Berechnung habe ich gegenüber dem großen Pixel ja nicht nur vergleichbares Rauschen, sondern auch vergleichbar viele Abstufungen. Wie entwickelt sich das wenn ich jetzt nicht einfach nur mittele?
Grundsätzlich wäre es ähnlich, wenn die Auflösung der Optik etwa dem entspricht, auf was man später herunterskaliert. Bei höherer optischer Auflösung gibt es eine höhere Spitzlichtempfindlichkeit.
 
[..]
Welches ISO-Level erreichen eigentlich Gen. IV Nachtsichtgeräte?
Gute Frage, von den Dingern hab ich keine Ahnung, kann man da so etwas wie ISO überhaupt definieren?
Wikipedia sagt zu der 3. Gen. >40.000 fache Verstärkung.. wie man das in Relation zu einem Sensor stellen soll ist mir allerdings schleierhaft.
Ansonsten danke für die Ausführungen, warten wir ab wie sich das entwickelt ;)
Zumal das ja alles nur Quantentheorie ist :evil:
Ja, genauso wie die Evolutionstheorie.. :rolleyes:

Durchaus möglich das morgen jemand mit einer genaueren Theorie ankommt, deswegen wird die QT ja aber nicht falsch, zumindest nicht in den Bereichen und Toleranzen die bereits empirisch untersucht sind. Und in Diesen bewegen wir uns gerade. Entsprechend hätte das wohl wenig Auswirkung auf dieses Problem. Das ist wie mit der Schwerkraft nach Newton oder nach Einstein. wenn ich die Fallgeschwindigkeit des Apfels vom Baum nach Newton berechne dann kommt, innerhalb jeder sinnvollen Messtoleranz der gleiche Wert heraus wie mit der Relativitätstheorie. Obwohl Newton ja "falsch" lag..

Wenn das nur einer mal ... ach nee halt 41 Mpx in einer Handycamera gibt es ja schon:

Ah, ok. Und da werden die Pixel tatsächlich sinnvoll verwendet? Ich hielt das bis jetzt für das Ergebnis einer frei drehenden Marketingabteilung..
Sollte ich mir vielleicht doch mal anschauen.

Edith sagt: Ich hab mal ein bisschen gelesen was Nokia so dazu sagt und tatsächlich ist es genau dieser Vorteil den sie neben den Möglichkeiten zu Digitalzoom herausstellen. Interessant.
 
Zuletzt bearbeitet:
Durchaus möglich das morgen jemand mit einer genaueren Theorie ankommt, deswegen wird die QT ja aber nicht falsch, zumindest nicht in den Bereichen und Toleranzen die bereits empirisch untersucht sind.

Naja, nein. Aber soweit ich das sehe, beruhen die Sensoren momentan auf dem photoelektrischen Effekt, der auf dem Modell der Photonen basiert.
Wir setzten Farbfilter davor, werfen damit 66% Licht weg und erzeugen ein Bild aus drei Farben, die halt genau zu den Farbrezeptoren des Menschen passen.

Also schon bei der Farbtrennung wäre was zu holen. Will jetzt hier aber nicht über den Foveon-Sensor reden.
Aber schon ein Prisma macht eine Farbtrennung ohne viel Lichtverlust.
Wie wäre es mit einem kleinen Prisma in jedem Pixel?

Es wäre hypothetisch wohl auch ein Sensor denkbar, der auf einem völlig anderen Prinzip beruht und z.B. mit dem Wellenmodell des Lichts arbeitet. Der wäre dann vielleicht auch in der Lage ein Farbspektrum je Punkt aufzunehmen und würde gar keine vorgeschaltete Farbtrennung brauchen.
Eine kleine Lichtantenne in jedem Punkt oder so.

An dieser Stelle erinnere ich mich immer gerne an einen alten Informatik-Duden von 1990 oder so. In dem wurde auch klipp und klar erklärt warum Magnetscheiben als Speicher keine Zukunft haben, denn physikalisch wäre man schon fast am Limit.
Aktuelle Festplatten liegen da um viele Faktoren drüber.
 
An dieser Stelle erinnere ich mich immer gerne an einen alten Informatik-Duden von 1990 oder so. In dem wurde auch klipp und klar erklärt warum Magnetscheiben als Speicher keine Zukunft haben, denn physikalisch wäre man schon fast am Limit.
Aktuelle Festplatten liegen da um viele Faktoren drüber.
Nur, dass die Zahl der Photonen, die auf den Sensor während der Belichtung einschlagen, nicht technikbegrenzt ist. Mehr als alle kann man nicht zählen.
Gruß, Wolfgang
 
Aber schon ein Prisma macht eine Farbtrennung ohne viel Lichtverlust.
Wie wäre es mit einem kleinen Prisma in jedem Pixel?

Es wäre ein Prisma vor 3 Senseln und damit würdest Du auch nicht wirklich was gewinnen.

Es wäre hypothetisch wohl auch ein Sensor denkbar, der auf einem völlig anderen Prinzip beruht und z.B. mit dem Wellenmodell des Lichts arbeitet.

Hübsche Idee! Du kannst doch nicht einfach ein anders Modell wählen und damit die Grenzen, die das andere Modell setzt, aushebeln. Schließlich gelten sie beide gleichzeitig.

Eigentlich müsste innerhalb eines Sensels nach Farben unterschieden werden. Je nach Photonenenergie müssten die Elektronen in 3 verschiedene "Töpfe" wandern. Geht so etwas?


Gruß, Matthias
 
@Blur: Naja, Grenzen der Technik werden ja immer schnell proklamiert - aber nun geraten wir langsam an physikalische Grenzen. Wenn man das mal überschlägt: Strahlungsleistung der Sonne auf der Erdoberfläche * Eintrittspupille / Bildkreis * Belichtungszeit / Pixelsättigung ist die Energie, die für 1 Zähler im Pixel eintreffen muss. Die ist schon in derselben Größenordnung, die Plancksches Wirkungsquantum mal Lichtgeschwindigkeit durch Wellenlänge darstellen. Soll heißen: da gibt es nichts mehr weiter zu quantisieren, oder kürzer: die bereits erwähnte deutlich zweistellige Quanteneffizienz heutiger Sensoren. Entsprechend kommen wir auch nicht mit der Wellennatur des Lichtes weiter, denn die ist bloß die statistische Hüllkurve der Quantenereignisse.
 
Naja, nein. Aber soweit ich das sehe, beruhen die Sensoren momentan auf dem photoelektrischen Effekt, der auf dem Modell der Photonen basiert.
Wir setzten Farbfilter davor, werfen damit 66% Licht weg und erzeugen ein Bild aus drei Farben, die halt genau zu den Farbrezeptoren des Menschen passen.
Licht muß Du immer wegwerfen. Selbst beim Monochrom-Sensor.
Sonst sind rot, gelb, grün und blau genauso hell.

Also schon bei der Farbtrennung wäre was zu holen. Will jetzt hier aber nicht über den Foveon-Sensor reden.
Aber schon ein Prisma macht eine Farbtrennung ohne viel Lichtverlust.
Wie wäre es mit einem kleinen Prisma in jedem Pixel?
Hatte ich mal durchgerechnet.
Der Gewinn gegenüber einem idealen Bayer war unerwartet gering.
Ich war selbst überrascht.

Siehe: https://www.dslr-forum.de/showpost.php?p=10239596&postcount=47

Nach diesem Artikel hatte ich noch einen theoretischen 6-Farben-Sensor entworfen.
Sichtbare Vorteile hat dieser nur bei Beleuchtung mit extrem blauen oder rotem Licht.

An dieser Stelle erinnere ich mich immer gerne an einen alten Informatik-Duden von 1990 oder so. In dem wurde auch klipp und klar erklärt warum Magnetscheiben als Speicher keine Zukunft haben, denn physikalisch wäre man schon fast am Limit.
Aktuelle Festplatten liegen da um viele Faktoren drüber.

Duden ist keine Informationsquelle. Hat ähnliche Probleme wie die Wikipedia.
Ökonomische Grenzen werden als physikalische Grenzen dargestellt.
 
Eigentlich müsste innerhalb eines Sensels nach Farben unterschieden werden. Je nach Photonenenergie müssten die Elektronen in 3 verschiedene "Töpfe" wandern. Geht so etwas?
Ja.

Allerdings ist das (leider) nicht das Ziel, weil es leider keine a, b, c gibt, für die a x(λ) + b y(λ) + c z(λ) = 1 gilt. Auf Grund der breiten Überlappung von x und y sollte man mindestens 4 Farben (orange, gelb, gelbgrün und blau) arbeiten.
 
@Blur: Naja, Grenzen der Technik werden ja immer schnell proklamiert - aber nun geraten wir langsam an physikalische Grenzen.
[..]
Entsprechend kommen wir auch nicht mit der Wellennatur des Lichtes weiter, denn die ist bloß die statistische Hüllkurve der Quantenereignisse.

+1 :top:

Aber ein bischen muss ich auch ein Lanze für blur brechen, denn gerade in der Computertechnik wurde schon oft von physikalischen Grenzen geredet und dann gings eben doch irgendwie weiter. Festplatten sind da ein gutes Bspl, andere habe ich oben schon erwähnt. Insofern kann ich seine Skepsis nachfühlen und wer weiß, vielleicht kommt ja doch noch eine Idee die uns signifikant weiterbringt, wobei ich die ein/zwei Blenden die die Farbfilterung kostet nicht als signifikant einstufen würde..


Wir setzten Farbfilter davor, werfen damit 66% Licht weg und erzeugen ein Bild aus drei Farben, die halt genau zu den Farbrezeptoren des Menschen passen.

An dieser Stelle erinnere ich mich immer gerne an einen alten Informatik-Duden von 1990 oder so. In dem wurde auch klipp und klar erklärt warum Magnetscheiben als Speicher keine Zukunft haben, denn physikalisch wäre man schon fast am Limit.
Aktuelle Festplatten liegen da um viele Faktoren drüber.

So einen Duden hab ich Anfang der 90'er auch geschenkt bekommen, der war schon im Erscheinungsjahr schräg und Mitte der 90'er Fremdschämen pur :lol: :ugly:
 
Zuletzt bearbeitet:
Hatte ich mal durchgerechnet.
Der Gewinn gegenüber einem idealen Bayer war unerwartet gering.
Ich war selbst überrascht.
Siehe: https://www.dslr-forum.de/showpost.php?p=10239596&postcount=47
Ich erinnere mich. War ein sehr guter Beitrag und vor allem auch mal einer, der sich mit dem beschäftigt, was viel zu oft übersehen wird (das Spektrum). :top:

denn gerade in der Computertechnik wurde schon oft von physikalischen Grenzen geredet und dann gings eben doch irgendwie weiter.
Ist nicht nur in der Computertechnik so, dass technische Grenzen schnell als physikalische hingestellt werden. In der Regel sind das dann aber eher fachfremde Autoren. Die vom Fach trennen das schon sauberer (hoffe ich :D).
Bei Magnetdatenträgern sind wir nun bei perpendicular recording - was schon deutlich näher am einzelnen Spin und damit der irgendwann erreichten physikalischen Grenze ist. Wieviel Luft da noch ist, bin ich aber jetzt schlichtweg zu faul nachzurechnen. ;)

vielleicht kommt ja doch noch eine Idee die uns signifikant weiterbringt
Ich überlege mir die ganze Zeit, wie ein Prisma in den Zeiten heutiger Pixelgrößen wirkt und erst recht, wenn die Pixelgrößen weiter schrumpfen.
 
Ich überlege mir die ganze Zeit, wie ein Prisma in den Zeiten heutiger Pixelgrößen wirkt und erst recht, wenn die Pixelgrößen weiter schrumpfen.

Na auf jeden Fall wäre ein Pixel das aus einem Prisma und vier Detektoren besteht mal 'ne echte Herausforderung für die Chipdesigner :D


In diesem Sinne, gute Nacht.
 
Hübsche Idee! Du kannst doch nicht einfach ein anders Modell wählen und damit die Grenzen, die das andere Modell setzt, aushebeln. Schließlich gelten sie beide gleichzeitig.
Doch eigentlich schon.
Ein Modell ist ja genau anders herum. Man beobachtet etwas und stellt dann ein Modell auf, das die Beobachtung erklärt.

Deshalb gibt es ja zwei Modelle für Licht, weil das jeweils andere nicht zu den Beobachtungen passte.

Ich wollte ja nur die Idee in die Welt setzen, dass es evtl. eine andere Möglichkeit gibt Licht zu messen, als die Menge von Elektronen zu zählen, die "angeschubst" wurden.
Das ist doch eine eher grobe Methode.
Schöner wäre es doch, wenn man die tatsächliche Energie eines jeden Photon bestimmt. Dann hätte ein Photon schon eine Farbe.

Zu dem Viele Pixel-Sensor:
Das theoretische Maximum wäre es dann wohl so viele Pixel zu haben, dass statistisch jeder bei einem "üblichen" Belichtungsvorgang nur max. von einem Photon getroffen wird. Wenn dann noch die Energie exakt bekannt wäre, hätte man sehr viele bunte Pixel (und sehr sehr viel schwarze).
 
Sehr interessante Diskussion. Ich habe entnehmen können, dass wir langsam auf physikalische (nicht nur technische oder ökonomische) Grenzen stoßen.

Was ich mich frage, ist aber folgendes: Die errechneten physikalischen Grenzen beruhen doch auf den derzeitigen Erkenntnissen bzw. Modellen in der Physik. Ist es nicht denkbar, ja sogar wahrscheinlich, dass sich auch diese im Laufe der Zeit ändern? Kann es nicht sein, dass neue wissenschaftliche Erkenntnisse gewonnen werden, die dann wieder erhebliche Verbesserungen möglich machen?

Es gibt doch auch andere physikalische Grenzen aufgrund der gängigen Modelle, z.B. die Lichtgeschwindigkeit. Trotzdem versuchen hunderte Physiker, neue Entdeckungen zu machen, die das alte Modell erschüttern und damit die alten Grenzen überwinden. Gerade im Zusammenhang mit der Lichtgeschwindigkeit liest man ja immer mal wieder derartiges, auch wenn es bisher offenbar da noch keinen Durchbruch gegeben hat.

Ich halte es für etwas überheblich anzunehmen, die heutige Physik sei das Ende der Fahnenstange. Solcherlei Irrtum war die Menschheit schon öfter aufgesessen.
 
Ich halte es für etwas überheblich anzunehmen, die heutige Physik sei das Ende der Fahnenstange. Solcherlei Irrtum war die Menschheit schon öfter aufgesessen.

natürlich hast du recht. aber bedenke, daß es bis heute keine theorie gibt, wie man das mit dem sensor und den photonen gravierend anders lösen kann.
und zwischen erfolgreicher entwicklung einer theorie und deren umsetzung in consumerprodukten liegen jahrzehnte ...

lg gusti
 
Ist das mit dem schwarzen Silizium kein Thema?
Da gehts um Verminderung des vom Sensor refllektierten Licht in abhängig der Wellenlänge.
Oder wird bei den heutigen Sensoren schon nicht mehr viel Licht reflektiert, bzw. spielt die Wellenlänge für Foto keine Rolle?
 
Zuletzt bearbeitet:
Ist es nicht denkbar, ja sogar wahrscheinlich, dass sich auch diese im Laufe der Zeit ändern? Kann es nicht sein, dass neue wissenschaftliche Erkenntnisse gewonnen werden, die dann wieder erhebliche Verbesserungen möglich machen?
Denkbar ist das schon, aber die Quantenmechanik gibt es seit über 100 Jahren, und zumindest im Bereich der Physik, so wie es sie in unserer normalen Umgebung stattfindet, ist mir nicht bekannt, dass da auch nur ein Hauch von Zweifel besteht. Jede Menge Leute haben versucht, die Quantemechanik zu widerlegen, weil sie zunächst gar nicht ins Weltbild der Physiker passte. Insofern: meiner Meinung nach extrem unwahrscheinlich, dass sich da im fotografisch relevanten Bereich eine völlig neue Theorie auftut.

Ich halte es für etwas überheblich anzunehmen, die heutige Physik sei das Ende der Fahnenstange. Solcherlei Irrtum war die Menschheit schon öfter aufgesessen.
Es wird im Bereich der Hochenergiephysik sicherlich noch neue Erkenntnisse geben, aber die Vorstellung, dass diese neuen Erkenntnisse die Grundsätze der Quantenmechanik widerlegen, so wie sie in unserer Alltagswelt vorkommen, hallte ich meinerseits für ziemlich überheblich. Genauso wahrscheinlich ist es, dass diese neuen Erkenntnisse belegen, dass die Erde doch eine Scheibe ist.

L.G.

Burkhard.
 
WERBUNG
Zurück
Oben Unten