• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Oktober 2025.
    Thema: "Abendstimmung"

    Nur noch bis zum 31.10.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Drei mal lichtstärkere Sensoren in drei jahren?

mty55

Themenersteller
Klingt ja viel versprechend..
Was mir in dem Artikel fehlt sind potentielle Nachteile. Weiß jemand mehr zu dem Verfahren?
http://www.spektrum.de/news/neuer-k...ser&utm_content=feature&utm_campaign=ZON_KOOP
 
Zuletzt bearbeitet:
Meist dauert die Markteinführung bei so etwas doch ein wenig länger als vorhergesehen.
Wenn das Licht vor dem Sensor je nach Wellenlänge unterschiedlich gebrochen wird, ergibt sich dann mehr Unschärfe im Pixelbereich?
 
Hallo,

der wichtigste Nachteil könnte sein, dass sicherlich noch mehr als drei Jahre dauert ehe solche Chips im Massenmarkt auftauchen. ;)

Ein anderes Problem könnte eine zu scharfe Trennung der Farbkanäle sein, vielleicht fehlt sogar ein kleiner Bereich zwischen den Kanälen. Wenn ich mich recht erinnere war dies wohl ein kleines Problem bei einigen RGB-Filtersätzen für astronomische SW-Kameras. Die Farbwiedergabe war dann eher suboptimal.

Ansonsten denke ich, dass dieser Thread in ein paar Sekunden in den Bereich Spekulation verschoben wird. ;)


MfG

Rainmaker
 
Zitat aus dem oben verlinkten Artikel:

Das Wissenschaftlerteam gewinnt Farbinformationen mit Hilfe der Struktur des Filters. Sie ätzten dazu in den lichtdurchlässigen Kunststoffs ein nur wenige Mikrometer großes Muster aus erhöhten und tiefer liegenden Bereichen ein. Es bricht das einkommende Licht und erzeugt auf dem Sensor ein Intensitätsmuster, das sich je nach Wellenlänge des eintreffenden Lichts unterscheidet. So ist es sogar möglich, das Licht in mehr als nur drei Farben zu zerlegen. Erforderlich ist lediglich ein Signalverarbeitungsalgorithmus, der die entstehenden Muster analysieren kann und berechnet, von welcher Farbe es erzeugt worden ist.

Logisch betrachtet kann das nur dann möglich sein, wenn hinter dem erzeugten Muster nicht ein Pixel, sondern ein Sensor sitzt, der wiederum aus mehreren Einzelpixeln besteht. Andernfalls wird ja wohl ein Erkennen eines Musters nicht möglich sein.
 
Jein, im Prinzip ist es eine Renaissance des 3CCD-Verfahrend der Panasonic-Video-Kameras (da erfolgte die Aufsplittung der Farben über ein im Strahlenverlauf installiertes Prisma), die einzelnen Sensel bekommen zwar immer nur noch einen Anteil des Farbspektrum zu "sehen", im Gegensatz zu heute werden die anderen Anteile aber nicht von einem Filter "vernichtet", sondern zu anderen Senseln umgeleitet. Es wird also weiterhin Sensel für die verschiedenen Farben/Farbbereiche geben (ansonsten hättest du recht). Da die Aufsplittung aber wohl nicht so gut wie bei einem vorgeschalteten Prisma funktionieren wird, wird es neue Algorithmen etc. brauchen um aus den Sensel-Informationen unter Einbeziehung der Nachbar-Sensel das ursprüngliche Farbspektrum zurück zu rechnen.
 
Klingt ja vier versprechend..
Was mir in dem Artikel fehlt sind potentielle Nachteile. Weiß jemand mehr zu dem Verfahren?
http://www.spektrum.de/news/neuer-k...ser&utm_content=feature&utm_campaign=ZON_KOOP
Wer diesem dort angegebenen Link folgt, findet einen Link zur Originalpublikation.

Wenn das Licht vor dem Sensor je nach Wellenlänge unterschiedlich gebrochen wird, ergibt sich dann mehr Unschärfe im Pixelbereich?
Das Licht wird nicht gebrochen, sondern gebeugt: die Betrachtung einzelner Sensorpixel ist dabei sinnlos und ohne jede Aussagekraft, es wird ein von mehreren Sensorpixeln detektiertes Beugungsmuster ausgewertet. Dem Originalartikel kann man entnehmen, daß Arrays von je 3x3 "sensor pixels" zu einem "image pixel" verrechnet werden sollen.
Logisch betrachtet kann das nur dann möglich sein, wenn hinter dem erzeugten Muster nicht ein Pixel, sondern ein Sensor sitzt, der wiederum aus mehreren Einzelpixeln besteht. Andernfalls wird ja wohl ein Erkennen eines Musters nicht möglich sein.
So entnehme ich es auch der Originalarbeit.
 
Zuletzt bearbeitet:
Wer diesem dort angegebenen Link folgt, findet einen Link zur Originalpublikation. ...
Nicht uninteressant. Was mir aber noch fehlt, ist eine Gesamtbetrachtung, die abwägt, ob man aus der 3,12-fach höheren Transmission überhaupt eine erhöhte Abbildungsqualität gewinnen kann. Durch die rück-Interpolation des Beugungsmusters entstehen neben den "hyperspektralen" Farbinformationen auch stochastische Effekte und Aliasing, die sich dann sowohl in der Wellenlängendomäne als auch in der Orts- und Intensitätsdomäne niederschlagen können. Zudem muss man für einen einzigen Bildpixel 9 oder mehr Pixel auslesen, was das Ausleserauschen um Wurzel(9) = 3 steigert. Ob man also die gewonnene Transmissivität tatsächlich auch in eine höhere Empfindlichkeit bei schlechten Lichtverhältnissen umsetzen kann? Ich fürchte, dass das Ganze entweder ein Nullsummenspiel wird oder die diffraktive Farbseparation (zuminderst in dieser Spielart) sogar noch unterlegen bleibt. Von den kaum beherrschbaren Einflüssen der Einfallswinkel bei hoch geöffneten Objektiven und der Abweichung von Telezentrizität im Design der Optiken mal ganz zu schweigen.

Insofern sehe ich Chancen eher im technischen Bereich.
 
Das Licht wird nicht gebrochen, sondern gebeugt

Ist praktisch dasselbe. :) Gebrochen ist nur dann etwas anderes, wenn es eine Returnbewegung durch den Mund ist.


Es gibt viele Ideen und Innovationen und nicht jede bewährt sich und findet den Weg in den Markt.

Falls das gelingt, sind nicht 3, sondern 10 bis 20 Jahre eher realistisch.
 
Ist praktisch dasselbe.
Theoretisch lässt sich das eine mit geometrischer Optik beschreiben, das andere nicht.
Praktisch sind wir hier größenmäßig bei Strukturen im Bereich der Wellenlänge, so daß die geometrische Optik nicht anwendbar ist.

Gebrochen ist nur dann etwas anderes, wenn es eine Returnbewegung durch den Mund ist.
Gerade dabei ist Beugung besonders praktisch, nämlich die des Oberkörpers über die Schüssel.

Was soll denn ein "Lichtstärkerer Sensor" sein ?
Gemeint ist offensichtlich ein lichtempfindlicherer Sensor.

Insofern sehe ich Chancen eher im technischen Bereich.
War da nicht irgendwo die Rede von Handy-Kameras? Da gibt es z.B. einen 41-MP-Sensor, der eigentlich gar nicht dazu gedacht ist, 41-MP-Bilder zu produzieren. In diese Richtung könnte man denken.
 
Zuletzt bearbeitet:
War da nicht irgendwo die Rede von Handy-Kameras? Da gibt es z.B. einen 41-MP-Sensor, der eigentlich gar nicht dazu gedacht ist, 41-MP-Bilder zu produzieren. In diese Richtung könnte man denken.
:top:

Ja, in meinem Nokia Lucia 1020 werden dann 6 bis 7 Pixel jeweils zu einem Pixel mit - etwas - höheren Farbinformationen zusammengerechnet, was dieses Handy immerhin mit einem 1,5 GHz Dual-Prozessor und 2GB RAM bewerkstelligt.
Dennoch>>> für ein Handy nach aktuellen Maßstäben wären die dafür notwendigen komplexen Rechenprozesse wohl noch etwas zu leistungsaufwendig.;)
 
Theoretisch lässt sich das eine mit geometrischer Optik beschreiben, das andere nicht.
Praktisch sind wir hier größenmäßig bei Strukturen im Bereich der Wellenlänge, so daß die geometrische Optik nicht anwendbar ist.

Ich weiß nicht, was Du unter geometrischer Optik verstehst. Es gibt eine kinematische und eine dynamische Interferenztheorie. Die kinematische Interferenztheorie vereinfacht eine Beugung/Brechung durch eine geometrische Betrachtung. Bei Röntgenstrahlung vereinfacht man die Beugung als Reflexion an einer Netzebene. Bei der Lichtoptik (Gläser) ist der Brechungsindex das Verhältnis der Lichtgeschwindigkeiten in den beiden Medien beidseits der Phasengrenze. Das ist in der Röntgenoptik auch so, nur hat noch niemand die Lichtgeschwindigkeit der Röntgenstrahlen innerhalb von Medien (nicht im Vakuum) gemessen, aber diese ist für jeden Stoff anders und ungleich der Vakuumlichtgeschwindigkeit. Aber bei Röntgenstrahlen ist der Unterschied der Lichtgeschwindigkeit zur Vakuumlichtgeschwindigkeit nur verschwindend klein und deshalb ist das Modell Reflexion an den Netzebenen praktischer. Die unterschiedlichen Lichtgeschwindigkeiten der Röntgenstrahlen in verschiedenen Medien werden beim Phasenkontrastverfahren genutzt. Röntgenstrahlen und Licht sind elektromagnetische Strahlen, d.h. es gelten prinzipiell die gleichen Gesetzmäßigkeiten. In ca. 95 % der Fälle ist die kinematische Beugungstheorie für Berechnungen ausreichend. Und das hat nichts mit der Wellenlänge zu tun.

Es gibt spezielle Beugungseffekte, die mit der kinematischen Beugungstheorie nicht beschreibbar sind. Die dynamische Interferenztheorie ist ungleich komplizierter. Hier werden Wechselwirkungen räumlicher Wellenfelder betrachtet, insbesondere ihr Verhalten an den Phasengrenzen.

Jede Beugung/Brechung findet in Wirklichkeit ausschließlich an Phasengrenzen statt. In der kinematischen Interferenztheorie wird das vernachlässigt. Problematisch werden Berechnungen, wenn es keine festen bzw. eindeutigen Phasengrenzen gibt, z.B. bei der Brechung/Beugung in der Atmosphäre. Hier gibt es keine eindeutige Grenze zum Weltraum und auch die Atmosphäre ist je nach Höhe, Luftdruck und Gehalt an bestimmten Gasen inhomogen. Beispiele für Beugung/Brechung des Lichtes in der Atmosphäre ist der blaue Himmel und rote Sonnen und roter Himmel bei Sonnenauf- und untergängen.

Anmerkung: Die Lichtgeschwindigkeit des sichtbaren Lichtes ist in Medien z.T. sehr unterschiedlich zur Vakuumlichtgeschwindigkeit und in Glas und in der Luft ist auch die Lichtgeschwindigkeit jeder Lichtfarbe unterschiedlich. Während die Lichtgeschwindigkeit im Vakuum bei allen Wellenlängen in Abwesenheit starker Gravitationsfelder immer knapp 300000 km/s ist, ist sie bei Diamant nur ca. 124000 km/s und man hat es schon geschafft, die Lichtgeschwindigkeit im Plasma auf 0 zu drosseln.
 
Ich weiß nicht, was Du unter geometrischer Optik verstehst.

Schade. Ist nämlich eine praktische Sache.
Lässt sich theoretisch zur einfachen Beschreibung von Brechungserscheinungen verwenden. Ist ziemlich praktisch, zur Beschreibung gerade jenes Modell zu nehmen, das so einfach wie möglich alles Nötige beschreiben kann.

Da fragt jemand, ob es nicht zu Unschärfe führe, wenn das Licht unterschiedlich gebrochen werde, hat dabei wahrscheinlich Strahlenoptik und chromatische Aberration im Sinn, fürchtet womöglich, da käme Licht an der "falschen" Stelle (auf dem "falschen" Sensorpixel) an - eine Vorstellung, mit der sich, gerade an der Kamera, ziemlich vieles korrekt beschreiben lässt.
Könnte der Hinweis auf eine andere (hier die einfachste zur Beschreibung geeignete) Betrachtungsweise, nämlich auf die durch Wellenoptik zu beschreibenden Beugungsphänomene dazu beitragen, dieses eventuelle Mißverständnis zu verhindern und stattdessen zum Verständnis führen, daß dem einzelnen Sensorpixel hier überhaupt nicht die Bedeutung eines Bildpixels zukommt? Denn das ist der wesentlichen Punkt meines Hinweises auf die Beugung - der im Zusammenhang so lautete: "Das Licht wird nicht gebrochen, sondern gebeugt: die Betrachtung einzelner Sensorpixel ist dabei sinnlos und ohne jede Aussagekraft, es wird ein von mehreren Sensorpixeln detektiertes Beugungsmuster ausgewertet."
Eine tiefergehende Betrachtung der wahren Natur von Brechung und Beugung erscheint mir dagegen wenig hilfreich.

PS: Du musst hier niemanden beeindrucken...
PPS: Ich gebe gerne zu, von dynamischer Interferenztheorie keine Ahnung zu haben...
 
Zuletzt bearbeitet:
Manche Leute müssen immer jemanden beeindrucken. Geht aber meist nach hinten los, wen imteressiert schon Röntgen und Diamantbrechung... wtf, hier gehts um ne Kamera...
 
War da nicht irgendwo die Rede von Handy-Kameras? Da gibt es z.B. einen 41-MP-Sensor, der eigentlich gar nicht dazu gedacht ist, 41-MP-Bilder zu produzieren. In diese Richtung könnte man denken.
Zwischen den Entwicklern und dem Endkunden sitzen meist noch Marketing- und Presse-Fritzen, die die technologische Sachlage hinreichend verzerren, bis der größtmögliche Consumer-Markt angesprochen zu sein scheint. Dem braven Entwickler rollt es zwar die Fußnägel auf, aber Hauptsache man schafft es in die überregionale Presse - oder in Foren wie diesem.
 
Manche Leute müssen immer jemanden beeindrucken. Geht aber meist nach hinten los, wen imteressiert schon Röntgen und Diamantbrechung... wtf, hier gehts um ne Kamera...

Das sind Extrembeispiele, an denen sich Beugungs-/Brechungsphänomene besser erklären lassen. Wer diese Extrembeispiele nicht begreift, begreift gleich gar nicht Beugung/Brechung in der Atmosphäre (damit Funktion eines Polfilters, Sonnenauf- und untergänge), den Farbsaum an Kanten und auch nicht die Beugungserscheinungen an kleinen Blenden.
 
PS: Du musst hier niemanden beeindrucken...

Ein bisschen Konkurrenz zu Dr. Walter Broermeyer ist doch immer willkommen.

Dr. Walter Broermeyer, Vollakademiker und Universalwissenschaftler sowie Inhaber sämtlicher Doktortitel, zuständig für alle Wissenschaftsbereiche an der Wim-Thoelke-Universität Stenkelfeld, Leiter des Feuerwehrschlauchmuseums Höcklage, Vordenker eines subregionalen Fäkalienentsorgungskonzepts, Astrophysiker und Leiter der „Frauke-Ludowig-Sternwarte“ auf dem Großen Drengberg, Internist sowie Leiter der Kreisärztekammer, Vorsitzender der Jury der amtsärztlichen Vereinigung, Leiter des Kulturamtes, Vorsitzender vom Kreiskulturausschuss, Namensgeber der Dr.-Broermeyer-Kampfbahn.
 
Zuletzt bearbeitet:
Wer diese Extrembeispiele nicht begreift, begreift gleich gar nicht Beugung/Brechung in der Atmosphäre (damit Funktion eines Polfilters, Sonnenauf- und untergänge)
die weder mit Beugung noch mit Brechung (schon das sind grundverschiedene Mechanismen) etwas zu tun haben, sondern mit Streuung.

:rolleyes:
 
die weder mit Beugung noch mit Brechung (schon das sind grundverschiedene Mechanismen) etwas zu tun haben, sondern mit Streuung.

Beugung beruht auf Streuung... könnte man z.B. sagen. Man könnte auch gleich ganz grundsätzlich bei Maxwell-Gleichungen anfangen...
So richtig sinnvoll und hilfreich ist das hier nicht.
 
Zuletzt bearbeitet:
... und um zur Ausgangsfrage zurückzukehren: alleine der Umstand, alle Photonen zum Sensor durchzulassen macht noch nicht per se eine bessere Bildgebung. Wenn die Farbseparation z.B. eine schlechtere Trennung bewirkt, als bei einer absorptiven Farbmaske, dann werden die Matritzen zur Farbberechnung schon bei kleinsten Rauschsignalen stärkere Farbabweichungen zur Folge haben. Das war/ist auch schon bei Foveon so. Wenn man dazu auch noch viel mehr Pixel auslesen muss, um an eine Farbinformation zu gelangen, dann verschlimmert sich das Problem durch Rausch-Akkumulation noch mehr.

Am Ende hat man dann zwar auf dem Specsheet eine wunderschön anzusehende einzelne Kennzahl z.B. zur apparenten QE des Sensors, aber gekonnt hat man nichts.
 
WERBUNG
Zurück
Oben Unten