• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Zukünftige (APS-C) Sensoren

Bei modernen Sensoren ist die Quanteneffizienz teilweise bei 50% angelangt. ... D.h. so viel Luft nach oben ist da nicht, solange ein Photon ein Elektron auslöst.
...
D.h. falls nich grundsätzlich andere Prinzipien entdeckt werden (ähnlich wie bei Batterien), ist die Luft nach oben etwas begrenzt.

Ein sehr guter Beitrag. In der Tat gibt es gerade im Bereich des Rauschens in etwas helleren Bildbereichen (wo das Photonenrauschen dominiert) kaum mehr Spielraum nach oben. Hier müsste man schon die Physik auf den Kopf stellen, um signifikant bessere Ergebnisse zu erzielen.


Solange die Empfindlichkeit der Sensoren nicht einen sehr großen Sprung machen, sind die Hoffnungen, die manche in kleinen Sensoren setzen, Illusion.

Gerade aus den von kr@utg genannten Gründen sollte man sich keine großen Hoffnungen auf riesige Sprünge in der Empfindlichkeit machen. Ich gebe dir daher völlig Recht - große Sensoren werden jedenfalls auf absehbare Zeit unverzichtbar bleiben, soweit es um Lowlightsituationen geht.
 
Sind denn die ganzen Techniken, die bei den Mini-Sensoren mittlerweile (fast) Standard sind, wie Rückbeleuchtung, denn bei den großen Sensoren schon da?
Ich versteh schon, daß es besonders bei kleinen Sensoren mehr drauf ankommt (prozentual), wie viel Fläche noch von Leitungen und anderen Kram "verschenkt" wird - aber wie viel ist es bei einem APSC/KB-Sensor der aktuellen Generation?
Auch ist hier immer zu lesen, daß Canon ja so hoffnungslos veraltete Größen verwendet, und dadurch die Leitungen sowieso dicker sind (22nm wird sicher noch lange nicht verwendet ;) ), aber wie viel ist es wirklich?
Weiß da jemand genaueres?
 
Sind denn die ganzen Techniken, die bei den Mini-Sensoren mittlerweile (fast) Standard sind, wie Rückbeleuchtung, denn bei den großen Sensoren schon da?

Nett, daß du APS-C zu den Mini-Sensoren zählst. In diesem Format hat Samsung nämlich in der NX1 einen 28MPix-BSI-Sensor vorgestellt und ist damit (zumindest theoretisch) der Technologieführer dieser Größenklasse. Leider gibts noch keine wirklich aussagekräftigen Tests, da die Kamera gerade erst ausgeliefert wird. Erste Beispielsbilder sehen aber z.T. recht gut aus.
 
Nett, daß du APS-C zu den Mini-Sensoren zählst.

Hab ich doch gar nicht. :rolleyes:

Und eine Neuvorstellung (die noch kaum jemand wirklich kennt) passt ja dann auch nicht zum Wort "Standard", worauf ich mich auch mit Mini bezog. Also bitte dreh meine Worte nicht anders als sie gemeint sind.
 
Eine Quanten Effizienz von 50% heisst dass man maximal noch 1 Blende finden kann in Bezug auf höhere ISO, ohne die Technik komplett umzukrempeln. Und die dazu nötigen 100% wird man nie erreichen, nur näher dran kommen.

Die Bayerfilter kosten 1.5 bis 2 Blenden Licht. Lässt man die weg, gewinnt man mehr ISO, verliert aber die Farben. EIne neue Technik kann da auch nicht viel helfen. Denn soll etwas nur auf grünes Licht reagieren, muss das rote und balue Licht irgendwie weg. Sei es Farbfilter, Eindringtiefe ins Silicium, wie auch immer. Die falschen Farben müssen weg und das Licht ist dann verloren.

Wo eher was kommen kann ist Dynamik und MP.

MP werden weiter rauf gehen. Bei 24 MP sind wir heute bei 4 Mikrometer. 3 Mikrometer wie bei den 1" Sensoren mit eher tiefen MP Zahlen sind bei tiefen ISO in 100% betrachtet aber auch noch gut, selbst bei 2 Mikrometer (z.B. P7800) ist bei Basis ISO die 100% Ansicht noch sehr detailreich. Da das Runterrechnen von zu viel MP für hohe ISO heute kaum noch Nachteile hat gegenüber gleich weniger Pixel auf die Fläche machen, wird das kommen, auch wenn es nur für eine Minderheit wie z.B. Landschaftsfotografen sinnvoll ist. Einfach weil sich 36 oder 40 MP besser verkaufen als 24.

Sensoren mit 15 und mehr Blenden Dynamik hatte Kodak mit schon lange. 16 Bit sollte auch möglich sein, nachdem der Wehcsel von 12 auf 14 Bit jetzt doch schon eine Weile her ist (z.B. bei Nikon D300, D3). Da darf man also damit rechnen, dass mit der Zeit Sensoren kommen, die noch 1 bis 2 Blenden mehr bringen als die heutige 24 MP Spitze von Sony.
 
Das ist wie bei Autos: ein Sportwagen mit Spitze 400 km/h ist einem solchen mit lediglich Spitze 300 km/h natürlich auch deutlich überlegen. In der Theorie. Und auf der Rennstrecke. Wenn man denn damit umgehen kann.
In der Praxis reichen den meisten Menschen allerdings Fahrzeuge, deren Leistung deutlich niedriger ist. Zumindest zum Zweck der Fortbewegung...
Oh die wunderbare Welt der unnötigen und immer auch wackeligen Vergleiche.

Bei Kameras gilt: der Sensor so groß wie möglich, bis einem die Kamera zu groß, zu teuer, oder zu schwer wird.

Und APS-C ist derzeit in dem "sweet spot". D.h. die Sensoren dafür sind immer noch sehr billig. Das halte ich für den Kerngrund, warum manche Leute hier zu denken scheinen, das APS-C der Gral ist.
 
Eine Quanten Effizienz von 50% heisst dass man maximal noch 1 Blende finden kann in Bezug auf höhere ISO, ohne die Technik komplett umzukrempeln. Und die dazu nötigen 100% wird man nie erreichen, nur näher dran kommen.
Sind die 50% angenommen oder kann man dazu eine detailierte Abhandlung finden?
Die Bayerfilter kosten 1.5 bis 2 Blenden Licht.

Auch das wurde hier im Forum schon mehrfach geschrieben, wo finde ich dazu Lesestoff?
 
Die Bayerfilter kosten 1.5 bis 2 Blenden Licht. Lässt man die weg, gewinnt man mehr ISO, verliert aber die Farben. EIne neue Technik kann da auch nicht viel helfen. Denn soll etwas nur auf grünes Licht reagieren, muss das rote und balue Licht irgendwie weg. Sei es Farbfilter, Eindringtiefe ins Silicium, wie auch immer. Die falschen Farben müssen weg und das Licht ist dann verloren.
Die Technologie, Farben aufzuspalten, existiert seit vielen Jahrzehnten und wird bei Video auch sehr oft angewendet.

http://en.wikipedia.org/wiki/Dichroic_prism
http://de.wikipedia.org/wiki/Dichroitischer_Spiegel
http://www.alt-vision.com/color_prisms_tech_data.htm

Mindestens Nikon hat auch ein Patent darauf, dies auf dem Sensor selbst zu tun. Allerdings geht deren Version in die Breite. Eine bessere Lösung würde natürlich in die Tiefe zu gehen.
 
Zuletzt bearbeitet:
Auch das wurde hier im Forum schon mehrfach geschrieben, wo finde ich dazu Lesestoff?
Lesestoff kann ich dazu nicht bieten.

Aber die Leica M Monochrom bietet Basis ISO 320, während die normale Leica M9 Basis ISO 160 hat.

Daher habe ich meine 50% (also eine Blende) Abschätzung.

Die Zahl von donesteban kommt mir zu hoch vor. Wenn ich Farben präzise bestimmen möchte, brauche ich eine Abstufung, d.h. z.B. rote Pixel müssen bei roteren Lichtlängen zunehmend stärker reagieren. Deshalb kann ein rotes Pixel nicht einfach alle roten Lichtlängen als Signal nehmen und den gesammten Rest komplett wegwerfen. Ergo ist schon eine Abblendung auf anderthalb Blenden nicht gusto, denn anderthalb Blenden entspräche ja diesem kompletten Wegwerfen. Real muß ein rotes Pixel aber auch auf ein blaues Signal noch einen geringen Wert liefern, sonst kann die Kamera die Farben ja nicht präzise genug unterscheiden.

Auf donesteban's Wert käme man erst, wenn der Bayer-Filter eine generelle Abdunklung zur Folge hätte. Das halte ich für unwahrscheinlich.



Wenn nicht gleichzeitig die Sättigungskapazität erhöht wird, verliert man dadurch erstmal die geringen ISO.
Und gewinnt hohen.
 
Aber die Leica M Monochrom bietet Basis ISO 320, während die normale Leica M9 Basis ISO 160 hat.

Daher habe ich meine 50% (also eine Blende) Abschätzung.
Dieser Abschätzung liegt dann allerdings zu Grunde, dass die Leica Monochrom 100% Quanteneffizienz hat!?
Für die Sensorfläche völlig unmöglich, da eben nicht BSI etc. etc.
Die Wikipediaartikel beziehen sich doch alle auf einzelne! Fotodioden ;) und schon die haben keine 100% Effizienz.

Die Nikon D810 hat Base-Iso 64 oder? Wie passt das ins Bild?

Ich glaube ihr verwendet Begriffe dessen Definition ihr nicht vollumfänglich kennt.
 
Dieser Abschätzung liegt dann allerdings zu Grunde, dass die Leica Monochrom 100% Quanteneffizienz hat!?

Die M9 hat laut sensorgen 30% Quanteneffizienz.

Die Nikon D810 hat Base-Iso 64 oder? Wie passt das ins Bild?

Die hat eine höhere Sättigungskapazität pro Fläche bei 47% Q.E.

Ich glaube ihr verwendet Begriffe dessen Definition ihr nicht vollumfänglich kennt.

Wessen? :rolleyes:
 
Ah, ich habe in ein paar Posts hier Aussagen wohl falsch verstanden. Sorry für #52.
Die getroffenen Ableitungen halte ich aber dennoch für abenteuerlich.

Die M9 hat laut sensorgen 30% Quanteneffizienz.

Schön das diese Quelle auch über 100% bis 476% angibt, auch wenn die Abkürzung passt, irgendetwas passt dann doch nicht ...
Da fehlt mir schon eine Legende, jetzt wo wir schon so pseudowissenschaftlich sind ...
 
Schön das diese Quelle auch über 100% bis 476% angibt, auch wenn die Abkürzung passt, irgendetwas passt dann doch nicht ...

Sensorgen liest die Daten automatisch von DxOMark und rechnet daraus automatisch die Parameter Quanteneffizienz, Ausleserauschen, Sättigungskapazität und einen vierten für "PRNU", der dort aber nicht dargestellt wird. Wenn da völlig absurde Werte rauskommen, liegt das daran, dass DxOMark die Darstellung der Daten leicht geändert hat und die Automatik sie manchmal fehlinterpretiert. Im wesentlichen ist da wohl ein Komma verrutscht. Das wird schon lange bei DxOMark diskutiert (und hier auch), der Schöpfer von sensorgen weiß davon, hatte aber wohl noch keine Zeit, es zu korrigieren.

Wenn Du Dich für einen Moment mit den (ohne Kommafehler berechneten) Daten und deren Erzeugung beschäftigst, wirst Du bestimmt dahinterkommen, was sie bedeuten und welche Einschränkungen und Ungenauigkeiten drinstecken.

Da fehlt mir schon eine Legende, jetzt wo wir schon so pseudowissenschaftlich sind ...

Hat irgendwer was von "wissenschaftlich" gesagt?
 
Zuletzt bearbeitet:
Dieser Abschätzung liegt dann allerdings zu Grunde, dass die Leica Monochrom 100% Quanteneffizienz hat!?
:confused: Wie kommst du auf solche abwegigen Schlußfolgerungen ?

Die M Monochrom verwendet denselben Sensor wie die M9 - nur der Bayer Farbfilter fällt weg. Und die Monochrom hat einen eine Blende höheren Basis-ISO. Ergo filtert der Bayer-Farbfilter der M9 eine Blende des einfallenden Lichtes.

Die Quanteneffizienz kann da 100%, 1% oder 0.0000001% sein - das ist völlig egal.
 
Für mich sind diese Daten und Annahmen alle wenig nachvollziehbar.
Basierend auf ein paar Interneteinträgen und Interpretationen von Interpratationen vom Marketing etc.

Wenn der Bayerfilter etwa eine Blende Licht schluckt, wie können dann Sensoren mit BayerSensor QE >60% haben? Dann hätten diese ohne Farbfilter QE > 100%, obwohl zwischen den einzelnen Fotodioden Lücken sind ...

Vorallem hätten diese hohen QE zur logischen Folge, dass es (absolut betrachtet!) keine wesentlichen Verbesserungen mehr bei den Sensoren möglich sind. Dies ist mMn aber nur bei der aktuell verfügbar gemachten Konsumertechnik der Fall.
Ich meine, dass mit Layertechniken, organischen Sensoren etc. noch viel Potenzial in der Sensorfläche liegt, man aktuell also bei signifikat niedrigeren QE-Werten liegt.

Edit:
:confused: Wie kommst du auf solche abwegigen Schlußfolgerungen ?
So: 50 + 50 = 100
Bei modernen Sensoren ist die Quanteneffizienz teilweise bei 50% angelangt.
Die Bayerfilter kosten ... Licht. Lässt man die weg, gewinnt man mehr ISO, verliert aber die Farben.
Aber die Leica M Monochrom bietet Basis ISO 320, während die normale Leica M9 Basis ISO 160 hat.

Daher habe ich meine 50% (also eine Blende) Abschätzung.
 
Zuletzt bearbeitet:
Wenn der Bayerfilter etwa eine Blende Licht schluckt, wie können dann Sensoren mit BayerSensor QE >60% haben?

Die können sogar über 100% Quanteneffizienz haben. Die Frage ist eben, was mit 100% gemeint ist. Und da steckt in diesem Fall die Annahme drin, dass der Filter der grünen Pixel für die gleiche relative spektrale Empfindlichkeit sorgt wie die der grünen Zäpfchen des menschlichen Auges unter max. 2° und hellangepasst. Wenn der Filter auch viele spektrale Anteile außerhalb von "grün" durchlässt, käme in dieser Definition eine Q.E. > 100% raus.

Tatsächlich sind die grünen Bayer-Filter von Kameramodell zu Kameramodell unterschiedlich und die relative spektrale Empfindlichkeit unterscheidet sich mehr oder weniger stark vom "Grün" des menschlichen Auges, also sind die Q.E. relativ grobe Schätz- und Vergleichswerte.
 
Das ist doch mal eine gute Information als Grundlage dieser Unterhaltung.:ugly:
Woher stammt die Info, dass 100% nur ein Bezugspunkt zu unseren Augen ist?
 
WERBUNG
Zurück
Oben Unten