• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Was passiert bei Einstellung der ISO?

@blaubaer65
Auch ich bin dir dankbar, daß du dich mit den Fragen beschäftigst und das hier nicht als Zweitvertreibt zum Armdrücken gegen andere Erklärungen nutzt...

Gut. Doppelte Zeitstufen an den Reglern der analogen Bodys - oder so wie man das ulkigerweise auch heute wieder an einer X-T10 & co. widerfindet - samt den gewöhnlichen Bereichen der Blendestufen, erklären die ISO-Stufen der Filme.

Nur was hat eine 7DII oder eine D7200 damit zu tun? (nur als Beispiel)
 
Es gibt mehrere verschiedene Definitionen von "Belichtungsindices" (EI = "exposure index"), die alle in der ISO 12232 beschrieben sind. Da gibt es den erwähnten sättigungsbasierten EI, es gibt einen EI, der über das Rauschen definiert ist, dann gibt es den EI, der jedem wohl als erster und "logischster" einfallen würde namens "Standard Output Sensitivity" (wie hell wird ein Bild bei welcher Belichtung?) und schließlich gibt es einen ganzen Zoo von "recommended EI" (REI), die jeder hersteller innerhalb gewisser Grenzen für seine Kamera benutzen kann. Und die meisten tun es auch. In jedem Fall wird aber eine Belichtung (=Lichtmenge pro Fläche, gemessen in lx.s) mit einer Ausgangsgröße (Bildhelligkeit, Rauschen, Sensorsättigung uwsw.) verknüpft. Das englische Wikipedia stellt das ganz schön dar, das deutsche leider immer noch fehlerhaft (zumindest als ich das letzte Mal geguckt habe).

na das ist ja spannend. Dann werde ich mal auf's englische Wikipedia gucken.

Die EINE Wahrheit scheint es aber nicht zu geben. Wäre ja auch zu einfach ...
 
Insofern wäre ein Film mit "krummer" ISO 320 kaum brauchbar gewesen.

Aber ja doch! Die Motivhelligkeit ändert sich doch nicht schrittweise. Und es gab doch genügend Filme mit krummen ISO/DIN.
 
Dachte sowas wie Foma Retropan 320 ist eher der Neuzeit geschuldet (?)
 
Nach meinem (rudimentären) Wissen bestand zu analogen Zeiten ein unmittelbarer Zusammenhang zwischen der ISO-Zahl und der tatsächlichen Lichtempfindlichkeit bzw. der chemischen Eigenschaften des Films.
Nein, die Filmemfindlichkeit konnte man schon zu Analogzeiten durch die Entwicklung (Temperatur, Dauer, Art des Entwicklers) beeinflussen.

Ich vermute, dass die physikalische Lichtempfindlichkeit eines Sensors immer gleich ist, sich also nicht ändert, wenn an der ISO gedreht wird (richtig?).

Was genau passiert also in der Kamera, wenn sich die ISO ändert?
Die Photodioden, die das Licht einfangen und in eine elektrische Spannung umwandeln, sind immer gleich. Es ändert sich die Signalverarbeitung: analog (durch unterschiedliche Verstärkung der Spannung vor der Analog-Digital-Wandlung) oder digital (durch Multiplizieren der Werte des A/D-Wandlers) – oder eine Kombination aus beidem.

Ergänzende Fragen: Wie ist dann in diesem Zusammenhang die Basis-ISO definiert? Und auf welcher Ebene sind ISO-Werte zwischen verschiedenen Sensoren (mehr oder weniger) vergleichbar?
Die ISO-Empfindlichkeit ist nicht eindeutig definiert, da gibt es mehrere Möglichkeiten (die entsprechende ISO-Norm 12232 kannst du kaufen, eine Zusammenfassung gibt's bei Wikipedia https://en.wikipedia.org/wiki/Film_speed#Digital_camera_ISO_speed_and_exposure_index). Eine offizielle Definition von "Basis-ISO" gibt es m. W. nach nicht.

Die meisten Hersteller verwenden REI, d.h. nur die sRGB-JPEGs müssen (in den Augen des Herstellers) richtig belichtet sein.

DxO misst die Sensorempfindlichkeit nach dem Sättigungsverfahren, das gibt einen objektiven Vergleichsmaßstab zwischen den Sensoren (aber nicht zwischen den Kameras bei gleichen Einstellungen und schon gar nicht zwischen den Kamera-JPEGs). Bei Sättigungsverfahren ergibt sich relativ einfach eine Basis-ISO – das ist einfach die niedrigste gemessene ISO. Die abweichenden Hersteller-ISOs sind übrigens kein Betrug, sondern bewusste Entscheidungen – setze ich die REI-ISO höher also die sättigungsbasierte, dann habe ich mehr Überbelichtungsspielraum in den Lichtern und mehr Rauschen, setze ich sie niedriger, dann ist es umgekehrt. Letzteres nutzen einige Hersteller bei "Low-ISO".

GUTE Frage. Habe darüber erst gestern wieder kurz nachgedacht.
Das kam mir schonmal in den Sinn als es hier in einem Thread draum ging, daß messtechnisch bei vielen Canons es so aussieht als wenn eher 160 die Basis-ISO wäre und nicht 100...
Das bezieht sich meist darauf, dass man bei ISO 160 mehr Überbelichtungsspielraum hat.

Sonst weiß ich darüber zum Glück ausreichend wenig um mich auch zu fragen warum es auch 2016 so aussieht, als wenn keine Sensoren kommen würden wo die Basis-ISO z.B. 400 oder wenigstens 200 ist (und die dann auch mangels größerer Verstärkung entsprechend nur so rauschen wie aktuelle bei 100).
Das Rauschen kommt heutzutage in erster Linie von den Photonen (wenn man mal von den ganz dunklen Schattenbereichen absieht), für ISO 200 müsste der Sensor also doppelt so viele der einfallenden Photonen einfangen. Da scheint aber das technische Limit ziemlich erreicht zu sein, in den letzten Jahren hat sich da nicht viel getan. Sensorgen gibt schon Quanteneffizienzen über 50% an, mir ist allerdings nicht ganz klar, worauf sich das bezieht.

Oder warum die 1/3 Stufen als Fakestufen bezeichnet werden. also 320 ist Fake, 400 nicht? Lässt sich das Signal nur in Stufen und nicht linear verstärken? (?)
Alles eine Frage des Aufwandes. Im Zweifel ist es wohl einfacher, mehrere Verstärker mit festen Verstärkungen zu bauen. Soll ja alles extrem rauscharm sein, und natürlich müssen alle Verstärker exakt gleich laufen, weil ja meist mehrere Pixel (bis hin zu ganzen Zeilen/Spalten) parallel ausgelesen werden.

Daß es Filme z.B. in 100, 200 und 400 gab und nicht 250, was hat denn ein Bayersensor samt Verstärker damit gemeinsam?
Zumindest ISO 64 und ISO 160 gab es durchaus auch. Innerhalb einer Filmreihe feinere Abstufungen als 1 Blende ist wenig sinnvoll, denn man hatte (bei KB) ja eh immer 36 Aufnahmen, bevor man die Empfindlichkeit "ändern" konnte. Und sicher nicht für jede Drittelstufe 'nen extra Body.

L.G.

Burkhard.
 
Das Rauschen kommt heutzutage in erster Linie von den Photonen (wenn man mal von den ganz dunklen Schattenbereichen absieht), für ISO 200 müsste der Sensor also doppelt so viele der einfallenden Photonen einfangen. Da scheint aber das technische Limit ziemlich erreicht zu sein, in den letzten Jahren hat sich da nicht viel getan. Sensorgen gibt schon Quanteneffizienzen über 50% an, mir ist allerdings nicht ganz klar, worauf sich das bezieht.
Wenn ich mir anschaue wie z.B. die D90 und die D7200 abbildet, dann hätte ich das sonst fast geglaubt :)
 
Nein, die Filmemfindlichkeit konnte man schon zu Analogzeiten durch die Entwicklung (Temperatur, Dauer, Art des Entwicklers) beeinflussen.


Burkhard.

jetzt habe ich irgendwie ein Verständnisproblem......wurden die Filme bereits entwickelt bevor sie entwickelt wurden?
oder meinst damit die /bei der Herstellung der Filme...
somit war früher auch z.b. 100 iso nicht einheitlich Filmherstellerübergreifend ?
...somit erübrigt sich hier schon fast die Streiterei was ist Grundiso und wie solls vergleichbar sein mit anderen Marken...
 
Bei Filmen wurde immer auch mit angegeben, wie sie "im Normalfall" zu entwickeln sind. Oft dann auch noch, wie sie für höhere oder niedrige Empfindlichkeit und/oder Gradation zu entwickeln sind.


Hier z.B. en Beispeil von Ilford:

http://www.ilfordphoto.com/Webfiles/2015416153431192.pdf

Oben ist der Film angegeben, und darunter die möglichen ISO und die dafür notwendige Entwicklung. Nimm den HP5 Plus

Der Film hat nativ ISO 400, ich kann aber auf ISO 3200 puschen, das heisst ich stelle die Kamera auf ISO 3200 und belichte dementsprechend.

Dann muss ich im Anschluss entsprechend die Entwicklung durchführen.
 
Und jeder Filmhersteller benutzte exakt die gleichen Kristalle, oder es gibt eh nur eine und somit die gleiche Empfindlichkeit?
 
Und jeder Filmhersteller benutzte exakt die gleichen Kristalle, oder es gibt eh nur eine und somit die gleiche Empfindlichkeit?

Wie bitte?

Jeder Hersteller sorgte bei der von ihm empfohlenen Belichtung und Entwicklung für ähnliche Schwärzung bzw. Helligkeit der entwickelten Fotos. Belichtung ist eine physikalische und messbare Größe, Schwärzung auch.
 
Wenn ich mir anschaue wie z.B. die D90 und die D7200 abbildet, dann hätte ich das sonst fast geglaubt :)
Kannst du ruhig glauben. Vergleich' mal die 18%-Rauschwerte der D90 und der D7200 auf DxO bei gleicher ISO. Dort dominiert das Photonenrauschen, und deshalb kann man daran in etwa die Quanteneffizienz abschätzen (bei gleicher Sensorgröße und "Print"). Bei der Dynamik (Dunkelrauschen) sieht das ganz anders aus, aber das liegt an den Verbesserungen beim Dunkelrauschen.

L.G.

Burkhard.
 
Sensorgen gibt schon Quanteneffizienzen über 50% an, mir ist allerdings nicht ganz klar, worauf sich das bezieht.

QE=1 bedeutet, jedes Photon erzeugt ein Elektron-Loch-Paar. Mit einer für QE optimierten Si-Photodiode (also sozusagen einem großen Pixel) kann man dem im sichtbaren Spektrum ziemlich nahe kommen.

Bei einem Bildsensor gibt es Einschränkungen: die Photodioden sind klein, dazwischen ist Metallisierung (FSI). Dem kann man bei größeren Pixeln (>5 µm) ziemlich gut mit Mikrolinsen abhelfen, oder eben mit BSI, wo die Verdrahtung nicht im Weg ist. Trotzdem erreicht man keine 100% Füllfaktor in der Fläche.

Die lichtabsorbierenden Schichten sind auch nicht sehr tief, so daß nicht alle Photonen absorbiert werden - manche gehen durch. Das macht sich vor allem auf der blauen Seite des Spektrums bemerkbar.

Die Daten von Sensorgen liegen teilweise sehr deutlich daneben, sei es, weil Annahmen zur Berechnung nicht stimmen, sei es, daß die Messdaten falsch oder falsch übertragen sind. Die bei Sensorgen angegebene QE ist ohne Bayer- und sonstige Filter (herausgerechnet). 50% bedeutet: hätte es keine Farbfilter auf dem Sensor, würde jedes zweite Photon ein Elektron-Loch-Paar erzeugen. Insofern wäre theoretisch noch eine Blendenstufe Verbesserung möglich mit einem idealen Sensor; in der Realität ist die Luft dort im wesentlichen raus.

Das Bayer-Filter kostet nochmal etwa die Hälfte - eine reale Mischung aus blauen, grünen und roten Photonen kommt also etwa zur Hälfte durch die Filterschichten, davon wird die Hälfte in Strom verwandelt - der erreichbare externe Quantenwirkungsgrad liegt bestenfalls um die 25%. Bisher haben sich Alternativen, die dort etwas gewinnen könnten, aber nicht bewährt.
 
QE=1 bedeutet, jedes Photon erzeugt ein Elektron-Loch-Paar. Mit einer für QE optimierten Si-Photodiode (also sozusagen einem großen Pixel) kann man dem im sichtbaren Spektrum ziemlich nahe kommen.
Schon für SW.Kameras hast Du das Problem, dass so eine Kamera für alles
Licht zwischen UV und IR gleich empfindlich wäre.
Eine Kamera mit QE(λ) = 1 ist für alle Farben gleich empfindlich.
UV, violett, blau, türkis, gelbgrün, orange, rot, IR.
Das führt zu Bildern, die man meist nicht haben will.

Man braucht Sensoren, deren QE(555 nm)=1 ist und der zu den Rändern abfällt.
Die QE, die man für so einen Sensor angeben würde, hängt vom betrachteten Referenzspektralbereich ab (z.B. 380 nm bis 780 nm) und würde bei irgendwo 25%
liegen. Durch falsche Wiedergabe der Helligkeit der Farben kann man diesen Wert überbieten.

Noch komplizierter wird es bei Farbsensoren. Neben einer richtigen Helligkeitswiedergabe sollte hier noch die Farbwiedergabe stimmen.
Weiterhin kann man Helligkeitsrauschen noch etwas verringern, indem man
höheres Farbrauschen zuläßt, indem man die Farbfilter weniger stark trennend
ausführt.

Zur QE von Sensorgen: Beispiel Canon EOS 50D:

Laut Astrosurf (spektrale Kennlinien ausgemessen):
QE(410 nm) ~ 1%
QE(420 nm) ~ 9%
QE(450 nm) ~ 11%
QE(475 nm) ~ 16%
QE(500 nm) ~ 22%
QE(525 nm) ~ 22%
QE(550 nm) ~ 19%
QE(575 nm) ~ 16%
QE(600 nm) ~ 11%
QE(625 nm) ~ 5%
QE(650 nm) ~ 3%
QE(690 nm) ~ 0%

Sensorgen gibt 48% an ...
 
Schon für SW.Kameras hast Du das Problem, dass so eine Kamera für alles
Licht zwischen UV und IR gleich empfindlich wäre.
Eine Kamera mit QE(λ) = 1 ist für alle Farben gleich empfindlich.
Ohne Korinthen kacken zu wollen: Empfindlichkeit ist als Photostrom/Lichtleistung (A/W) definiert, QE=1 bedeutet deshalb durchaus eine wellenlängenabhängige Empfindlichkeit - Blau hat weniger Photonen bei der gleichen Lichtleistung als Rot.

Man braucht Sensoren, deren QE(555 nm)=1 ist und der zu den Rändern abfällt.
Für panchromatische SW-Bilder ja, für Farbbilder nicht, da kann ich ja vorher die Farbkanäle geeignet filtern, ihre Fläche gewichten (wie bei Bayer) und nachher bei der Verrechnung nochmal gewichten - da wäre ein interner QE=1 schon das Ziel. - Um SW geht es hier ja eher nicht.

Zur QE von Sensorgen: Beispiel Canon EOS 50D:

Laut Astrosurf (spektrale Kennlinien ausgemessen):
(....)
QE(500 nm) ~ 22%
QE(525 nm) ~ 22%
(....)

Sensorgen gibt 48% an ...
Aber Sensorgen rechnet aus den Messwerten die Bayer-Filterung nach irgendeinem (sicherlich nicht wirklich gut treffenden) Modell heraus, insofern passen 48% ohne Filter mit 22% Peak mit Filter nicht so schlecht zusammen (es ist immer noch zu viel).
 
Ohne Korinthen kacken zu wollen: Empfindlichkeit ist als Photostrom/Lichtleistung (A/W) definiert, QE=1 bedeutet deshalb durchaus eine wellenlängenabhängige Empfindlichkeit - Blau hat weniger Photonen bei der gleichen Lichtleistung als Rot.
Was Du meinst, heißt Konversationsfaktor oder Responsivität.
Empfindlichkeit wird ausdrücklich für diese Größe nicht empfohlen, weil das schon gefühlte 132 andere Bedeutungen hat.

Für panchromatische SW-Bilder ja, für Farbbilder nicht, da kann ich ja vorher die Farbkanäle geeignet filtern, ihre Fläche gewichten (wie bei Bayer) und nachher bei der Verrechnung nochmal gewichten - da wäre ein interner QE=1 schon das Ziel. - Um SW geht es hier ja eher nicht.
Was macht ein Filter?
Genau!
Vermeiden kann man das nur durch Verwendung von dichroitischen Filtern.
Das hatten wir schon mal vor ein paar Jahren (mit Mi67, wie immer): Läuft auf ein Spektrometer pro Pixel hinaus. Wobei man schon mit einem Vierkanal-Spektrometer
gute Ergebnisse erzielt und ein Sechskanal-Spektrometer für VIS-Aufnahmen fast
schon das Optimum erreicht.

Aber Sensorgen rechnet aus den Messwerten die Bayer-Filterung nach irgendeinem (sicherlich nicht wirklich gut treffenden) Modell heraus, insofern passen 48% ohne Filter mit 22% Peak mit Filter nicht so schlecht zusammen (es ist immer noch zu viel).
[/quote]
Ich komme mit keiner Definition auf die Werte von SensorGen.
Den Leuten von Astrosurf vertraue ich übrigens mehr. Das sind wirklich gewiefte
Froschschenkelesser. So was wie
http://www.astrosurf.com/buil/extrasolar/obs.htm
http://www.astrosurf.com/buil/exoplanet2/51peg.htm
http://www.astrosurf.com/buil/echelle/first.htm
flößt mir Respekt ein!
 
insbesondere wenn "Gesetzmäßigkeiten" aus analogen Zeiten herangezogen werden,
Eine Digitalkamera ist ein Computer, der einen Fotoapparat simuliert. Also sind alle Begriffe und Definitionen der klassischen Nassfotografie entlehnt.
die heute keine reale Grundlage mehr haben.
Nun, man will eben einen Fotoapparat simulieren. Wenn Du statt von Zeit und Blende von Volts, Bits und Bytes reden würdest, täte dass den einen oder anderen Fotografen doch ziemlich verwirren.
 
Beispiel: Hatte die 400 früher einen konkreten Bezug zu den chemischen Eigenschaften des Films? (ich kenne die Antwort nicht) Was bedeutet ISO 400 dann heute? Hat sie eine Aussagekraft nur in Relation zu anderen ISO-Werten? Gibt es dafür evtl. sinnvollere "Messeinheiten"?

Ob es einen konkreten Bezug zur Filmchemie gab/gibt kann ich leider nicht sagen.
Aber der ISO-Wert war eine hilfreiche Angabe um ohne Belichtungsmesser zu fotografieren, Stichwort "Sunny 16"
 
WERBUNG
Zurück
Oben Unten