• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

ISO unnötig bei Nachbelichtung in LR?!

Salvus77

Themenersteller
Hallo,

habe letztens einen Artikel über ISO Einstellungen gelesen.
Hab ich es richtig verstanden, daß es eigentlich keinen Unterschied macht, in der Kamera mit ISO100 zu fotografieren und später in Lightroom die Belichtung hochzuregeln?
Technisch gesehen wäre das das Gleiche, ob die Kamera Software das Bildsignal verstärkt, oder die Software in Lightroom?

Bin etwas verwirrt :confused:
 
Mindestens bekommt man aber schwarze / unbrauchbare Vorschaubilder im Display, was einen wesentlichen Vorteil der digitalen Fotografie zunichte macht, nämlich zügig zu prüfen, ob Fokus und Belichtung korrekt sind. Bei Canonsensoren stimmt es zudem nicht, weil die nicht isolos sind. Aber bei anderen Sensoren, zum Beispiel von Fuji stimmt es teilweise, da gibt es wohl nur zwei ISO-Stufen, nämlich Base-ISO und ISO 800. Wenn Sony mit 15 Stufen dynamischem Umfang daherkommt kann man sich ja ausrechnen, dass man bei ISO 100 schon die meisten Bildinformationen auf dem Bild hat, auch in den Schatten, die in der Vorschau schwarz sind.
 
"Iso" ist bei digitalen Sensoren letztlich nur eine Signalverstärkung und da ist es in der Tat so, dass die modernen Sensoren weitgehend "isolos" sind, d.h. Aufhellen im Konverter den gleichen Effekt hat, wie die Einstellung der "Iso" in der Kamera. Canon ist nicht "isolos" und bei den bisher "isolosen" Sony-Sensoren wird inzwischen auf dual-gain gesetzt, d.h. ab einer gewissen Isostufe hat man einen Sprung und mit Vorteile wenn man die Iso entsprechend hoch dreht. Die Auswirkungen auf jpg und bei DSLMs aufs Vorschaubild wurden schon angesprochen
 
Die Frage ist halt eigentlich, wieviel Du von den Highlights ggü. den Infos in den Schatten bewahren willst. Denn dummerweise ist "digitale" Verstärkung nicht identisch mit analoger Verstärkung, zumindest nicht in der üblichen Trivial-Implementierung, wie sie z.B. bei Lightroom und vermutlich all den anderen PP-Softwareapplikationen so zu finden ist.

Denn: Wenn ich digital einen Wert z.B. mit 16 multipliziere (= 4 Blenden, vereinfacht gesehen), dann ist das so, als ob ich dort 4 Bit mit einer 0 drin an den Wert hinten ranpacke. Bei analoger Verstärkung und dann Digitalisierung sind diese unteren 4 Bit aber mit Rauschen gefüllt. Das mag aus Sichtweise des "SNR" oder "DR"-Wertes her keinen Unterschied machen, fällt einem aber bei Berechnungen/Post-Processing u.U. auf die Füße, weil diese Bits, selbst wenn es scheinbar "nur" Rauschen ist, doch auch Information darstellen. Soll heißen, man kann Beispiele finden, in denen dieser Unterschied sichtbar wird.

Natürlich besteht die Möglichkeit, die Bilddaten "untenrum" mit künstlichem Rauschen aufzufüllen (Dithering). Das resultiert dann zwar immer noch in meßbaren Unterschieden, aber sichtbar dürften die dann nicht mehr sein.

Der andere Punkt, der gerne mal ignoriert wird, ist das Ausgabemedium. Derzeit sind viele Bildschirme mit 8 Bit pro Farbkanal aufgelöst. HDR verspricht 10 Bit pro Farbkanal. Soll heißen, Artefakte, die wir mit 8 Bit noch nicht sehen, können durchaus mit echten 10 Bit pro Farbkanal auf einmal sichtbar werden.

Von daher, wenn man gewisse Qualitätsansprüche hat, würde ich das Thema "ISO-less" mit Vorsicht genießen, bzw. "gilt nur innerhalb bestimmter Schranken".
 
Die Frage ist halt eigentlich, wieviel Du von den Highlights ggü. den Infos in den Schatten bewahren willst...

Da es bei Isoless Sensoren keinen unterschied macht ob du ISO 400 oder ISO 100 + 2EV machst im Raw stellt sich diese Frage eigentlich nicht. Bei nicht isoless Sensoren ggf. auch nicht, wenn das Ausgegebene Signal verstärkt wird., wie es häufig der Fall ist. Bei Isoless wird das Signale des Sensor ins Raw geschrieben und dann mit einem "mach mal 2ev heller" versehen. Bei non-isoless wird aber auch nicht der Sensor lichtemfpindlicher, sondern das Ausgangssignal durch eine Verstärkerschaltung geschoben, also statt zu multiplizieren wird hier noch mit einer Störanfälligen Schaltung das Signal verfälscht.

Denn: Wenn ich digital einen Wert z.B. mit 16 multipliziere (= 4 Blenden, vereinfacht gesehen), dann ist das so, als ob ich dort 4 Bit mit einer 0 drin an den Wert hinten ranpacke.

Das ist rechnerisch richtig, hat aber andere Auswirkungen...

Das mag aus Sichtweise des "SNR" oder "DR"-Wertes her keinen Unterschied machen, fällt einem aber bei Berechnungen/Post-Processing u.U. auf die Füße, weil diese Bits, selbst wenn es scheinbar "nur" Rauschen ist, doch auch Information darstellen. Soll heißen, man kann Beispiele finden, in denen dieser Unterschied sichtbar wird.

... man muss das anders herum betrachten: In dem Wert steckt die maximale Menge an Informationen die man bei der Belichtungszeit und Blende bekommen kann, so als würde man mit einem High-Iso Film fotografieren. Durch das Multiplizieren verschiebt man lediglich die Menge dieser Informationen ins Sichtbare. Die ersten 4 Bit sind dabei vollkommen uninteressant.

Beispielrechnung:
Ändere ich das LSB bei 24 Bit Farbtiefe, ändere ich den Wert um 5.9*10^-8 %.

Diesen Umstand macht sich Steganographie zu nutze und da werden Bilddaten mit geringerer Farbtiefe verwendet und trotzdem sieht man keine Artefakte, wenn man es nicht drauf anlegt.


Die "Trivial-Implementierung" machen genau das gleiche wie die nicht trivialen, nämlich einfach eine Shiftoperation. Alles ändere würde auch die Information verfälschen. Das kann man relativ easy herausfinden, wenn man sich die Werte nach dem anheben anschaut, da bekommt man gerne mal nur gerade Werte.

Alles Andere ist eine Wunschvorstellung davon wie die Lichtempfindlichkeit bei Sensoren funktioniert.
 
Ändere ich das LSB bei 24 Bit Farbtiefe, ändere ich den Wert um 5.9*10^-8 %.

Nein (einfaches Beispiel: du aenderst nur das LSB bei 0, oder du hast nur das 2.LSB gesetzt, oder ....). Uebrigens waeren es (1/2^24)*100%, also 5.9*10^(-6) %.
Genauer gesagt ist die _minimal_ moegliche Aenderung (in etwa) 1/2^24, die maximal moegliche relative Aenderung ist immer 'unendlich'.
 
Nein (einfaches Beispiel: du aenderst nur das LSB bei 0, oder du hast nur das 2.LSB gesetzt, oder ....). Uebrigens waeren es (1/2^24)*100%, also 5.9*10^(-6) %.
Genauer gesagt ist die _minimal_ moegliche Aenderung (in etwa) 1/2^24, die maximal moegliche relative Aenderung ist immer 'unendlich'.

Stimmt mein Fehler bei der Rechnung. Die Aussage bleibt aber gleich. Selbst bei Farbrauschen auf dunklem hintergrund habe ich deutlich sichtbare Punkte, wenn ich mir das dann in Werten anschaue sind die Änderungen im letzten Bit immer Größenordnungen kleiner als ein Promill. Je nach Sensor dürften die letzten bit nahezu zufällig sein (rauschen).

Allerdings gilt weiterhin: Alles was kleiner 0 ist, würde ich mit dem Sensor auf keine Art und Weise warnehmen, alles reingerechnete wäre dann kein Foto sondern generiert.
 
Lasst uns mal wieder von der Theorie zur Praxis kommen. Im von mir verlinkten Video sieht man, dass bei den verwendeten Kameras, die Erhöhung des Isowertes der bessere Weg ist. Daher: mit der eigenen Kamera testen!

Mal davon abgesehen: Es macht praktisch überhaupt keinen Sinn, immer unterzubelichten und dann im RAW-Konverter an der Belichtung zu drehen. Ich muss nämlich immer überlegen, ob ich im Reglerbereich des RAW-Konverters bin (Lightroom maximal +5). Auch wurde zurecht angeführt, dass ich ein zu dunkles Bild auf dem Kamerabildschirm schlecht beurteilen kann.

Vorteil: Man kann im M-Modus fotografieren und immer ISO 100, Blende 5.6 und 1/500s eingestellt lassen. :lol:

Ich persönlich bleibe bei meiner Variante, der „ausgeglichenen Belichtung“ out of cam.

Daniel
 
Mal davon abgesehen: Es macht praktisch überhaupt keinen Sinn, immer unterzubelichten und dann im RAW-Konverter an der Belichtung zu drehen. Ich muss nämlich immer überlegen, ob ich im Reglerbereich des RAW-Konverters bin (Lightroom maximal +5). Auch wurde zurecht angeführt, dass ich ein zu dunkles Bild auf dem Kamerabildschirm schlecht beurteilen kann.
l

So ist es. Ganz im Gegenteil macht es bei Isoless Sensoren sogar sehr viel Sinn immer korrekt zu belichten, weil man keinen Nachteil durch höhere ISO hat. Also lieber die Vorschau haben.
 
Hä? Wenn ich isolos fotografiere belichte ich unter, da braucht es keine Belichtungskorrektur - aber ja, man kann natürlich was falsch einstellen
 
... man muss das anders herum betrachten: In dem Wert steckt die maximale Menge an Informationen die man bei der Belichtungszeit und Blende bekommen kann, so als würde man mit einem High-Iso Film fotografieren. Durch das Multiplizieren verschiebt man lediglich die Menge dieser Informationen ins Sichtbare. Die ersten 4 Bit sind dabei vollkommen uninteressant.
Dumm nur, wenn man dadurch dann Posterization zu sehen bekommt. Das wäre mit Dithering nicht passiert :lol: Das kann einem auch in den Mitten oder teils sogar in den Lichtern über den Weg laufen, je nach Motiv und Bearbeitung (und originaler Bittiefe, µFT oder 1" ist für sowas z.B. deutlich anfälliger aufgrund der 12- Bit). Und ja, das sind alles Probleme, die hier und da durchaus in der Realität auftauchen.

Und höhere ISOs haben das Problem, daß man die Highlights damit wegschneidet, weswegen es bei einigen Situation Sinn ergibt, explizit unterzubelichten, wenn man mehr oder weniger von "ISO-less" ausgehen kann und Teile der Lichter erhalten möchte. Aber wie schon angedeutet und u.a. (in einer Form) auch in dem verlinkten Video gezeigt, funktioniert sowas eben auch nur innerhalb bestimmer Grenzen, muß man einen Kompromiß eingehen.
 
WERBUNG
Zurück
Oben Unten