Die Frage ist halt eigentlich, wieviel Du von den Highlights ggü. den Infos in den Schatten bewahren willst. Denn dummerweise ist "digitale" Verstärkung nicht identisch mit analoger Verstärkung, zumindest nicht in der üblichen Trivial-Implementierung, wie sie z.B. bei Lightroom und vermutlich all den anderen PP-Softwareapplikationen so zu finden ist.
Denn: Wenn ich digital einen Wert z.B. mit 16 multipliziere (= 4 Blenden, vereinfacht gesehen), dann ist das so, als ob ich dort 4 Bit mit einer 0 drin an den Wert hinten ranpacke. Bei analoger Verstärkung und dann Digitalisierung sind diese unteren 4 Bit aber mit Rauschen gefüllt. Das mag aus Sichtweise des "SNR" oder "DR"-Wertes her keinen Unterschied machen, fällt einem aber bei Berechnungen/Post-Processing u.U. auf die Füße, weil diese Bits, selbst wenn es scheinbar "nur" Rauschen ist, doch auch Information darstellen. Soll heißen, man kann Beispiele finden, in denen dieser Unterschied sichtbar wird.
Natürlich besteht die Möglichkeit, die Bilddaten "untenrum" mit künstlichem Rauschen aufzufüllen (Dithering). Das resultiert dann zwar immer noch in meßbaren Unterschieden, aber sichtbar dürften die dann nicht mehr sein.
Der andere Punkt, der gerne mal ignoriert wird, ist das Ausgabemedium. Derzeit sind viele Bildschirme mit 8 Bit pro Farbkanal aufgelöst. HDR verspricht 10 Bit pro Farbkanal. Soll heißen, Artefakte, die wir mit 8 Bit noch nicht sehen, können durchaus mit echten 10 Bit pro Farbkanal auf einmal sichtbar werden.
Von daher, wenn man gewisse Qualitätsansprüche hat, würde ich das Thema "ISO-less" mit Vorsicht genießen, bzw. "gilt nur innerhalb bestimmter Schranken".