Ich kann verstehen, dass die Gleichsetzung von Bit und Blende irgendwie attraktiv erscheint (ist ja alles irgendwie was mit Basis 2 ) , falsch ist sie trotzdem!
Der Gedanke dahinter ist ja immer folgender:
1. beim Bild ist ein "doppelter Wert doppelt so hell", per Definition der Video-Ansteuerung (D/A-Wandler in Grafikkarte + Monitor). Das ist zwar schon als Grundlage falsch, wenn ein Gamma von 2,2 eingestellt ist, aber das kann man ja einfach mal wegignorieren
2. wird dann einfach gerechnet: "wenn 128 doppelt so hell ist wie 64, dann ist quasi b10000000 doppelt so hell wie b01000000, jedes "Bit" bringt somit gemäss 2^n eben doppelte Helligkeit"
3. und jetzt kommt der Fehler: "das entspricht dann also einer fotografischen Blenden(stufe)".
Und 3. ist eine zwar theoretisch "haltbare", praktisch jedoch völlig wertlose Aussage, weil die "fotografische Blendenstufe" in einem rein digitalen (nicht sichtbaren/angezeigten Bild) eigentlich keine Bedeutung hat.
Weil in die eine Richtung (bis hin zur physikalischen Blende) noch RAW-Entwickler, Tonwertkurve, und Sensorphysik kommen, und in die andere Richtung (bis hin zum wieder sichtbaren Bild) eben noch LUT von Grafikkarte und TFT, die Physik der Kathodenstrahlröhre und des Leuchtmediums, Papier und Reflektionsfähigkeit, und so weiter kommen.
Da der Begriff der "fotografischen Blende" beim Digitalbild eigentlich nichts zu suchen hat, von vielen aber erstens verwendet, und dann fatalerweise gleich noch zweitens in der Bedeutung gleichgesetzt wird mit "dem, was die Kamera in Tiefen und Lichtern an "Auflösung" resp. "Zeichnung" zu liefern vermag", entsteht diese völlige Verwirrung.
Da das Internet den Wikipedia-Artikel leider nicht vergessen wird, bleibt nix anderes als eine fundierte Gegenthese aufzustellen.