Es geht bei der Verwendung eines großen Arbeitsfarbraumes eben nicht nur um den größeren darstellbaren Farbraum weil man in der EBV nicht nur kleinere Korrekturen vornimmt, man ändert ja nicht nur etwas die Helligkeit oder den Farbwert ein wenig. Es geht beim großen Arbeitsfarbraum eher darum, dass man auch komplexere Berechnungen mit den Bildern durchführen kann ohne dass man an dabei die Grenzen des Farbraumes gelangt.
Diese Vorgänge hat man etwa, wenn man manuell eine Frequenztrennung macht. Hier benutzt man mehrere Ebenen. Eine Ebene bekommt man, indem man einfach einen Weichzeichner auf eine Kopie des Originals anwendet, z.B. einen gaußschen Weichzeichner oder (in PS) den besseren "Matter machen" Filter. Das Resultat ist je nach Einstellung des Filters ein Bild, das kaum bis keine Kontrast- sondern nur noch Farbinformationen hat. Für die zweite Ebene muss man aber zum einen die Kopie des Originals mit der soeben weichgezeichneten Ebene passend skaliert invers addieren, zum anderen muss man das Resultat dann noch mit der darunter liegenden weichgezeichneten Ebene noch mit dem passenden Licht (meist linear) mischen. Anschließend hat man als Resultat ein Bild, das aus einer Ebene mit Farb- und einer Ebene mit Struktur-Informationen besteht. Und indem man z.B. die Strukturinformationen verstärkt kann man im Bild die Mikrokontraste erhöhen, das Bild wirkt "schärfer". Eine ähnliche Bildverrechnung passiert (allerdings unter der Haube..) wenn man z.B. in LR oder ACR mit dem Schärferegler spielt). Und ähnliche Bild- und Kanalberechnungen in Form mathematischer Berechnungen kann man noch in anderer Weise einsetzen bei der Bildbearbeitung.
Das ist also eben keine WYSISWG-Bearbeitung um die es hier geht, hier werden Pixel- bzw. Farbwerte mathematisch transformiert und miteinander verrechnet ohne dass man da wirklich alles sieht. Und wenn man hier in 16-bit und mit ProPhotoRGB arbeitet, dann arbeitet man eben nicht am Rand eines Farbraumes, sondern eigentlich nur in einem kleinen Bereich in der Mitte, man hat außen herum viel Spielraum. Somit kommt man eben nicht dazu, dass irgendwo bei den internen Berechnungen die Grenzen des Farbraumes erreicht werden, was zum "Abscheiden" von Informationen führen würde. Und 16-bit Bilder sind auch fein genug abgestuft und haben auch ausreichend mögliche Farbwerte um nur mit einem Teil des möglichen Farbraumes zu arbeiten.
Die Endbearbeitung nebenbei kann man dann mit Softproofs machen bzw. wenn man sein Bild am Ende dann in sRGB oder AdobeRGB umrechnet und einen Monitor hat, der z.B. 99% AdobeRGB darstellen kann, dann sieht man ja wie das Bild am Ende raus kommt.