jo59 hat in sofern recht, dass die volle Sensoraufloesung am Port zwischen Sensor und Chip anfaellt

.
Das ist aber irrelevant, denn die DIGIT's der 5D/7D/550D sind ja auch schon in der Lage das auf 1920*1080 herunterzubrechen

.
Was die Prozessoren auch machen ist das ganze in RGB imzuwandeln, ein Schritt der bei RAW Video natuerlich sinnfrei ist, denn dieser Schritt soll ja nachher am Computer mit eigenen Einstellungen selber gemacht werden

.
D.h. nach dem verkleinern der Aufloesung auf 1920*1080 im DIGIT-Chip (was die Modelle 5D/7D/550D ja alle schon machen) wird diese Datenmenge (
http://www.wolframalpha.com/input/?i=%28%281920*1080*14bit%29%2F%288bit*1024^2%29*30%29MB+per+second) an die CF-Schnittstelle weitergegeben.
Zum Funktionsprinzip eines CMOS- Sensors:
Laut Wikipedia, wird jeder pixel seperat verstaerkt und an den Sensor angebunden (ich denke hier werden pixel gruppiert da man sicher nicht 18.000.000 (fuer 18MP) Pipes nuetzen will).
D.h. wenn der Sensor ausliest kann er einfach die Gruppen einlesen die erbraucht, sie runterscalieren (2x DIGIT IV sollten genung Power haben) und dann abspeichern (also so wie sRAW und mRAW funktioniert --> also v(ideo)RAW

)
Quelle:
http://de.wikipedia.org/wiki/CMOS-Sensor
Und ich denke diese Datenmenge ist durchaus zu speichern und damit waere VideoRAW machbar.
Sollte sie auch noch leicht komprimiert werden koennte man das Raw- Video wahrscheilich auch noch an einem i7 Computer fluessig bearbeiten/konvertieren.
Ein anderen Vorteil von RAW- Video sehe ich gerade noch: All' diese Filter zur Entrauschung, Farbveraenderung, Schaerfe, etc. arbeiten viel verlustfreier

.