Also an schierer Rechenleistung und Durchsatz dürfte ein einzelner DIGIC8 wohl eh nicht zwingend "schlechter" als 2 DIGIC 6 sein...grade wenn man bedenkt das der in der in der M6 II 14FPS@32MPix mit vollem AF/AE an Durchsatz erreicht.
Das sind immerhin ~448MPix/s für die Full RAWs oder 540MPix/s für den 30FPS AF/AE gelockten RAW Stream(!)
Da scheint die 90D mit den vergleichsweise behäbigen ~320MPix/s ja eh eine recht gesunde Marge zu haben und der DIGIC8 sich eher zu langweilen.
Die 7DII mit dem DualDIGIC6 kommt da in Summe auf ~200MPix/s
Ein einzelner DIGIC6 in der 80D auf 168MPix/s
Selbst die 1DxII mit dem Dual DIGIC 6+ bringt es ja "nur" auf einen Durchsatz von 280MPix/s.
Und eine 5DIV mit einzelnem DIGIC6+ und iTR auf 210MPix/s.
Jetzt kann man natürlich echt nur wild spekulieren, wie viel Leistung bzw. Zykluszeit die AF/AE Algos etc. da abzwacken.
Zumal bei dem ganzen ja wie gesagt mehr als nur die pure Rechenleistung mit reinspielt, sondern die ganze Architektur am Ende entscheidet.
Der DIGIC 8 mit dem neuen 32MPix scheint jedenfalls deutlich mehr zu leisten, als die mit dem alten 24MPix.
Aber mal so gesagt: wenn da ein hochauflösenderer Beli mit verbessertem iTR drin ist...sollte es am DSP und der Rechenleistung wohl eher nicht scheitern.
DualDIGIC hin oder her....das halte ich eh für ein absolut nichtssagende Eigenschaft und erlaubt wenn überhaupt max. Rückschlüsse innerhalb der Gen...
Gibt es dazu richtige, reproduzierbar ermittelte Messwerte? Also ohne Glaubometer im Versuchsaufbau? Und wenn ja - wo?
Bislang ist das eh ein Äpfel/Birnen vergleich, weil das iTR hier sowieso jedes Ergebnis verfälscht!
Außer man macht beides aus (also iTR und Farbtracking)...ist aber auch irgendwie nicht Sinn der Sache.