No, jenže když je ten potřebnej výkon v jednu chvíli příliš vysokej, tak už pak nestačí jenom optimalizace ve smyslu "napišme to chytřeji", které nemění výsledek. Při zrychlování takových náročných filtrů (nebo třeba enkodérů videa) prakticky vždycky jde o to, přiblížit se co nejvíc tomu výsledku, zatímco se co nejvíc zlepší výkon, ne zachovat 1:1 ten původní výsledek a zlepšti výkon tak jak to jde pod touto podmínkou. Protože na tom špičkovém/ideálním výsledku se většinou podílejí i věci, které mají příliš velkou náročnost. Pokud ten research model byl dělaný na to, aby byl co nejlepší, tak tam nejspíš bude rozdíl mnoha řádů ve výkonu (= náročnosti) proti něčemu, co běží realtime.
Kdyby ne, tak to znamená, že ten research model má rezervy a mohlo se v něm zajít dál...
Jako tohle neříkám jako jistotu, je to jenom můj odhad na základě toho, jak to tak nějak vypadá a nějakých zkušeností. Mylsím, že je prostě pravděpodobnější, že to bude ta aproximace, nebo možná lépe řečeno port, kde nějaké vlastnosti bude převedené, někde se sníží komplexita (počet neuronů), některé prvky se třeba budou muset vynechat. A můžu se v tomhle plést, ale jako je to realističtější, než že by to na Turingu běhalo bez zásadnějších funkčních změn.