Jj, dobrý, ale ten predecoding L1i dekoduje 10 instrukcí / clock, jak? Má úplně stejný problém s polynomickou explozí. A nepoužívá se to už nejspíš proto, že predecoding neumí detekovat JMP, predikovat jejich pravděpodobnost a tedy odhadovat co se opravdu bude vykonávat a co je jen jedna z miliardy funkcí v DLL knihovnách, které se stejně nikdy nepoužije, ikdyž tam někde je jeden nepravděpodobný IF.
Třeba Intel používal 2x 3 dekodér u Tremontu což indikuje, že dokáže sledovat obě větve pro danou podmíněnou JMP instrukci. Tento fígl určitě hodně pomůže, ale pomůže to i pro 10 instrukcí / clock? I pro 12 nebo 14 což tu bude za pár let? Šlo by sledovat třeba 4 nebo 8 různých větví naráz?
.
.
To vše nic nemění na tom, že ARMv8 žádné takové fígle nepotřebuje VŮBEC, protože je lépe navržen. Ani jeden tranzistor, ani jeden Watt, ani jeden den inženýra, ani jeden dolar investic nemusí padnout zbytečně na figle obcházení zastaralé CISC x86.
.
Proč asi ARM i Apple vydává CPU jádra každý rok jak na běžícím páse? Protože jejich vývoj a validace je jednodušší. Já osobně jsem zvědav jak dlouho x86 vydrží než chcípne, protože je to prostě nevyhnutelné.
.
.
Ikdyby x86 tento problém vyřešilo, což si myslím že je možné s nějakou novou chytrou revizí x86, ale k čemu by to bylo? Abychom prodloužili monopol x86 a předražených CPU z 30 let na 60? Velké IT firmy typu Amazon, MS a Google už toho mají dost a chtějí vlastní CPU, což jim licence x86 neumožňuje. ARM a RISC-V už teď dávno vyhráli, protože tam je mraky start upů, nových NexGenů, kteří nízkou cenou a velkou vzájemnou soutěží prostě cokoliv na uzavřené platformě převálcují. I ten ARM si bude muset na RISC-V dávat velkýho majzla až Keller začne dávat licence toho svýho našláplýho CPU za levno.