A já bych přidal ještě jeden aspekt co se výsledného výkonu týká. RISC má omezenou instrukční sadu, takže reálný kód potřebuje pro stejný algoritmus více instrukcí. Je to samozřejmě závislé od typu úloh, standardní servírování dat po sběrnicích se takto neprojeví, ale složitější výpočetní úkoly už ano.
Je samozřejmě také fakt, že dnešní x86 CPU jsou "skoro také" RISC (ono to není tak úplně jednoduché, ale pro zjednodušení bych to takto napsal, viz níže,) takže se to může jevit jako planý argument, navíc když naopak i RISCy dostávají VLIW instrukce a bloky křemíku s podporou pro specializované funkce. Nicméně v případě obstarožního a v podstatě mrtvého MIPSu to asi nebude ten případ (a pokud ano, jsem zvědavý, jak moc nekompatibilní se svou vlastní platformou bude)
Hodně dobré čtení:
https://www.extremetech.com/computing/323245-risc-vs-cisc-why-its-the-wrong-lens-to-compare-modern-x86-arm-cpus
Porovnavat ted vykon u cinskych cpu je holy nesmysl.
Co by se melo porovnavat, je spis rychlost s jakou se posunuji mezi generacemi a narust vykonu mezi nimi.
Vime, ze 7nm byla prvni meta, tam jsou. 3GHz je druha meta, a optimalizace instrukcni sady bezi temer paralelne.
Chcete-li srovnavat, tak se zacatky firem jako intel, kdyby se ovsem nemusely zabyvat financni strankou veci a lidskymi zdroji. Udelejte si graf, a zkuste si tipnout, kdy srovnaji krok.
Proc by meli resit nejaky zapadni software na nehotovym CPU/instrukcni sade/, mi zcela unika. Tam ted staci podpora linux (pro servery i workstation), a az se instrukcni sada relativne zastabilizuje, pak ma realne cenu zacit s "rosetou".
Pri lidskych zdrojich, ktere maji, ten sw bude asi nejmensi problem.
Jenže kdyby K12 nezrušili, tak by dnes možná žádné AMD už nebylo... když se koukneš, jak tehdy doslova domrtě vytěžili grafiky, tak si říkáš, že nepřijít tak úspěšný Zen, tak už tu nejsou. Chápu Kellera, zrušili mu jeho dítko, kterému nejspíše věřil nejvíce, ale finanční realita byla daleko děsivější.
Ono to označení IPC je v tomhle zavádějící, sice ta zkratka znamená instructions per cycle, ale dneska to všichni používají ve smyslu "Performance Per Cycle". Holt zase jeden z případů, kdy doslovný výklad termínu je zavádějící a konvence ten pojem předefinovala.
Tady je to snad v tom smyslu, protože by to mělo být založené na tom, jaké to CPU má mít výsledky ve SPEC 2006 (pokud jim ten plán/predikce vyjde...). Tudíž tím, že třeba LoongArch/notMIPS potřebuje na stejný kód víc instrukcí, by to snad být ovlivněné nemělo.
Architektura chipů je přece jenom něco jiného než obchodní a ekonomické řízení. To že je AMD nyní tam kde je je hlavně tomu, že správně rozchodilo společnost a vytáhlo ji z té malosti ve které byla. To jakou architekturu zvolilo je tak trochu jedno. Tímhle svým vývojem dokázali, že vsadili na správného koně a zvolili správnou cestu.
Když taky přidaná hodnota u ARMu je minimální, omezuje se v podstatě jen na integrovanou GPU, a to ještě jen v některých případech, jinak to sekají jak Baťa cvičky na základě vzorového deisgnu od ARMu (čestná výjimka je Apple, ale ten má celý svůj uzavřený ekosystém, takže jako by vlastně ani nebyl). A v tomto rozpoložení tak nějak nevidím důvod ani příležitost pro jakékoli vyvíjení vlastního řešení a nějaké přidané hodnoty, zejména u AMD, které i tak mělo svých problémů dost. Navíc je tu otázka jak by trh takové řešení přijal a jestli náhodou zrovna naopak nechce levnou nevybočující konfekci? A s tím se pojí další věc, pohled na vývojáře "vlastních" řešení - kdo dnes používá vlastní jádra? Mám dojem, že všichni jsou na Cortexech od ARMu, a tedy přechod na monopolní platformu ARMu by nepřineslo vůbec nic.
edit: btw x86 rozhodně není duopol, existují i další držitelé licencí a IP práv. (bývalá VIA, ...)