Mnohem zajímavější jsou spelulace o Arrow Lake a jeho Rental Core jádrech ... aneb reverzní-SMT poprvé v CPU. Kanál MLID má některé docela zajímavé informace (většinou jejich zajímavost přesahuje znalosti redaktora).
Tento R-SMT má údajně na svědomí Jim Keller když pracoval v Intelu a ten započal vývoj rodiny jader v rámci tzv. Royal Core Project. Tzv. Rental Core se údajně umí spojovat pro výpočet jednoho vlákna a údajně v Arrow lake jen dvě-do-jednoho vlákna. V dalších generacích i do více? R-SMT je super věc, protože zvyšuje IPC narozdíl od dnešního SMT, které IPC vpodstatě snižuje na polovinu (někam k 60%, protože zase zvyšuje vytížení jednotek).
To je velmi zajímavá souvislost protože znalci CPU si jistě vzpomenou na původní Kellerův Hammer když pracoval poprvé v AMD. Ten totiž byl o Reverzním-SMT kdy se dvě fyzická CPU jádra uměla spojit do jednoho virtuálního vlákna pro vyšší IPC. Tento Hammer byl zrušen a Keller odešel poprvé z AMD. Kodové jméno Hammer pak bylo použito na evoluci K7, která neměla s Kellerovým projektem nic společného. Nicméně Kellera tato myšlenka na R-SMT evidentně nepustila a bude velmi zajímavé sledovat jak se s tím poprali v Intelu.
Je docela možné že FX Bulldozer měl původně navazovat na Kellerův Hammer a využívat R-SMT, kdy dvě poměrně slabá 2xALU se měla umět spojit do jednoho velkého 4xALU virtuálního. Ale protože to zprasily, tak Bulldozer byl nakonec 2xALU paskvil. Ono i ten sdílený front-end by tomu nasvědčoval (kde jinde dělat rozložení zátěže jednoho vlánka mezi dvě fyzická jádra než ve fron-endu že jo).
Našel jsem to!!!! Mám na mysli tuhle 22 let starou web stránkku, která tehdy popisovala Kellerův Hammer, resp. K8-1 a K8-2. To co tam popisuje je vpodstatě reverzní-SMT. Až teď jak MLID začal geglat o SMT naruby u Royal Core, tak jsem si na tuhle starou web stránku o údajně původním Kellerově Hammeru vzpoměl.
http://www.chip-architect.com/news/2001_10_02_Hammer_microarchitecture.html
To schéma CPU docela připomíná pozdější Bulldozer, akorát Hammer neměl sdílenou FPU a má jen jednu ALU (k8-1, ta silnější K8-2 asi byla potom BD). Každopádně to vypadá že ta stránka není fejk, ale opravdu to je původní patentovaný Hammer. A max délka patentů je 20 let. Takže Keller mohl všechny svoje patenty z AMD Hammeru využít pro vývoj Royal Core když byl v Intelu, protože už jsou všechny propadlé a volně dostupné.
Docela mne nakopla ta zmínka, že MLIDovi v alkoholovém opojení Keller odpověděl na otázku ohledně SMT: A proč to nezkusit naopak? (to Keller pracoval v Intelu). To jsem si vzpomněl na ten záhadný Hammer s RSMT a když jsem viděl znovu to schema tak mi došlo, že BD byl Kellerův Hammer kde se nepovedlo RSMT rozchodit. Tak záhada Bulldozeru nejspíš vyřešena. Je to sice těžká spekulace, ale konečně mi to logicky zapadá do sebe.
Ty krávo, svatý grál IPC .... reverzní SMT se možná fakt stane realitou.
to schéma skutečně hodně připomíná Bulldozer architekturu , ovšem se dvěma ALU na dvě vlákna to muselo být slaboučké jako Atom, i K7 má 3ALU/3AGU a BD 4ALU/4AGU. Velký problém toho reverzního SMT vidím právě v tom rozdělování a slučování jader, jakým způsobem a na základě čeho se bude rozhodovat, zda má procesor pracovat jako jedno silné jádro a nebo jako cluster více malých jader ? A jak se projeví měnící se latence mezi jádry a cache ? IMHO důvodem, proč BD nakonec tohle neuměl byla vysoká komplexita takového designu a netransparentní/nepředvídatelné chování takového CPU designu v různém workloadu...
10. 8. 2023, 21:47 editováno autorem komentáře
Jestli si dobře pamatuji, tak tam původně Hans de Vries měl jiný obrázek, který nepřipomínal BD, ale je možný že si to pletu s jinou stránkou. Ale je možný že se deVries snaží naznačit že BD byl vývojově postaven na Kellerově Hammeru.
Jo a důvod proč BD neměl Reverzní-SMT byl ten, že to původně byla Kellerova myšlenka a nikdo jinej v AMD neměl IQ a schopnosti ten R-SMT dotáhnout do funkčního stavu. To je tak když ve firmě zavládne socialistická myšlenka že nás mnogo a každý je nahraditelný. To se děje dnes a denně, lidi co někdy pracovali ve velkém korporátu určitě znají pojem "zazmrdování" firmy.
Technicky vzato není důvod proč by R-SMT u BD se dvěma 2xALU jádry měl být složitější než 4xALU jádro Zen + 2-way SMT. Vždyť výkonově je skoro stejné akorát Zen+SMT má jemnější granularitu. Ostatně Alpha EV8 právě využívala 4-way SMT aby nakrmila 8xALU backend, což bylo jako 4x splácnuté EV6 dohromady. Tehdejší primitivní OoO jádro nemělo šanci vytížit 8xALU a 4xFPU.
Naopak ten R-SMT na BD by měl být jednodušší a používat méně tranzistorů, protože skákal po 50% IPC a ty menší jádra mají menší OoO okno a tedy o hodně nižší spotřebu. Další výhoda R-SMT je že může kompletně power-gatovat nevyužívané Rental Core a tím hodně ušetřit spotřeby, což u SMT nejde.
Každopádně implementace R-SMT ani SMT není žádná sranda. Obojí vyžaduje velkou míru abstrakce u již tak pekelně složitého stroje jako OoO jádro je samo o sobě i bez SMT. Třeba AMD nebylo schopno nasadit SMT cca 13 let, v podstatě dokud se tam nevrátil Keller a bůh ví jestli bez něj by byli SMT schopni implementovat. Intel měl štěstí že mu spadla do klína EV8 se SMT4, takže měl jak inženýry tak i patenty, ale i tak první P4 s HT trpěli mizerným výkonem toho druhého vlákna a trvalo hromadu generací než to vylepšili. R-SMT bude podobně pekelně náročné na představivost/IQ. To zvládne jen pár lidí na světě a Chuck Norris.
Už jsem to psal minule, ale minimálně podle rychlého pohledu do Wikipedie Intel dostal z DECu ne divizi Alpha, ale Strongarm, takže tahle teorie s EV8 -> Netburst HT by potřebovala minimálně znovu zvážit...
(To ostatní nevím/neřeším... Myslím, že skutečnost je mnohem, mnohem složitější.)
11. 8. 2023, 22:33 editováno autorem komentáře
20s googlení -> dobový článek popisující že Compaq licencoval veškeré technologie a patenty Alphy Intelu. Takže Intel měl přístup k technologiím 4-way SMT EV8 minimálně od roku 2002.
https://www.cnet.com/tech/tech-industry/compaq-life-after-alpha/
Článek z 2001:
Shannon expects "there will be a lot of Alpha technology incorporated into (Intel's Itanium) designs." He speculates that Alpha's "glueless SMP" and EV8's SMT, or simultaneous multi-threading technologies, would make their way into future Itanium chips.
https://www.zdnet.com/article/compaq-the-last-days-of-alpha/
Patenty jsou něco úplně jiného než samotná implementace. Viz křížové licencování mezi Intelem a AMD. Teď z toho můžete vyvozovat, jak je Alder Lake vyvinuté AMD a Zen 4 Intelem.
Edit: Teď když jsem se na tom koukl, tak se tam mluví o tom, že Intel dostal licence na věci zděděné po DEC až od COmpaqu v roce 2002. Tím fakt chce argumentovat, když Hyper Threading byl (byť deaktivovaný) v Netburstu už od prvního Pentia 4 Willamette? Rok 2000.
Jinak mi teda přijde, že se tam s pojmem "Alpha licence" háže hodně vágně, protože se tam píše i
At the same time, Samsung, IBM and Advanced Micro Devices were granted licenses for the Alpha.
V roce 1998 jenom StrongARM - jak jsem předtím namítal:
Intel's involvement with Alpha goes back to the settlement of a patent lawsuit between Intel and Digital in 1998. As part of the settlement, Intel purchased Digital's StrongARM processor, along with the Hudson, Mass., manufacturing plant where the StrongARM--and the Alpha--were produced.
A co tak použít logiku? Alpha CPU byly nejvýkonnější procáky na světě, navíc byly čistě 64-bit RISC bez bagáže zpětné kompatibility, našlapané technologiemi (třeba AMD K7 měla FSB z EV6, K8 měla integrovaný RAM řadič po vzoru EV7 čímž zatopila těžce Intelu atd.), Alphy byly noční můra pro Intel a jeho Itanium. Takže Intel zcela určitě chtěl celou Alphu včetně jejich patentů. A to se podařilo, Alphu zrušil a patenty vytuneloval.
Na Realworldtechu je u Core2Duo architektury zmínka že právě zde byla využito Memory Disambiguation původně vyvinuté pro EV8. To je další důkaz že Intel těžce benefitoval z technologií Alphy. Navíc první opravdu kvalitní implementace SMT u Intelu byl až Nehalem z roku 2008. To by celkem odpovídalo času potřebnému na kompletní novou implementaci SMT podle Alphy EV8.
Willamette s jeho SMT mohlo mít implementaci od přeběhlých inženýrů z DEC, ještě před tím než Intel získal Alphu oficiálně. Když vezmu kolik věcí z Alphy implementovali do K7 a K8, tak bych se ani nedivil. Ale uznávám že P4 ještě nemohla mít SMT verzi postavenou na patentech Alphy EV8. Ikdyž teoreticky vývíjet si můžeš cokoliv i dle cizích patentů, jen to nemůžeš prodávat dokud nezískáš práva od majitele patentů. A tady je taková krásná náhoda, že Intel získal povolení využívat technologie Alphy zrovna v roce 2002, což je úplnou náhodou i rok kdy se objevil Hyper Threading u P4 Northwood :D
BTW: Je zajímavé že origo čipset AMD-751 pro K7 Athlony byl vyvinut ještě v DEC a byl používaný i pro Alpha CPU EV6 na deskách UP1000 a UP1100. Škoda že AMD nezačalo dělat CPU na 64-bit Alpha ISA, protože Alpha měla open licenci.
https://www.zx.net.nz/mirror/www.alasir.com/alpha/alpha_history.html
jak je ten svět krásně černobíly :-D aneb já si myslím, že to tak bylo, tak to tak je což ? .-) DEC Alpha =/= Pentium 4 , stejně jako Nvidia FX GPU =/= 3dfx GPU etc.
btw. první verze hyper threading nebyls zrovna nic extra, přínos byl malý a v mnoha úlohách docházelo naopak k degradaci výkonu a tak raději ve prospěch konzistetního výkonu to uživatelé vypínali v biosu
Byla, ale stejně jako ostatní RISCy té doby (SPARC, MIPS) dojela na neekonomičnost.
Tyhle RISC procesory pro servery a pracovní stanice měly malou uživatelskou základnu, která je nedokázala uživit. A jejich cena byla vysoká. Intel byl horší, ale mnohem levnější, takže je od příchodu Pentia Pro nevyhnutelně vytlačil z trhu.
Občas se traduje jak jako Intel odstavil Alphu zákulisníma machinacema (viz tady ty poznámky jak z ní měl strach), ale realita je taková, že SGI (MIPS), HP (PA-RISC) i ten DEC viděli, že mít vlastní RISC platformu prostě není finančně udržitelné a zcela správně odhadli, že v budoucnu to bude stát ještě víc peněz, zatímco ceny těch procesorů/serverů budou muset jít naopak dolů. Pokusy o penetraci pracovních stanic/PC selhaly (stejně by cenově konkurovat nedokázaly, tak to asi jinak dopadnout nemohlo), takže rozšířit si ekonomickou škálu pomocí PC jako Intel tyhle firmy nemohly. Proto firmy vzdaly své vlastní procesory zcela dz vlastního rozhodnutí z pochopitelných důvodů a věděly, co dělají. To Itanium od Intelu prostě chtěly jako náhradu.
Jinak teda Alpha má kolem sebe asi dost mýtů, ty CPU sice byly velmi výkonné a vedly nad Intelem, ale instrukční sada taky nebyla dokonalá (Linus Torvalds si pamatuju některá rozhodnutí označil za braindead, tuším například memory model byl problematický).
A zase třeba ten poslední extrémně ambiciózní procesor EV8 měl v sobě všechno možné léta před konkurencí - jenže taky nikdy nebyl realizovaný, kdyby ho dotáhli do konce, mohl jim klidně vyjít takový ten nevyvážený paskvil, kdy záměry byly moc velké na dostupnou výrobní technologii, takže by CPU skončil s mizernými takty a nekonkurenceschopným výkonem trošku jako iAXP 432...
Linus Torvalds rozumí vývoji CPU asi jako koza náklaďáku. Ten ještě nedávno tvrdil, že ARM nemá šanci x86 porazit a teď sám používá ARM MacBook. Ještě stojí za zmínku Torvaldsovo angažmá v Transmetě, což bylo totální fiasko.
Pokud kritizuje Alphu, tak samozřejmě jako student co dělal jádro Linuxu na x86 co používá primitivní Strong memory model, tak je jasné že nevěděl která bije když se setkal s moderním Weak memory modelem, kterej programátorovi/kompileru umožňuje dělat kouzla s Fencingem a tím pomáhat OoO v CPU která data se musí propsat do L3/RAM protože jsou sdílená s jinýmy procesory a která data jsou jen lokální dočasná data. Samozřejmě je to výkon na úkor pohodlí programátora. Mimochodem ARM taky používá moderní Weak memory model ala Alpha, takže bych byl velice opatrný na soudy typu brain-dead když to byla nejlepší ISA a měla nejvýkonnější CPU na světě.
Zvlášť když Torvaldsova Transmeta měla CPU s výkonem plesnivýho kedlubu a kritizuje Alphu jakožto nejlepší CPU na světě....... což samozřejmě zavání závistí. Jinými slovy Torvalds se má věnovat Linuxu a nemontovat se do CPU když tomu houby rozumí.
A srovnávat EV8 jakožto nástupce nejvýkonějšího EV7 na léty a výkony prověřené 64-bit RISC instrukční sadě Alpha .............. srovnávat to s totálním failem, nepovedenou ISA i432 a na ní nepovedeném CPU, který se ani masově nedostal do PC, výkon horší než plesnivá Transmeta, TVL jak takovou krávovinu můžeš proboha napsat????? Jako redaktor! Si vytvoř druhý účet a pod ním šiř ty svoje nesmysly. Chudáci děcka/mladí kteří těm tvým krávovinám uvěří.
Napadlo vás, že Linus Torvalds bude vědět docela dost o tom, jak se konkrétní architektura a ISA chová, protože kernel Linuxu s tím hardwarem přímo pracuje (a Alpha samozřejmě měla port Linuxu). Určitě tomu nerozumí stoprocentně a nejlíp ze všech (myslím že jsem tu psal, že mi přijde že podceňuje SIMD - ale to je můj dojem no...).
Ale určitě dám přednost jeho názorům nebo hodnocení před jistýma internetovýma expertama, co jsou absolutně přesvědčení, že ví všechno...
Edit: Jinak moje formulace asi byla matoucí, ale zatímco memory model byl podle něj u Alphy problematický, tak to "brain-dead" myslím bylo něco jiného. Ale nevzpomenu si, co a nejde mi to rychle vygooglit. Přímo té ostré formulace není moc třeba přikládat význam, protože Torvalds používá takový termíny pořád, ale prostě - ta ISA podle něho určitě ideální a nejlepší na světě nebyla.
Našel jsem třeba tohle pro ilustraci. https://www.realworldtech.com/forum/?threadid=185109&curpostid=185247 https://www.realworldtech.com/forum/?threadid=144991&curpostid=145292
A jinak myslím že dám na pár dní ban za ten přístup. Ani ne tak ke mě, ale co nemám rád, když je někdo schopný věci, které fakt jasné nejsou, suverénně tlačit jako fakta a tvářit se přitom jako největší autorita + pak se o tom hádat ( = mařit čas těm, co na to začnou reagovat...)
Ne ne, můj svět je naopak barevný a plný spekulací a různých možností :D Einstein tvrdil že představivost je důležitější než vzdělání. Ostatně představivost není nic jiného než IQ.
Jinak já jsem nikdy netvdil že P4=Alpha, chraň bůh porušit desatero elektronické bible (nezdegraduješ z 64-bit na 32-bit, nebo nezdegeneruješ z RISC na CISC). Nikdo nechce skončit v křemíkovém pekle, žejo. Jen tvrdím, že stejně jako K7 dostala FSB z Alphy EV6, nebo jako K8 Athlon dostal integrovaný mem řadič po vzoru EV7 (díky přeběhlým inženýrům z DEC), tak i P4 mohla dostat HT díky přeběhlým inženýrům z DECu/Alphy.
Ikdyž to že HT v P4 byl opravdu nepovedený spíš svědčí o tom, že to bylo dílo Genuine Intel :DDD
Z implementace VISC / Reverz-SMT v Arrow Lake mám docela strach. Aby to nebyl konec CPU divize Intelu a z Intelu se nestal výrobce GPU :DDDD
Je otázka, jestli to Hans De Vries dobře interpretoval. Chtělo by to zkontrolovat přímo v těch patentech (které se ale nečtou zrovna moc dobře). Nezdá se, že by tohle od něj někdo později převzal.
V době Bulldozeru se tyhle staré informace a svědectví třeba Andy Glewa znovu dost probíraly, ale tohle tam už nebylo, i když je pravda, že tehdy se hlavně probíraly zrušené projekty mezi K8 a Bulldozerem. V roce 2006 se amd "reverse hyper threading" objevil, ale jenom jako apríl/kachna.
Čistě jenom patenty neznamenají, že to byla součást chystané (i když zrušené) architektury, protože patentují se i koncepty, které se jenom analyzovaly, ale nepoužily.
10. 8. 2023, 21:57 editováno autorem komentáře
P.S. Jinak si ale myslím, že tady by spíš měla být linie mezi těma Rentable Units a "reverzním SMT", kdy se víc jader spojí na výpočet jednoho vlákna, ne s touhle dalekou minulostí, ale s konceptem VISC od Soft Machines, který měl dělat přesně tohle. Intel Soft Machines koupil, ale zatím se neobjevily nějaké plody té investice. Pokud je to teda vůbec pravda, což těžko říct. Viz: https://www.cnews.cz/clanky/soft-machines-predstavuje-procesory-visc-slibuje-jednovlaknovy-vykon-z-rise-snu/
Jinak důvod proč jsem to zatím tady nepokrýval je, že u MLID je přece jenom občas dost nejistota se správností (všichni si asi budou pamatovat případ údajného IPC u Zenu 4). Tady zrovna nevím, jestli to nebude šlápnutí vedle.
Ten VISC je jinak nazvaný Reverzní SMT, protože princip je stejný. Je to prostě o exploitaci ILP nad rámec co může vidět omezené okno OoO Reorder Bufferu. Akorát R-SMT to dělá HW prostředky v CPU a ten VISC se o to snaží SW cestou zkze instrukční sadu.
Ten VISC se mi zamlouvá víc, protože kompilátor má víc času na analýzu kódu a tedy vidí ILP dál než OoO. Jenže špatně provedený VISC může dopadnout jak VLIW Itanium, kdy SW může sice poskytnout hint na části kodu které se dají provést na jiném jádře/vlákně, ale samotné rozhodnutí musí záležet na CPU (dle aktuálních latencí a dostupných HW prostředků, a v tomto právě Itanium selhalo), takže R-SMT je zase sázka na jistoru. I tu sázku na jistotu u AMD zvorali.
ROB v té době byl od 40 entry u PIII až po monstrózních 72 entry u K7 (dnešní Golden Cove má 512 a M2 má 630), takže R-SMT v CPU byl tehdy vlastně docela "nízko vysící ovoce".
Další důvod proč byl Kellerův Hammer a R-SMT v 1998 velká věc byla neexistence SIMD vektorů (MMX byla parodie na vektory, první 128-bit SIMD vektory SSE se objevily s PIII v 1999). Takže v SW kodu byly hromady FOR smyček ať už pro INT tak pro FP výpočty. Navíc byly pouze 1-jádrové CPU, takže ani na vlákna se tehdy asi moc nehrálo. Tudíž R-SMT měl podle mne super vyhlídky.
Z dnešního pohledu 600-entry ROB procesorů s ultra-wide výpočetním backendem až 8+3 ALU, plus široké SIMD vektory, si myslím že většina funkcionality Kellerova Hammeru byla dávno pohlcena současnými obřími CPU.
Důležitá je otázka efektivity. Tohle Long-distance hintování kodu pro extrakci ILP přes speciální VISC instrukce může dosáhnout daleko vyššího IPC spřažením několika normálních CPU jáder a ve výsledku být daleko efektivnější než jedno obří monstr jádro od Applu.
Dále je možné že to nové rošíření x86 APX může obsahovat právě VISC instrukce pro podporu R-SMT a Rental Core u budoucích Intel CPU. To by byl dobrej vyjeb s AMD, kterýmu by trvalo 6-7 let tohle implementovat.
A nebo to bude druhý Bulldozer, tentokrát od Intelu jakožto Kellerova pomsta Intelu za zničení DEC Alphy :DDDD
"R-SMT je super věc, protože zvyšuje IPC "
To je dost zavádějící tvrzení.
IPC to zvyšuje, ale proti jakému základu?
Proti 2×ALU to IPC zvedne protože rázem bude mít CPU 4×ALU
Ale proti CPU s 6×ALU to bude krok zpět.
Navíc sám Jim Keller popřel že by v intelu pracoval na nové architektuře.
Předpokládám že pracoval ale s tímhle paskvilem nechce mít nic společného.
Je to zase jen bouda na zákazníka.
CPU postavené tak aby v testech ST i MT mělo slušný výkon. V praxi to bude padat na hubu stejně jak big.LITTLE.
PS
Přes Vaše velké znalosti. (Dost možná větší než moje) Vás prosím: Nepoužívejte jméno tohoto velikána.
Spíš jde o to, spřáhnout dvě současné Intel Golden Cove 5xALU jádra do jednoho 10xALU virtuálního vlákna s dvojnásobným IPC. Tím by opravdu mohli dohnat a překonat i takové monstr jádro jako je Apple M2 (o 50% vyšší IPC jak GC). Tedy pokud se jim ten R-SMT podaří rozchodit a nedopadnou jako AMD s Bulldozerem.
Proč myslíš že Intel Kellera jakožto slavného CPU architekta zaměstnal? Aby jim vařil čaj? Nebo aby tam dělal manažera co nemá na nic vliv? Podobné nesmysly šíří bratrstvo DDiit pracky o Kellerově pobytu v AMD. Hlavně nezapomínej na to, že Keller už má vyděláno tolik prachů, že pracuje jen pro radost a tudíž by žádnou nabídku kde by nebyl vývoj nějakého převratného CPU ani nevzal.
A nevykej mi prosím. Ucta a respekt se má vyjadřovat především tím jak se vyjadřuješ a chováš k druhým, tak jako v anglicky mluvících zemích.
jenže tím spřáhnutím by nic nezískali, už jen z podstaty x86 nelze ty instrukce paralelizovat donekonečna, proto už dávno nemáme CPU s např 20 ALU jelikož ty jednotky by byly nevyužité a jen by spotřebovávaly tranzistory a energii bez reálného benefitu.
Druhá věc je taková, že jakkoliv všechny ty revoluční návrhy zní senzačně na papíře, DEC Alpha, Reverzní SMT, nebo 8way hyperthreading, CMT, pravda je taková, že velké firmy jako Intel/AMD/Nvidia i ten Apple jsou poměrně konzervativní a bojí se zbytečně riskovat, Vedení raději zvolí konzervativnější návrh než riskovat případné fiasko nebo problémy s něčím příliš radikálním, což je i důvodem, proč takováto řešení už dávno nevidíme ve svých PC. Ani ARM nemůže počet těch exekučních jednotek navýšovat donekonečna, protože i tam existují limity té arch.
U Intelu je to možná sázka na jednu kartu, která může ale taky nemusí vyjít a mohl by to být i konec Intelu tak jak jej známe dnes. Tyto projekty jsou technicky hodně zajímavé, ale riziko je hodně vysoké a jsem docela zvědavý co se z toho v reálu vyklube, je možné že nakonec to řešení bude o hodně zjednodušené a přínos nebude až tak signifikantní (podobně jako u Bulldozeru)
firmy jako Intel/AMD/Nvidia i ten Apple jsou poměrně konzervativní a bojí se zbytečně riskovat, Vedení raději zvolí konzervativnější návrh než riskovat případné fiasko nebo problémy s něčím příliš radikálním, což je i důvodem, proč takováto řešení už dávno nevidíme ve svých PC
To možná taky často, ale IMHO hodně podobných případů není ve skutečnosti konezrvativismus, tak to jenom vypadá. Ve skutečnosti ty různé divočiny studujou a zkoumají, ale přijdou při tom na nevýhody, tj. zjistí že to vypadá dobře, ale je to slepá ulička.
To se může stát hrozně lehce - třeba zjistí, že simulovaná implementace má třeba o 50 % lepší IPC... ale o 70% horší dosažené takty. Nebo o 70 % horší spotřebu: Takže nový nápad je v praxi horší než starý, a je tedy opuštěn.
To, co pak vidíme u jádra Applu, AMD, Intelu, může vypadat jakoby nudně, že tam nejsou nové věci, nejsou tam neotřelé, "zajímavé" věci, ale on to prostě může být výsledek evoluce, který má prostě takové rysy, které dávají smysl i v praxi a nejen teoreticky (ve smyslu než se to pořádně vyzkouší a zjistí se všechny možné předtím netušené souvislosti) a navíc to musí být nějaké ekvilibrium vyhovující spoustě vnějších faktorů (nejen výkon, spotřeba, ale i cena, bezpečnostní faktory, rychlost návrhu/validace... i bléfuj kompatibilita s 40 let starým softwarem má nějakou hodnotu, kterou je třeba zohlednit).
11. 8. 2023, 18:05 editováno autorem komentáře