Letošní nový ARM Cortex X4 má 8xALU + 3xBranch = 11 int instrukcí/takt (a IPC o 33% vyšší jak Zen 4) :D
A hlavně má taky revoluční SVE2 vektory co umožňují mít až 2048-bit SIMD a tvorbu SW nezávislého na šířce SIMD v CPU.
V neposlední řadě je třeba dodat že X4 je čistě 64-bit kdy ani jeden jediný tranzistor není vyplýtván na 32-bit zpětnou kompatibilitu s ARMv7. Naopak všechny tranzistory pro MAX Performance!
Každý, kdo byl za poslední 3 měsíce na cnews už tuhle tvoji ARMáckou propagandu četl nejmíň 100x, tak si ji konečně strč kam slunce nesvítí a dej nám s tím pokoj. Pořád dokola, spam pod každým článkem, co se jen otře o x86, nikoho to ale nezajímá. Otravnějšího tro(t)la by jeden hledal marně.
Nalejme si čistého vína protože ani ten první bod nesplní, natož ty ostatní. A hlavně by AMD muselo být ve vývoji ještě lepší než ARM aby vykompenzovalo všechny nemoci staré x86 z roku 1978.
Zen 5 je prakticky mrtvý ještě před příchodem na trh (a Intel Meteor/Arrow Lake taky). V serverech je katastrofa jistá, v noteboocích má x86 ještě setrvačnost kvůli nákupům firem, ale jakmile velké korporáty začnou nakupovat hromadně ARM notebooky, tak to bude pro x86 konečná. Ale to bude tak za 2 roky. Mezitím Zen 5 může být jednookým králem mezi slepými (x86) . Užijte si to, protože poté nastane kolaps a definitivní konec x86.
Můžete tady hromadně plakat a bouchat pěstičkami, ale to je tak to jediné co s tím můžete dělat.
Fajn, tak jsi tu znovu vyzvrátil ten svůj propagační odpad. Píšeš, že x86 bude za dva roky mrtvé, tak si na ty dva roky zalez někam pod kámen a vylez až se tvoje proroctví naplní. A problém není, jestli máš pravdu, nebo ne, ale že tenhle jeden samý žvást tu opakuješ pod každým druhým článkem už třetí měsíc pořád dokola jak zaseknutý flašinet, všichni už to četli, tak nám s tím dej konečně pokoj. To samé platilo pro tu přiblblou armovskou Orange kravinu, cos tu tlačil měsíc předtím.
Očekávám že mi tu někdo napíše, že Zen 5 bude lepší než X4 protože za 1), za 2) za 3) atd.
Ale místo toho tu jen pláčeš, že nerad slyšíš tu krutou pravdu ve vývoji proceserů.
Mimochodem kdyby se tenhle web jmenoval www.x86news.cz tak bys plakal na správném hrobě a já bych tady neotravoval se srovnáváním s jinýma platformama ;-)
pointa je ta, ze to nikoho neaujima, lebo na tom nejde normalny windows s normalnymi aplikaciami. Kludne ten arm moze byt aj 200x vykonnejsi, kym nebudu aplikacie a OS, tak to nikto nekupi. OS by sme mali, staci ked MS povoli instalaciu mimo MS storu a programatori tie app naprogramuju. Takze na svateho Dindi...
Ale vždyť už 4 roky MS prodává Windows 10 pro ARM i se svým vlastním ARM procákem MS SQ1 (je to přeznačený 8-jádrový Snapdragon 8cx). Windows 11 jsou pro ARM taky.
A běží na tom všechny x86 hry a aplikace úplně normálně:
https://youtu.be/vOxOo_2Pzm4?t=43
A teď se ptej, proč o tom místní pokrývač neinformuje a dělá z vás stádo ovcí závislých na x86.
3. 8. 2023, 09:34 editováno autorem komentáře
Problém je v jedné věci - sice to funguje ale tato implementace nemá absolutně žádnou výhodu proti nativní x86, proto se placatí na okraji zájmu.
Ano, rozjezd ARMu v noteboocích je extrémně pomalý.
Ale to je tím, že zatím nikdo nedělá pořádný ARM CPU pro NTB. I ten MS používal 5 let staré jádro Cortex A76 s IPC jako Zen 2. Prostě neschopnost MS. To nic nemění na faktu že OS, gamesy a všechny aplikace už na ARMu klidně můžou běžet. Čeká se jen na pořádný HW.
Si představ že dnešní Cortex X4 má IPC vyšší o 100% (dvojnásobné) jak ta A76 a těchto jader tam může být až 14. To je masakr pokud tuhle specifikaci někdo začně dělat, to vydrtí i většinu desktopů.
Drobný problém ovšem je, že takové pracovní stanice s ARM procesory začínají na ceně $3250, za 32 jádrový procesor a 32GB DDR4:
https://www.tomshardware.com/news/ampere-64-core-arm-workstation-runs-windows
Takže jako konkurence pro AMD Threadriper, či EPYC by to bylo dobrý, ale kde koupím něco jako RYZEN 9 pro desktop? Zkouším hledat, a žádný ARM CPU, či ATX základní desku nenacházím.
Taky to nechápu. Nikdo nemá odvahu udělat nějaký univerzální socket, třeba open source, a udělat pro to ATX desku a ARM CPU.
To by bylo super mít zase Socket Super 7, kam by šlo dát jakýkoliv CPU od x86, přes ARM, PowerPC až po RISC-V.
Protože je to úplně nereálné. Procesory se liší potřebami napájení a konektiviou. Každý potřebuje velmi specifický firmware, který je dneska hodně komplexní. Zkrátka problémy obrovské, zatímco výhody... jaké přesně? (Pro koho by to bylo a jak moc lidí, kteří to "potřebují" je?)
Nejvíc, co by se dalo udělat, by byl standard modulu ve stylu EOMA68. Ale nejspíš by se to nedostalo o moc dál, než tenhle projekt. Rozhraní se vyvíjejí a tím pádem by zafixovaná sada vstupů a výstupů, kteoru tenhle nápad vyžaduje, asi byla brzdou a byla by omezující.
Socket 7 byl taky nereálnej?
- 5 různých výrobců: Intel, AMD, Cyrix, IDT Winchip, Rise iDragon
- 4 různí výrobci čipsetů: PCchips, Ali Aladin, Intel, VIA
Nikdo nic neblokoval, všechny procáky běželi se všemi různými chipsety. I později po zániku S7 to šlo, když VIA dělala procáky do Inteláckého socketu 370 což je další důkaz, že když se chce tak to jde.
Argumentovat EOMA68 kterej má trapných 68-pinů, které nestačí ani na 268-pinů na kanál DDR5, PCIe 16x má 168 pinů, aneb proč asi mají sockety přes 1000 pinů, že jo.
To jsou teda argumenty... Porovnejte si komplexitu toho systému dnes a před 25 lety. Tehdy byly skoro procesory schopné běžet v desce, která o nich nic nevěděla, dneska nemožné. Sofistikovanost řízení napájení byla naprosto jiná, nebo spíš nebyla - jumperema se natavilo fixně napětí na desce a nic víc se tam neřešilo.
Tehdy mělo CPU jediné rozhraní FSB. Ale už tehdy bylo jasné, jaké to má omezení. Nemohli třeba dát L2 cache na separátní bus pro lepší výkon, jako to mělo Pentium II...
Přijde mi to jako kdybyste tvrdil, že osmibit si přece člověk může postavit s pájkou na koleně, tak jaktože dneska člověk nemůže sám doma navrhnout a vyrobit funkční AM5 nebo LGA 1700 počítač. Socket 7 je dnes historicky blíž osmibitům než roku 2023, BTW.
"Argumentovat EOMA68 kterej má trapných 68-pinů" Zkuste si přečíst o co v tom postu šlo. Jinak byly i jiné pokusy to udělat, Intel měl vlastní, tohle je jediná cesta jak to udělat. Místo procesoru bude vyměnitelný modul CPU+paměť+napájecí obvody (+ čipset + nejspíš firmware, protože nebude moct jeden fimrware desky podporovat různé platformy, které by v těch modulech byly, pokud by jich skutečně byla diverzit a nejenom třeba dvě různé generace Intel). Ale to, že to nějak zafixuje výstupy a vstupy do tohohle subsystému, bude jak jsem psal vždycky trochu problém, protože nároky se mění.
6. 8. 2023, 18:38 editováno autorem komentáře
Podle Olšana Socket 7 neumožňoval L2 cache na CPU jako PII
.... a proto AMD K6-III pro Socket 7 měla on-die L2 cache :D
.... asi mu nedochází že socket na cache subsystém nemá žádný vliv :)
Podle Olšana je Socket 7 blíž 8-bitu
.....proto Socket 7 má 64-bit sběrnici FSB což odpovídá třeba 64-bit sběrnici pro DDR4
..... mě by zajímalo kterej osmibit má podle Olšana 64-bit sběrnici
..... když se dívam na pinout Z80 tak tam vidím max 16 pinů pro adresaci a 8-bit pro data = 24-bit
..... 321-pinů Socket 7 je opravdu ale opravdu daleko od 8-bitu, což ví každé malé děcko co si doma hraje s Arduinem.
Ohledně napájení:
.... kde je psáno že napájecí kaskáda musí být na základní desce? Napájecí kaskáda klidně může být u CPU, tak jak to mají všechny mobilní telefony a SBC. Jednak přes socket můžu valit vyšší napětí 12V nebo 5V a tedy přes socket potečou nižší proudy a budu mít nižší ztráty. Druhak napájecí kaskáda přímo u CPU bude chlazená stejným CPU chladičem, což je levnější a efektivnější řešení než přenášet 100A přes socket a řešit komunikaci s kaskádou.
.... ale tohle pochopí jen člověk co se vyzná v elektronice a ne v pokrývání že jo
".... kde je psáno že napájecí kaskáda musí být na základní desce? Napájecí kaskáda klidně může být u CPU, tak jak to mají všechny mobilní telefony a SBC."
No vždyť to píšu, o tom přece ten argument byl - místo procesoru v socketu by musel být větší modul, kde bude tohle. A cokoliv specifického, což bude víc věcí a skončíte s tím, že tam budou i paměti. Jako u toho EOMA, jako u těch Compute Elementů Intelu...
"Podle Olšana je Socket 7 blíž 8-bitu"
Hmm, problém s porozuměním textu? Tip: podívejte se na letopočty. Socket 7 přišel v roce 1995 (ale jeho specifikace z velké části vycházejí ještě z dřívějšího socketu 5). To je před 28 lety. Je samozřejmě otázka, jaký rok brát coby datum příchodu 8bitů, ale: C64/SPectrum: 1982 (13 let do socketu 7), TRS-80: 1977 (18 let do socketu 7). Takže víte co mi můžete :)
"Podle Olšana Socket 7 neumožňoval L2 cache na CPU jako PII"
To tam napsáno není, vy experte. Možná byste si to měl dostudovat. Pentium 2 mělo cache externě mimo hlavní čip. Proto se bavíme o tom, že byla na separátní sběrnici, tzv. backside busu v kontrastu k front side busu. Toto bylo nutné, protože v jednu dobu, která pokrývala Pentium II a první Athlony a Pentia III, nebylo úplně proveditelné integrovat větší kapacitu L2 cache do procesoru (v CPU ji měly jen Celerony, kde byla L2 cache malinká).
A až si ti pan expert nastuduje, tak zjistí (sarkasmus, měl by to už vědět, když je na socket 7 expert), že u socketu 7 nebylo tohle možné. Pouzdro procesoru nebylo dost velké na to, aby se tam L2 cache vešla. Třeba Pentium Pro bylo takhle řešené, mělo dva čipy v socketu a ne ve slotu, ale ten socket byl IIRC větší a také to asi bylo o dost dražší (důvody proč Intel pak přešel na sloty). Pročež u socket 7 procesorů byla L2 cache na desce - většinu času až do posledních fází jeho existence, o tom za chvíli.
Socket 7 byl pevně zadrátovaný tak, že prostě měl jen sběrnici FSB (front side bus) a procesor neměl žádnou jinou možnost, jak komunikovat. Takže přes ní komunikoval jak s pamětí, jejíž řadič byl v čipsetu venku, tak s cache, která také byla připojená přes čipset. Asi není třeba dodávat, že to limitovalo výkon, když cache, jejíž smysl je v tom, aby poskytovala větší propustnost a nižší latenci, než hlavní RAM, byla nakonec připojená přes stejnou sběrnici, navíc ne moc rychlou.
A to je, o čem byla vůbec řeč, než expert začal bazírovat na úplně nesouvisejících detailech - jednou dané limity socketu se rychle ukázaly být limitující a znemožňující další vývoj, pointa argumentu, proč není reálné, aby dneska mnoho různých CPU různých výrobců mělo společný socket. Že jsem se vůbec namáhal, stejně by to mělo být evidentní pro kohokoli, kdo se aktivně nebrání realitě...
Ale expert radši špičkuje s K6-3 a K6-2+. Ano, dalo se to obejít tak, že se L2 cache integrovala do procesoru jako na pozdějších Athlonech a Pentiích III. Jenže to bylo realizovatelné až na těch nejpozdějších procesorech K6 - revize K6-III a K6-2+. A teď domácí úloha pro experta. Podívejte se na aukro a zkuste si takový koupit. Zjistíte, že jsou řádově vzácnější a dražší než obyčejná K6ka. To proto, že to přišlo pozdě, bylo jich málo, tehdy to ještě bylo výrobně drahé.
Žádný další z těch ostatních výrobců procesorů pro socket 7 se do toho stádia ani nedostal. Takže reálně to bylo tak, že fixní specifikace socketu jejich procesory omezovaly tím, že zpomalovaly cache na desce, přesně jak jsem to říkal.
A mimochodem. Původní procesory Nexgen, z jejichž architektury AMD udělalo K6ku, měly separátní front side bus a druhou sběrnici zvlášť pro cache. Pokud by to u K6 bylo zachováno, měla by lepší výkon. Ale AMD z ekonomických a praktických důvodů procesory předělalo na socket 7, a to právě znamenalo, že L2 cache komunikovala přes FSB a byla pomalejší.
P.S. Celé tohle rozvinutí jsem nedal do původního komentáře proto, že je to dlouhatánské a týká se to minoritního případu, tak nějak jsem doufal, že mě za to nebudou "experti" chytat za slovo. (inb4 přednáška o S5/S7)
7. 8. 2023, 12:14 editováno autorem komentáře
Tak se pan pokrývač ztrapnil s 8-bitama... kde provedl odbočku od technického zdůvodnění kde byl vedle jak ta jedle, k datování. Hm, takže když Atmel vydá letos 2023 novou verzi 8-bit MCU tak je to podle tebe stejný level jako Zen 4 jo? No nepovídej :D
A není ten 8-bit Z80 z Didaktika vlastně high-tech když 32-bit CPU byl už v roce 1958 v českoslovenkým počítači SAPO? :)
Ztrapnění s K6-III a její L2 cache se nepočítá protože se prodává na Aukru draze a přišel pozdě... to nevymyslíš :D
Co tam máme dále. Zbytek všech výmluv vlastně řeší dostatečně velké rozměry socketu, aby se tam vešla napájecí kaskáda a paměť cache (kterou vlastně už nikdo vedle CPU nepoužívá, ale jako výmluva dobrý).
V assembleru a C/C++ dělat neumíš, to jsem nějak vydedukoval. Ale ty nemáš ani základy elektrotechniky z průmyslovky. Nechceš mi prozradit co máš za VŠ a na jakých projektech jsi dělal? Protože podle sebevědomí to vypadá, že koučuješ všechny přední CPU architekty a tady na cnews píšeš jen jako hobby. To jinak není možný :D
Ach jo, takže podstata argumentu zase asi schválně odignorovaná a místo toho překrucování detailů a vlastní alternativní fakta. Člověk si dá práci a stráví moře času aby to bylo polopatě vykládané a jasné, jak to bylo myšlené...
A ke všemu sem tomu ještě klikl na +1 když jsem šel reagovat.
Nechceš mi prozradit co máš za VŠ a na jakých projektech jsi dělal?
Aplikovaná geomantie na Newport International University, s. r. o. :3
Konec univerzálního socketu nastal ve chvíli kdy si Intel začal patentovat sběrnice i fyzické sockety (protože se mu vůbec nelíbilo že ostatní parazitují na jeho know-how - konec univerzálního socketu nebyl kvůli technickým problémům, ale z důvodů obchodně právních) a v současné době je naprosto nereálné aby se výrobci na univerzálním socketu dohodli protože by to znamenalo umožnit nahlídnout moc hluboko pod pokličku návrhu konkrétního CPU.
Nejprve to začalo názvem 486, kde byla hromada CPU od UMC až po IBM 486. Takže Intel vymyslel Pentium (TM) a nechal si to patentovat. Pak přišel na řadu Socket 7. A ve stejném období Intel zařízl i rozdávání licencí na x86, takže po NexGenu a Rise iDragonu mP6 už žádný start-up pro x86 nevzniknul.
Vysvětluj to ale Olšanovi kterej o tomhle nemá ani páru.
Nicméně nesouhlasím, že by dnes univerzální socket nemohl vzniknout. Žádná velká tajemství co ovliňují IPC v žádném socketu nejsou. Když přemístí napájecí kaskádu ze základní desky na PCB toho CPU, tak tím vyřeší dvě mouchy jednou ranou. Zbytek rozhraní je fyzicky PCIe a liší se jen komunikačními protokoly - tam se žádné zázraky nekonají a dalo by se to standardizovat kdyby se chtělo.
Stejně jako se výrobci ARM procáků každý rok shodnou na nových intrukcích co se přidávají do další sub-verze ARMv8.0 až ARMv8.7 nebo ARMv9.0 až poslední ARMv9.2. Klidně by mohl vzniknout Universal-RISC-Socket pro všechny ARM a RISC-V procáky. Stačí chtít.
"Zbytek rozhraní je fyzicky PCIe a liší se jen komunikačními protokoly - tam se žádné zázraky nekonají a dalo by se to standardizovat kdyby se chtělo."
Jenže tím zafixujete, kolik linek PCIe bude, kolik SATA, USB... jed to udělat, ale rychle by se to ukázalo jako omezující. Takže to, že se na tom firmy nedohodnou, zdaleka není jenom nějaký zlovůle, je to celkem praktické.
A zdaleka to nebude jenom napájecí kaskáda, co bude muset "do CPU". Ale i firmware, protože deska nebude moct najednou nést firmware pro rozběhnutí procesorů různých značek. A firmware řídící platformu, ale také třeba trénování řadiče pamětí při bootu je dneska velmi komplexní (mnohem víc než u toho vašeho socketu 7, kdyby vám to náhodou ještě někdo neřekl /s)
Stejně jako se výrobci ARM procáků každý rok shodnou na nových intrukcích co se přidávají do další sub-verze ARMv8.0 až ARMv8.7 nebo ARMv9.0 až poslední ARMv9.2.
Hmm... ale není to tak, že většina výrobců prostě používá jádra Cortex, které si licencují sakumprásk jak sjou a to je jediný důvod, proč se dohodnou na úrovni podporované instrukční sady? Protože třeba Apple fakt není nijak sladěný s ARMem na podpoře instrukcí... SVE/SVE2 a ARMv9 ještě nepřijali a není jasné, jestli to plánují.
A jak chceš napájcí kaskádu co socketu nacpat? Podívej se jak je veliká. (a samozřejmě je rozdíl několikawattová v telefonu a 150W+ pro CPU)
Pointa je ta, že hračky typu OPi5 jsou hračky a pro nasazení v práci zůstávají nevýkonnými hračkami.
ARM si nasazuje Amazon kvůli webíkům a podobně nenáročným službám pro BFU, kde jsou tato nevýkonná ARM jádra výhodná spotřebou a pro danou službu stačí. “Plnotučné” aplikace potřebují výkon a tam se používá buď “big iron” nebo x86_64. Tečka.
3. 8. 2023, 09:54 editováno autorem komentáře
64-jádrový ARM Graviton 3 + 2048-bit SVE vektory
vs.
64-jádrový AMD EPYC & Intel + trapné fixní 512-bit AVX
=
všechno vydrtil to ARM Graviton 3
Kdo chce nejlepší výkon a nejmodernější technologie, jedině ARM. TEČKA.
64-jádrový ARM Graviton 3 používají hojně enterprise zákazníci AWS, tedy ti nejbohatší a největší zákazníci. Ha, ha, možná by si měli nechat poradit od RemMesa že mají koupit slabší, zaostalejší a dvakrát dražší x86 cloud :D
Ty slavné 2048bitové vektory se zpracovávají na kolik taktů procesoru? Co jsem četl, nikdo je nechce používat, protože výsledek je pomalý.
Je to udělané stejně blbě jako AVX 512 u Intelu.
Právěže ne, zpracovávat na několik taktů se musí ty fixní vektory u x86 (Zen4 má 256-bit SIMD takže AVX512 musí chroustat na dvakrát) protože jsou FIXNÍ z pohledu programátora/šířky registrů. Ty vektorové instrukce SVE jsou nezávislé na šířce vektoru - to je na tom to revoluční.
Napíšeš program pro SVE a ten poběží na kterémkoliv CPU ať už má 128-bit SIMD nebo 2048-bit SIMD jednotky. SW si to sám rozeseká na tak velké šířky jaké podporuje daný CPU dynamicky za běhu programu.
S fixníma vektorama u x86 AVX512 musíš mít definovanou šířku už běhěm kompilace. Max co můžeš udělat je zkompilovat několik codepath dohromady.
Nejbohatší a největší zákazník nebude používat public cloud, protože je to dražší, bude mít vlastní servery nebo i vlastní datacentrum.
Když ty nevíš jak funguje cloud. Spoustu velkých zákazníků potřebuje pokrýt špičku během dne a zbytek dne a přes noc by se jejich servery 70% času flákali. Cloud nabídne nevyužitý výkon jiným zákazníkům, kterým nevadí dělat výpočty přes noc s výkonem co na ně zbyde (za patřičně výhodnou cenu). Tím se cloud cenou může dostat podstatně níž než kdybys měl vlastní servery, žejo.
To je samozřejmě úplný, ale úplný nesmysl. Je to tak´ jak píše JO.
Některé věci MUSÍ zůstat “on prem”. Něco NEJDE dělat přes cloud. Nejčastěji se využívá hybrid-cloud. Další důvod je certifikace HW+SW. Další důvod je cena.
Prostě ARMový SVE2 fanatik a trouba plácá úplné hovadiny a nemá ani tušení, jaká je realita ve skutečnosti.
“ Letošní nový ARM Cortex X4 má 8xALU”
No jo, ale stále to není ultimátně revoluční RISC-V, takže je to jen plýtvání křemíkem.
Já bych řekl, že dokud to nebude minimálně 8x ALU s RISC-V V, tak to nemá šanci. Měli by si od Jima Kellera licencovat Ascalon jádra a vývoj ZENu ukončit.
1) To je dost pravděpodobný scénář, že Intel a AMD si budou licencovat Kellerovy RISC-V CPU jádra. x86 chcípne na ARM a pokud se AMD a Intel nebudou chtít stát licenčními vazaly ARMu (to znamená zrušit vlastní vývoj CPU protože licenční jádra jsou o hodně lepší než cokoli z x86 světa), tak musí jít cestou RISC-V.
Možná Kellerův Tenstorrent nakonec odkoupí krachující Intel a udělá s ním to co Intel udělal s divízí DEC Alpha (zruší). To by byla karma zdarma :D
2) Kellerův Ascalon má 6xALU a 8x decode, takže IPC někde mezi X2 (4xALU+2xBranch) a Apple M2 (6xALU+2xBranch), tedy 10 - 56% vyšší IPC jak Zen 4. Nemluvě o tom, že RISC-V má flexibilní vektory RVV jako ty SVE od ARMu, takže je RISC-V vývojově tak cca 30 let před x86 i s tou jejich AVX10.
https://www.tomshardware.com/news/superconductor-breakthrough-replicated-twice
tohle je mnohem zajímavější než nějaký Ascalon ...
3. 8. 2023, 09:37 editováno autorem komentáře
Ikdyby supravodiče dali do CPU, a tím vyřešili ukrutnou spotřebu x86, tak pořád zbývá:
1) x86 potřebuje víc tranzistorů na obejití staré ISA z roku 1978
2) tedy bude dražší na vývoj, potřebuješ víc inženýrů
3) víc tranzistorů = víc plochy = dražší na výrobu
4) zastaralé fixní vektory, ARM má SVE a pro matice SME.
5) x86 je uzavřená platforma, proti tomu desítky soutěžících výrobců ARM a RISC-V s hromada nových start-upů.
x86 je mrtvé, mrtvé a dočista mrtvé.
Je velmi pravděpodobné, že se objev jako obvykle nepotvrdí. Korejci už o LK-99 píšou 3roky a nikomu se to nepodařilo replikovat. V USA se jim zatím podařilo jedno měření při 110°K, což je ještě daleko k revolučnímu supravodiči.
Nobelova cena za objev přímotopu s využitím supravodivé topné spirály je na spadnutí.
Zařadí se k takový majstrštykům jako byla Nobelovka za umělé slepé střevo.
Rád bych se zeptal Honzi Olšana, jak došel k tvrzení, že firma AMD je konzervativní ohledně designu čipů. Konkrétně mi jde o cituji: "...firma je přece jenom v těchto věcech konzervativní a například stále u svých čipletových procesorů nepoužila pokročilejší 2,5D propojení".
Mám za to, že AMD je úspěšný inovátor v této oblasti. Můžeme si to projít. Použití interposeru, HBM kde je spolutvůrce, čiplety, 3D-V cache, multichip výpočetní GPU, gaming GPU s čiplety.
Honza asi myslí EMIB můstky, které má patentované Intel (dražší, složitější pouzdření, vyšší zmetkovitost).
Klasické propojení skrze substrát zvládá připojit 12 CPU čipletů, nevidím důvod věc komplikovat dokud dostačuje.
Intel dává dvě jádra do IO čipletu aby mohl vypnout propoj s CPU čipletem, protože se mu nedaří redukovat spotřebu tohoto spojení. Stejně redukuje 4 spoje na 2 u serverových CPU (očividně se mu vyplatí dělat velké čipy s horší výtěžností než mít o dva spoje navíc).
Jako technický nadšenec asi Honza razí názor, že výrobce musí použít nejvíc cool technologii.
Já naopak oceňuji přístup AMD, že na správném místě používá správné technologie a tam kde nestačí, tak věci posouvá. Naposledy dekompozice gaming GPU čipu o paměťové čiplety. Opět jako první na trhu i za cenu porodních bolestí.
3. 8. 2023, 16:59 editováno autorem komentáře
"Mám za to, že AMD je úspěšný inovátor v této oblasti. Můžeme si to projít. Použití interposeru"
Myšleno tím bylo to, že právě u těch CPU bohužel zatím interposer ani podobné zlepšení použité nebylo a propojení CPU čiplet-IO čiplet jde přes substrát stejně jako u propojení u MCM Opteronů v roce 2010.
Je otázka jestli je to úplně konzervativismus nebo jenom omezení tím, co se dá dělat opravdu ekonomicky, ale v těch spotřebitelských procesorech je dost "high-tech" věcí, co se myslelo, že by mohly dostat, ale nedostaly. Vedle toho 2.5D nebo jiného pokročilého pouzdření pro propojení čipletů tvořících CPU (mimo 3D V-Cache pochopitelně, kde je to ale jen ta L3), která tak bohužel jako první dotáhl do reality Intel u Sapphire Rapids a vlastně asi taky Lakefieldu, je to třeba integrování nějaké formy paměti na APU - to chvíli dělal Intel s eDRAM, ale je možné, že právě narazil na ten problém ceny a ukazuje to, proč to neudělalo AMD.
AMD má tedy ještě ten problém, že má menší objem výroby a menší schopnost nacpat věc výrobcům, takže takové experimenty jsou pro ně těžší. Každý, který se nepovede (viz třeba podpora GDDR5 v APU Kaveri?) je pro ně finanční ztráta.
samozřejmě že takový Meteor Lake používá vyšší míru propojování a čipletů než standardní CPU od AMD, na druhou stranu je otázka, zda to AMD u svých CPU opravdu potřebuje ? První vlaštovkou v CPU může být onen zminovaný Sarlak, naopak takový Instinct Mi300 je zcela jiný level a osobně mi přjde, že AMD využívá pokročilejší metody pouzdření a čipletů jen tam , kde to dává ekonomický smysl.
No, ty čipeltové desktop CPU trpí (zdá se) určitou penalizací v klidové spotřebě a jednovláknové spotřebě (ono se tedy asi uplatňuje i v MT zátěži, ale tam už to člověk nevidí) která je pravděpodobně tím propojením přes substrát způsobená. Je otázka, jak moc je to a jestli to stojí za to, no...
Ale třeba u Dragon Range (nejen až u toho Sarlaka) by to mohlo dělat nezanedbatelný rozdíl ve výdrži na baterii.