No konečně, levnější ITX MB už dlouho vyhlížím. Pod stolem mám už tři měsíce krabici s novou ITX bedýnkou Chopin MAX od InWin (kde jsem si vyškemral, aby začali posílat i do ČR), co čeká na dostupnější AM5 desku. Teď ještě aby AMD udělalo nějakou akci na CPU, aby se 7900 dostalo k 7000,- bez daně.
A není lepší koupit 16 GB verzi Orange Pi 5?
Má to 4 velká jádra Cortex A76 (někde mezi Zen 1 a Zen 2) a přitom spotřebu pod 2 W. Má to i jeden M.2 slot na SSD. Dva výstupy na 8K monitor.
Násobně levnější řešení, než ty předražené x86 šméčka.
Tak ono se to vždycky odvíjí od toho jaký soft chce provozovat - něco na ARMu provozovat jde, něco ne.
1. 12 jádro AMD Ryzen R9 7900 bude výkonem asi někde jinde :-)
2. Jak k tomu Orange Pi 5 chcete připojit grafikou kartu?
1. Nejen výkonem, ale taky cenou a spotřebou. Po 5 letech ten tvůj ITX poletí na smeťák protože to v IDLE žere 80W a naprosto se to nehodí na domácí server.
Ten 16 GB Orange Pi mi žere mezi 1 - 2 W a až to nebude stíhat přehrávání videí, tak z něj udělám čistě headless domácí server.
2. Orange Pi 5 resp. ten jeho čip Rockchip RK3588 má iGPU s výkonem 610 GFlops, což je 2x víc než má konzole Xbox 360. Mimochodem je to silnější iGPU než má integrovaný Zen 4 (500 GFlops).
Jinak teoreticky M.2 je PCIe konektor, takže teoreticky tam grafiku možná připojit jde. Ale velká GPU žere v idle 20W takže tím bys tu excelentní spotřebu totálně zabil.
1. Proč by to mělo letět na smeťák? Jako domácí server mám aktuálně AMD FX-8150/AMD970, NVIDIA GF9800GT, 6x SATA disk. Ale fakt je, že to spouštím jen občas, neboť těch 6 disků, i když jsou na poddajném uložení, je poněkud slyšet.
Nemám zvláštní potřebu domácího serveru, na pracovišti mám k dispozici 1TB (možná i neomezený prostor) na cloudech MS a Google, krom toho pro naši skupinu provozuji Seafile cloud ve vlastní režii. To mi vyhoje na zálohování dat více než domácí server (je na jiném místě, než domácí počítače, takže záloha proti požáru, a pak je na veřejné IP adrese).
Pokud chcete využít Orange Pi 5 na domácni server, jak k tomu připojit SATA/SAS disky? Bude k tomu ten M.2 port stačit? Respektive jak tam udělat RAID pole?
2. XBOX 360 byl uvedený na trh před 13 lety, takže předpokládám že výkonem asi dnes nikoho neohromí. Takže chápu, že lze na Orange Pi 5 teoreticky hrát staré hry, ovšem jako výpočetní GPU pro video, neuronové sítě, k užitku až tak moc nebude.
Jen pro srovnání, v primárním počítači mám Nvidia GF RTX 3070, 20TFlops, v sekundárním Nvidia GF GTX 1060 6GB, 4,4 TFlops, na pracovišti používám Nvidia GF 1030, 1,1 TFlops, v šuplíku mám odloženou Nvidia GF 640, 693 GFlops, v domácím serveru Nvidia GF 9800, 336 GFlops, i tahle stařičká karta má větši výpočetní výkon, než je 240 GFlops GPU čipu Xenos z konzole XBOX 360.
+ za AMD K5
Škoda že jsou ty revize s funkčním branch prediktorem (120 a výš) na aukru tak drahý.
BTW K6ka snížila počet ALU proti K5 (edit: vlastně ne, kecám, to byl počet dekodérů)
23. 6. 2023, 18:07 editováno autorem komentáře
Jo já jsem koupil K5 PR150 za nějaké 400 nebo tak něco. To je zadarmo vzhledem k tomu že ten CPU bude mít jednou cenu tak 10 tis.
Sranda je, že na desce nastavíš násobič 2,5x ale ta K5 si nastaví svůj vnitřní 1,75x což by mělo při 60 MHz FSB hodit docela exotickou frekvenci 105 MHz.
Ale protože moje deska pro Socket Super 7 už 60 MHz neumí, tak musí chudát být přetaktován o 10% s FSB 66 na nějakých 115 MHz. Potom to hlásí K5 PR180 nebo tak něco, ale je to stabilní takže proč ne.
Zajímavé bylo, že ta K5 má stejné IPC než novější K6-2. To jsem nečekal, ikdyž jsem to ještě moc nezkoumal. On ten RISC Am29000 jakožto základ té K5 byl asi na svou dobu hodně dobrej CPU. Až z toho vyvstává otázka proč vlastně ten NexGen kupovali. Kvůli hrubému IPC to určitě nebylo. Možná ty 3D Now instrukce byly původně vyvinuty NexGenem?
https://twitter.com/philparkbot/status/1312495036337061888
Architektura u té původní verze špatně škálovala na vyšší frekvence, minimálně to by se v následujících letech asi hodně vymstilo, pokud by to trvalo dál. Možná to měli namodelováno a viděli, že to nemělo moc dobré možnosti dalšího růstu.
Škoda, že nemá MMX...
He told me back in 2001 that K5 was the “highest IPC x86 processor to date.”
He told me back in 2001 that K5 was the “highest IPC x86 processor to date.”
Upravit škálování frekvencí je rozhodně snažší, než dolovat IPC. Asi nejlepší příklad je K7, která začala na 500 MHz a skončila na 2333 MHz s Barton jádrem.
Těch K7 jader tam bylo mraky jak vylepšovali pipeline:
-Argon 700 MHz max .. 0,25um
- Pluto 850 MHz........... 0,18 um
- Orion 1000 MHz
- Thunderbird 1,4 GHz
- Palomino 1,733 GHz ........... 0,18um
- Thoroughbread 2,25 GHz ... 0,13um
- Barton 2,33 GHz
S K5 mohli klidně udělat to samé, kdyby chtěli.
prej kdyby chtěli... :-D to je vtip roku. Oni dělali to nejlepší co mohli a tohle jim z toho vzniklo. Každá CPU arch.je kompromisem mezi IPC a dosažitelnou frekvencí vzhledem k výrobnímu procesu
24. 6. 2023, 12:00 editováno autorem komentáře
Neudělali to nejlepší, protože K5 nikdy nedostala verzi K5-2 s podporou MMX. K5 tým musel začít makat na K7 se 3xALU která byla základem i pro K10 Phenom a žili z toho finančně až do roku 2012, tedy dlouhých 13 let.
Tehdy se hrálo na číslo frekvence, IPC nikoho moc nezajímalo, takže slabší ale líp taktovatelná K6 vlastně AMD vyhovovala. K7 byla geniální v tom, že měla jak vyšší IPC díky 3xALU, brutálně silnou FPU, tak i vyšší frekvence než Intel Pentium II-III. Typický Alpha CPU, teda až na ten starý bordel jménem x86 ISA.
ano, stačí přece jen chtít, náflákat do CPU co nejvíce ALU a jen nastavit vysoké frekvence a voila, nejlepší CPU je na světě :-D Samozřejmě jsem zapomněl zmínit že ideálně by to měl být ARM
Mnohem lepší je totiž ubrat ALU, nejlépe snížit na 2xALU jako u Bulldozeru a pak se divit že mi celá AMD krachuje :)
Že by to dvojnásobné IPC souviselo s tím, že Intel Haswell měl 4xALU?
Jo to chce velkýho fištróna aby si člověk uvědomil, že na 2xALU prostě 8 instrukcí za takt opravdu fyzicky nejde provést :D
Kdo v této době řeší těch pár W spotřeby? Ti chytří doma mají soláry, ti nejchytřejší zafixovanou cenu elektřiny... Navíc výpočty na CUDA jsou jaksi lépe podporovány a rychlejší, že ano...
Koupíš 20W solární panel za 500 Kč a k tomu přes PWM regulátor připojíš do USB ten celý ARM SBC Orange Pi 5, protože je napájený 5V z USB-C konektoru.
Zkus to udělat se 100W PC, potřebuješ sinus AC měnič na 230V a 10x větší plochu solárních panelů. Dáš 10 tis jen za panely a měnič, což je levnější ten x86 krám vyhodit a dát tam ARM :D
Proč bych potřeboval sinus a měnič, nebude stačit dc-dc 160w zdroj z alegra za 399,- ? Nebo pokud to uživatel zapne jednou za týden aby si z nasu pustil film nebo aktualizoval data a nebude řešit účet za elektřinu když už se mu tento stroj doma válel a ten opi nemá 6x SATA? Když to mám pouze na data ( já tam mám aktuálně 2c atom 10w) někdy je lepší připlatit pár stovek až tisíc ČEZu než desítky tisíc za SSD obdobné kapacity a s tou skvělou vlastností, že už z toho data nikdo-nikdy nedostane... Zatímco u té té staré debilní placky se najdou firmy co ta data najdou... Samozřejmě že to bude stát ranec, ale když mám na to abych jednou týdně zapnul 100w PC co jsem našel u popelnic, tak za tu záchranu oblíbeného porna dám i cizí výplatu jak mnohde navrhujete...
Na ten FX si potom připrav těch DC-DC konvertorů 5 ks protože ATX deska potřebuje:
-12V
-5V
+3.3V
+5V
+12V
Ještě bys mohl zajít dál a pořídit u popelnic nějaká relátka a sestrojit SAPO. Nezapomeň na 100kW přípojku, ale když to pouštíš jen občas tak to přece nevadí :D Věřím že tvoje porno bude nejbezpečněji uloženo na děrných páskách protože si ty data můžeš pěkně manuálně přepsat :D
AMD FX (8370e na čipsetu AMD970, GF 210, SSD) má v idle 50W (tohle jsem nedávno měřil wattmetrem, u AMD FX 9590 jsem v idle naměřil 67W), ten domácí server pouštím občas, když tam ukládám zálohy, mám to připravené na pokusy s RAID-Z2, za posledních pár let jsem se k tomu nedokopal. Kdybych tam dal Phenom II X4, tak si nepomohu, AMD FX má navíc AVX a AES, větší výkon, v idle není Phenom II lepší. Kdybych koupil novou desku, procesor, paměti, tak si nijak nepomohu, neboť ten počítač je primárně v režimu idle, pokud není rovnou vypnutý.
Všiml jsem si, že to má NPU, ale to mi asi nijak nepomůže pro software, jako je TOPAZ Photo/Video AI. Navíc jediné ARM na kterém soft od Topaz Labs spustím je od Apple M1/M2.
Dokážeš to NPU využít alespoň na open source soft jako je Stable Difusion?
Pokud jde o hry, nejsem nijak náročný, moc toho nehraji, jen poslední tři ze série Tomb Raider, Grid 2, Dirt Rally , ty vydala Feral Interactive i pro Linux, ale předpokládám, nic z toho bych na tom Orange Pi 5 asi hrát nemohl.
Nic ve zlém, je Orange Pi je zajímavý kousek hardwaru, ale jak jsem popsal výše, běžný desktop, který slouží na hry, nebo jako pracovní stanice, to nedokáže nahradit. Klidně bych ho zkusil, bohužel všechny projekty, které využívají bare metal ARM co bych chtěl zkusit, jsou žel na Raspberry Pi, a sám si to nedokáži upravit (jako je třeba MiniDexed, PiStorm).
Taky mám A600 + PiStorm s RPi4. Amiga byla a je pořád nadčasová věc. Vem si co dělá Apple a všechny mobily s droidem? Integrují akcelerátory ... a co byla Amiga? Hromada ko-procesorů/akcelerátorů chytře propojených dokupy.
To co se nyní děje s ARM zařízeními je pro mne návrat filozofie Amigy. Upřímně tu NPU v OPi5 jsem nikdy ani nezkoušel, asi tak jako jsem nikdy neviděl Amigu řídit zalévání květin zatímco hraji šachy a u toho poslouchám Mody (to byl článek o Amize v časáku).
Vem si že Orange Pi 5 má idle 1,6W a výkon ..... 770 pts v GB6 ... spotřeba +1W
Ten FX9590 má idle 60W a má výkon.............. 549 pts v GB6 ... spotřeba +30W?
V MT zátěži to má 8W a má to o 40% větší výkon jak ten FX na 220W TDP.
https://browser.geekbench.com/v6/cpu/472300
https://browser.geekbench.com/processors/amd-fx-9590
Já taky starý PCčka nevyhazuju, mám je v garáži a párkrát do roka na tom hrajeme po síti Starcrafty a AoE II. Ale non-stop provozem je už trápit nechci.
Hlavně mi uniká, že tolik rozumných lidí obhajuje majetek Intelu (x86) protože ten tu ISA vlastní a rozhoduje komu povolí to používat (nikomu novému). O to víc nechápu AMDčkáře do roztrhání těla bránit Intelovu x86. Vždyť už Keller věděl že podporou x86 se podporuje žába na prameni, proto rozjel vývoj K12 na ARMu což byl sesterský čip Zenu 1 aby z toho potápějícího se x86 titaniku elegantně vyskočil. Dnes mohlo mít AMD jedny z nejlepších ARM CPU na trhu a mohlo těžce benefitovat z nástupu ARM v serverech a mobilech. AMD mohlo ukázat Intelovi fakáč tak jako Apple, akorát mnohem dřív, a ať si tu svoji starou x86 strčí do pozadí. Bohužel jako AMD fanoušek musím sledovat jak AMD jde do kopru společně s Intelem.
Už je to vidět i ve financích, Qualcomm je násobně větší firma než AMD, přitom je to výrobce ARM SoC do mobilů, původně malinká firmička co koupila mobilní divizi Radeonu. Superpočítač postavený čistě na CPU výkonově překonal superpoč. postavených tradičně na hromadě GPU - a používá ARM + revoluční SVE vektory.
SVE vektory od ARMu mají proměnlivou šířku až 2048-bit. Naprosto revoluční věc z roku 2016. Dnes má každý mobil už SVE2 a připravené jsou SME a SME2 pro Matrix výpočty místo V- jako vektor. Ani po 7 letech ještě nebyli schopni Intel s AMD představit obdobu SVE pro x86.
Chápu že 80% lidí neví která bije a chtějí nechat věci tak jak jsou, ale každej kdo má funkční kus mozku, tak musí vidět že nastává druhý příchod Amigy. Nízko-taktované geniálně navržené koprocesory plné revolučních technologií (viz SVE/SME, NPU, sdílená L4 cache pro CPU,GPU i NPU atd.) opět drtí hloupá nenažraná PC.
A pozor, tentokrát bez hloupého Commodore managementu, který Amigu zabil svou chamtivostí. Všechny ARM technologie jsou dostupné komukoliv, čehož využívají destíky výrobců čipů, od mikro kontrolérů a mobilů až po super počítače. Ten kdo si myslí že x86 tohle může ustát, musí žít v nevědomosti nebo být velký fanda sci-fi.
SVE neni nic revolučního, vektory uměl cray před 50lety. Problém je, že na to musí být ručně optimalizované knihovny, protože kompilátory mají naprosto tragickou autovektorizaci.
A co se týče těch NPU, je to úplně k ničemu, protože krom NVIDIE se nikdo neobtěžuje řešit SW podporu.
ARM žere podobně co Atomy. Lattepanda je jediný SBC po raspberry co dává smysl, právě kvůli SW podpoře
SVE umí až 2048-bit vektory ..... to je 4x víc než AVX512, které ehm skoro žádný SW neumí používat.
SVE2 už mají všechny telefony asi tak dva roky. SVE2 jsou vektory nezávislé na délce registru od 128-bit až po 2048-bit. O tom si může x86 s fixníma vektorama jako za krále klacka nechat zdát.
ARM žere PODSTATNĚ méně než x86 jinak bys měl x86 v mobilech. Nebo si myslíš že trh s mobilními telefony, ve kterém je víc peněz než v PC trhu si nechává Intel a AMD utéct dobrovolně? Nenech se vysmát.
Naposled AMD se snažila dostat Radeony do ARM Exynosu a byla to taková tragédie co se týče spotřeby, že Samsung zrušil High-end Exynos.
To je ovšem jeden z mýtů - ARM sice žere míň než x86, ale není to nějak podstatně míň. Hlavní rozdíl je že ARM je co se týká spotřeby podstatně líp škálovatelný než x86 - na ARMu se líp dělají čipy s nižším výkonem a nízkou spotřebou, x86 nejde pod nějakou minimální spotřebu rozumně udělat. Jak se ale dostaneme k výkonnějším čipům tak už se ta spotřeba sbližuje. Jinak Radeon v Exymosu nemá nic společného s CPU částí, to prostě Samsung nezvládl implementaci GPU.
Pleteš se, 64-bit ARMv9 vůbec 32-bit nepodporuje. Je to 64-bit ONLY ISA.
64-bit ARMv8 a dál je úplně jiná od základu nově navaržená ISA pro vysoké IPC. Se podívej na počet instrukcí, kodovaní, predikace větvení a co udělali s PC counterem. To má společné s 32-bit ARMv7 jenom ty tři písmenka v názvu.
32-bit a 64-bit ARM je stejně obrovský rozdíl jako MIPS32 a 64-bit Alpha.
Asi ti unikly 2048-bit SVE2 vektory a že superpočítač Fugaku s ARM CPU+SVE byl nejrychlejší na světě a porazil GPU od Nvidie. A to má čistě CPU-only, žádné GPU vůbec nemá. Když máš kvalitní a výkonnou ISA tak GPU rozdrtíš. A to x86 rozhodně není.
Proč každej brání soukromý majetek Intelu, x86? Fanoušci Intelu? Nebo AMDčkáři bez znalostí ?
V mobilech nejsou proto, proč není ARM v PC - softwarový ekosystém. AMD nemá ani ty správné vazby a IP typu modem. Intel to vedle softwaru projel ještě na tom, že ty mobilní Atomy neiteroval moc agresivně novými architekturami. A asi i debakl 10nm technologie přišel pro tu iniciativu v nejhorší možný moment. Vedle té softwarové stránky to přímo o x86 ISA moc nebylo.
Ten argument se Samsungem/RDNA mi přijde hodně na vodě, stačí se podívat, že Samsung měl némlich stejné problémy s Exynosem předtím když měl GPU ARM Mali (tuším že to bylo ono a ne Imagination, ale nedíval jsem se teď). A úplně stejné problémy měl na tom procesu Samsungu Qualcomm a je to zdokumentovatelné protože vydal srovnatelný čip na procesu TSMC. Čili myslím, že kvůli RDNA fakt Samsung svoje procesory neodpískal.
26. 6. 2023, 16:57 editováno autorem komentáře
1. Ale trt, software nebyl v době Atom telefonů zdaleka 100%. Většina byla sice jenom o překompilování, ale i to chce testovat, kompatibilita se zařízeními v telefonech byla třeba testovat a není automatická... ale hlavně ten sw byl na x86 neoptimalizovaný, takže měly například problémy hry. Protože ne všechno se jen kompiluje, na něco jsou ruční optimalizace v ASM, intrinsics. Ne nutně přímo v aplikaci, ale třeba v knihovně, která se volá.
2) Samsung má svůj modem, MediaTek má svůj modem. Ano. Apple nemá, ale chce. Apple si ale může úspěšně dovolit spoustu věcí, co by AMD znamenala nekonkurenceschopnost.
3) irelevantní
4-5) vaše dojmy, no... IMHO je to dělání velblouda z komára
Takže nám tady chceš tvrdit, že 8x větší prachy než v serverech si AMD nechává utéct jen proto, že není schopné dokončit optimalizaci SW pro Android? (smajlík s očima nahoru) Tomu nevěří ani ten DeDe.
Oborně se tomu říká kognivní disonance.
Právě ta Amiga by ti měla napovědět, že drátování specializovaných koprocesorů není ta úplně nejchytřejší věc. Amiga zazářila na 5 let, pak přišel Doom a celý koncept bitplánů, Copperu, Blitteru šel do háje zelenýho. A totéž čeká dříve či později (a zatím to vypadá na to "dříve") i Applovský ARM.
Ale zatím co u Amigy to bylo v té (dřevní) době jediné schůdné řešení, dnes je to jen hloupost a snaha o zkratku, která se nakonec vymstí.
Tobě nedocvalko, že GPU je koprocesor ala Amiga a ve skutečnosti PC přebrali koncepci Amigy, akorát ve formě výměnných karet. Nebo ti snad grafiku tahá CPU jako u toho Dooma? :D
Chceš tím jako říct, že PC do Dooma neměla grafiku, jo? Mimochodem, první akcelerované OGL/GLIDE/DX 3D hry přišly až někdy v půlce devadesátek, to to měla Amiga už dávno spočítané a Commodore byl zkrachovalý (tuším ho měl v té době Escom). Do té doby to byla čistě CPU prácička...
26. 6. 2023, 20:43 editováno autorem komentáře
Ty tvrdíš, že tu 3D grafiku v Doomovi počítala VGA grafika? Ha ha , měl by ses dovzdělat tydýte. VGA zobrazovadla byl jen framebuffer a DAC na anolog monitor. Žádnou 2D akceleraci ala Amiga to neumělo, a všechno to tahal CPU. Proto PC potřeboval 20x rychlejší CPU než Amiga pro stejnou grafiku. Na 386DX40 sis Dooma nezahrál ikdyž CPU mělo 8x vyšší frekvenci než Amiga.
Amiga přes koprocesory tlačila veškerou grafiku, Agnus měl v sobě Blitter a Copper, zatímco Denise čip se staral o všechno ostatní jako bitplane atd. Nástup 2D/3D akcelerátorů nebyl nic jiného než převzatá filozofie Amigy, kdy zjistili že 3D grafiku už CPU neutáhne a bude dobré oprášit nápady z Amigy.
Dnes to samé se děje s AI a NPU akcelerátory. ARMy v mobilech už to mají roky zatímco x86 se teprve nyní rozzářila žárovička a horko těžko dohánějí ujetý vlak. O nějakých flexibilních vektorech ala 2048-bit SVE2 si může x86 jenom nechat zdát vlhké sny. Mobily už mají SVE2 dva roky. Nebo flexibilní vektory RVV dlouhé 65536-bit jako má RISC-V, ne to není sci-fi to aktuální specifikace RISC-V. PCčka mají fixní AVX512 ala pravěké MMX z 1990.
Já fakt nemůžu z těch revolučních flexibilních vektorů... Fakt vám nepřijdou tyhle řeči dost ironické?
"revoluční vektory SVE2 v mobilech" jsou reálně jenom 128bitové. *žádná architektura* nemá SVE2 na širších SIMD jednotkách.
x86 procesory mají 128bitové vektory (SSEx), 256bitové (AVX/AVX2) i 512bitové (AVX-512) vektory, takže programátor buď s těma širšíma může vytěžit mnohem vyšší celkový výkon, nebo použije ty užší, když se mu to víc hodí do algoritmů. To ovšem ale skutečně, skutečně vůbec není flexibilní /s
Dokonce některé x86 procesory používají určitou šířku SIMD operací jednotky s nižší šířkou. Vždyť je to skoro to samé, jako u toho konceptu SVE (ale vzniklo to ve špatném táboře, počítám rozhodující faktor...), akorát je maximální šířka zvolená nižší.
Zajímavé je, že když se diskutuje o fyzických SIMD jednotkách v jádře, tak je podle vás super nápad to místo zpracování jednoho širokého vektoru počítat zvlášť několikrát po kouskách, ale na úrovni instrukční sady to máte přesně obráceně...
A další ironie je, když se podívám, co mělo vlastně SVE/SVE2 řešit: problém, že aplikace a software nevyužívají širší vektory. Tj. například že aplikace pro x86 používají jenom 128bitové SSEx a relativně málo jich používá i 256bit AVX(2), nemluvě o AVX-512.
ARM/SVE tento problém navrhují řešit tak, že instrukce SIMD budou abstraktní od šířky a díky tomu se jednou napíše jeden kód, který pojede jak na těch 128bitových i těch 256bitových jednotkách a tím nebude problém, že procesory s 256/512bitovými jednotkami je mají nevyužité.
Ale co se reálně stalo: ARM se místo těch širších jednotek vrátil ke 128bitové šířce, kterou už měly instrukce NEON. Takže plánovaný přínos SVE/SVE2 se ani nikde nemá jak uplatnit. Ale kód si nese zátěž overheadu a komplikací, které variabilní šířka přináší. Revoluční :)
Tím nechci říkat, že by to byla mizerná technologie jako tady pan expert šíří o x86 SIMD, jenom je třeba trochu zkorigovat tu extrémní adoraci
V současnosti to prostě neplní to, co se od toho očekávalo a jestli to stálo za to a je to dobrý nápad, tedy pořád ještě nebyla šance moc prokázat.
(inb4 řečnění o Fujitsu - k tomu je můj názor takový, že je to HPC procesor, používaný pro numerické aplikace coby konkurence GPGPU a to IMHO moc opravdu moc nedokazuje. O tom, jak dobrá a použitelná architektura to je, ani nejsou moc informace, protože se k tomu málokdo dostane/pro málokoho má smysl se tím zabývat.)
27. 6. 2023, 20:00 editováno autorem komentáře
A ironie 3:
Programátor pořád musí napsat nový kód používající SVE(2) místo starého kódu v NEON, takže je tak jako tak ve stejné pozici jako vývojář na platformě x86, který musí napsat AVX2 nebo AVX-512 pro svoji aplikaci, co doteď používala jen SSEx.
Já zase nemůžu z toho jak prosazuješ fixní vektory z roku 1966 jako něco úžasnýho a nenahraditelnýho. Podle tvýho bysme místo křemíkových tranzistorů měli používat pořád relátka a elektronky, ne? Hlavně nic novýho a lepšího, fuj!
Revoluční Flexibilní ARM / SVE vektory vs. Fixní x86 / SSE-AVX
28. 6. 2023, 09:08 editováno autorem komentáře
OMG, zase další mlamoj, co neumí česky a nechápe psaný text.
Kromě toho, tvé obzory jsou poněkud zúžené. První 2D VGA akcelerátory pro PC jsou z první poloviny 80. let, poměrně známá IBM8514 MCA z roku 87 uměla prakticky totéž co Amiga. Že se do běžných levných pleček dávaly odpady jako Trident8900, to na věci nic nemění.
https://en.wikipedia.org/wiki/Graphics_processing_unit
Takže zpět: Doom byl čistě CPU, máš to i v mé poslední větě, mlamoji. Ale PC v té době běžně používaly grafiky (dokonce už SVGA standard) a Doom se dal zahrát i na 386SX40, byť to nebylo na fullscreen, ale muselo se zmenšit okno o jeden až dva kroky. A 3D akcelerace byla něco úplně jiného, než akcelerace Amigy, přičemž celá historie je plná mrtvých koprocesorových platforem. Ne nadarmo je dnes třeba GLIDE, druhdy "standard" 3D akcelerace úplně mrtvý, že?
Ty tvé CPU wannabe akcelerátory jsou pro běžné použití k ničemu, kdyby byly, dávno je má každý.
Schválně jsem se kouknul co mají ve 100M, vidím mATX Asrock skladem v koncovce za nějakých 2400 s daní. Formát mini-ITX pro bulk desky s ohledem na potřeby chlazení moderních procesorů tak trochu nechápu, protože počítače na nich postavené musí už být koncipované přibližně do krychličky, a pak už tak nějak nedává smysl nejít rovnou cestou malé mATX skříně, protože rozměrově to už bude plichta (dnešní bedny už nepodporují 5,25" pozici, a o to jsou kratší a užší.
Mini-ITX dává IMHO smysl pro desky s (integrovaným) CPU, kde se dá využít custom chlazení a celý počítač dostat do krabičky cca 20x20x7cm, viz třeba USFF Delly se zabržděnými/podtaktovanými Intely řady T.
Taky mě to napadlo ale zase v PCB není nikde vidět stopa slotu nebo díra, v které bude našroubovaný ten zajišťovací sloupek (pokud není skrytá pod tím pasivem).
miniITX jsou vždy o nějakém kompromisu.
Dle specek má i mATX deska jen 1x M.2 slot, takže si tipnu, že u ještě menší ITX to bude totožné.
https://www.gigabyte.com/Motherboard/A620M-GAMING-X-AX-rev-10/sp#sp
Houby kompromis, je to uměle omezené aby tě donutili koupit dražší board.
1x M2 slot má i o dost menší SBC Orange Pi 5 (samo na ARMu).
Asi dobrá ilustrace toho, jakej je to nesmysl pořád se ohánět jenom tím IPC a vůbec neřešit druhou polovinu rovnice.
Cortex-A76 hukot:) https://browser.geekbench.com/search?q=RK3588S+
Navíc to má i NPU jednotku pro umělou inteligenci. O tom si uživatelé x86 můžou ještě pár let nechat zdát :)
Aby ale taky netrvalo 4 roky, než se do téhle třídy RockChipů/SBC desek ten Cortex-X4 dostane. Teda jestli tam místo toho nebude Cortex-A720...
23. 6. 2023, 17:53 editováno autorem komentáře
To je přesně ono. V roce 2023 konečně máme SBC s jádrem A76 z roku 2018. Ale přesto je to oproti RPi4 s tou zabržděnou A72 naprostá pecka.
Bohužel ta X4 nebude nejlevnější, takže tam budou výrobci cpát middle core A720. Ta má IPC skoro jako Zen 3, což taky není špatné (X4 má IPC o 46% vyšší jak Zen 3 což už je fakt brutální rozdíl mezi middle-big core).
Plus ty middle core jsou neskutečně malé, taková A78 měla +5% IPC při -8% tranzistorů, což je taky geniální progres ve výkonu / tranzistor. To znamená že tam vrazí 8x A720 a bude to mít 1/3 plochy co srovnatelný x86 (takže ten ARM bude moct být o dost levnější).
Orange Pi 6 s těma 8x A720 jádry s IPC jako Zen 3 s cenou 2500,- Kč tak to bude pecka. To už bude umět i 64 GB RAM LPDDR5, což dokáže nehradit většinu dnešních PC. Na tom by už jelo Crysis jak z praku i v emulaci.
Ono není až tak problém v ARMu, jako v sériovosti a tom, jak výrobci HW v ARM věří. Měl jsem různé ARMy na různé servery, že to bylo pomalé mi většinou nevadilo, ale chybějící porty pro storage, pájené CPU a RAM (většinou i dost malá). U těch SOC je i hodně často problém se SW, který je většinou nenativní, port, a pak to třeba i tuhne. I když čisté linux distro mi většinou fungovalo. Další věci jako chybějící IPMI, nastavení stavu zapnutí/vypnutí po ztrátě napájení apod.
Takže ten OPi5 vypadá s 16GB RAM a NVMe dobře, ale já asi teď na hraní pořídím RISC-V, na servery nemám jinou možnost než x86_64.
OPi5 to má jednoduché jako Raspberry Pi 4 ... obě jsou napájené z 5V USB-C a pokud je přítomno napájení tak prostě běží a běži :)
Ale OPi5 už má mikrospínač jako SW power off. Tohle už se dá vypnout a zapnout jako PC, ale standartně to po připojení naběhne. Určitě se to dá někde v configu nastavit (to vlastně nahrazuje BIOS/UEFI resp ve skutečnosti je BIOS/UEFI jen GUI pro tyto configy v PC), ale nikdy jsem to nepotřeboval.
RISC-V je super, ale existuje jedno důležité pravidlo. Nekupovat pomalé sračky. I to nejvýkonnější Raspberry, tedy Pi 4, je docela utrpení pro desktop. Jako herní konzole pro Nintendo a Arkádové RetroPie nebo do Amigy/Pistormu je RPi4 super. Ale moderní desktop to nezvládá a umí jen 8GB RAM. OPi5 je pecka, žere to míň a je to 3x rychlejší a grafiku to má 10x rychlejší a jako bonus je to levnější a umí to 16 GB. Prý se chystá i 32 GB verze.
Geniální na těchto jednoúčelových SBC je ale to, že když už jsou pomalé, tak je můžeš degradovat do nějakého routeru nebo file-serveru. Žere to 2W, takže to pořád bude uplatnitelné i za 20 let. Pitomej router Mikrotik žere 5W. Staré PC jdou do šrotu protože nikdo nebude dělat router z PC co žere i idle 50W. Docela dobrá varianta je starej Ultrabook za litr z Aukra, ty 6300U mají idle 5W a přitom do nich jde dát 64 GB Ram a M.2 SSD.
Ty to stále nechápeš, i když jsi to sám napsal: “nekupovat pomalé sračky”. SOC ARMy přesně tohle jsou, stojí to rychlostně za prd, nemá to konektivitu a podpora SW je stále mnohem horší než u x86. Kdysi jsem měl RPi4 jako jeden z prvních v ČR, protože jsem si to dovezl z US. Větši porod donutit tu svini bootovat z USB jsem neviděl. Tehdy tam měli bug, co úspěšně likvidoval microSD karty.
OPi5+ je možná vyjímka.
RISC-V chci mít na hraní a zkoušení, rychlost mě teď nezajímá.
Já jsem na router zvolil pasivně chlazenou small factor i5 s konfigurovatelnou pamětí, s NVMe+SATA, s 8x 2,5GB/s eth. Žádný ARM, co jsem měl, se s tím nemůže srovnávat ani rychlostně, ani v konektivitě.
Ty to nechápeš. Ten ARM v Orange 5 totálně rozseká tu tvoji i5, protože to má IPC jako Zen 2 a díky 8nm má jedno jádro spotřebu v miliwattech (100 - 300 mW avg na jádro a při max frekvenci 2.3 si to řekne o 1,2W/jádro). Takže ta tvoje předražená i5 si s pasivním chladičem ani nečuchne ve stejným TDP.
Navíc to iGPU v tom ARMu je silnější než iGPU v Zen 4, takže tu parodii od Intelu co tam máš snad ani nemá cenu zmiňovat. Podívej se na YT co ten RK3588 SoC zvládne za grafiku.
Ale neboj, já jsem taky vyhodil 10 tis. za totálně předražený QNAP s x86 Atom jádry. Tenkrát mi to připadalo jako dobrý kup, protože ty slabé 32-bit ARMy byla bída (i ta 32-bit ISA stojí za houby, ikdyž pořád je modernější než x86). Jenže dnes s nástupem 64-bit ARMů a jader které mají IPC vyšší jak x86, je situace zcela opačná.
Počkej až tam začnou cpát levné Cortexy A720 co mají IPC jako Zen 3 a můžou jich tam dát až 14. Taková levná piďi SBC deska s TDP 15W vydrtí i většinu dnešních dektopových PC s 8-jádry a TDP 105 W.
Jinak ten Orange mají i ve verzi Plus:
Ukaž mi za tu cenu podobný SFF x86. Schválně kolik ten tvůj SFF stál?
Ne vážně, já na routeru na YT nekoukám :-D Co se týká portů, sám jsi se s tím OPi5 roznesl na kopytech. Cena mě moc nezajímala, protože pro mě byla podstatná síť a možnost virtualizace, 2 eth porty jsou mi k ničemu, když potřebuji min. 3x tolik. Stejně tak storage, ta de deska má všechno tebou zmiňované kromě microSD, ale zase má SATA a slot na SIM, který se mi také hodil. Cena byla 8k, 9k s RAM.
Vííc času už ti nedám, protože tu stále meleš nesmysly, co dobře vypadají na papíře, ale v praxi nefungují. Ale za ARM fanatizmus a trollení máš 1.
A neměl by stejnou funkci OPi5 + Switch 8-port?
+ za polovinu ceny
+ poloviční spotřeba
+ klidně i 24 portů (přes VLAN si to naroutuješ na OPI)
Za 9K pěkná hračka. Ale předražené jak Intel NUC. Dobrý nápad zabitý vysokou cenou.
“ A neměl by stejnou funkci OPi5 + Switch 8-port?”
Neměl. Proto mám to, co mám i s několika managovatelnými switchi s VLAN. Zbytek tvého příspěvku je o fanatizmu a neznalosti.
A jakou funkci by to neumělo?
Protože GSM modul na SIM připojím za pár kaček přes GPIO konektor a přes VLANy si můžu routovat všechny porty, protože Linux VLAN umí.
Ty píšeš o routování (L3), ale vlany jsou L2, tydýte, nehledě na to, že jsi ten 8-port switch nijak nespecifikoval a 24 portový managed stojí minimálně desítku.
Kromě toho to není řešení na všechno a oddělovat segmenty je nutno z pohledu bezpečnosti i fyzicky.
Takže ne, normální (polo)profi router má běžně 5-8 rozhraní, běž to říct do Cisco, Juniper, Zyxel, Palo Alto, Fortinet, Mikrotik, a dalších, že to dělají blbě a že stačí 2 rozhraní.
1. 7. 2023, 08:15 editováno autorem komentáře
24-portový managed switch od Mikrotiku stojí 3.500,- Kč.
Tydýte z tebe co vypadne je každá věta lež jako věž. Stojí ti to za to se takto veřejně ztrapňovat před celým národem? :D
Jim_Keller, ty vůbec ani netušíš. tynytovi hned došel jeden z use case, narozdíl od neznalého a navíc fanatika tebe. Nehledě na to, že vesele ignoruješ další use case, co ty tvoje úžasné ARM hračky neumožňují, nebo mnohem obtížněji. Ale jestli se chceš dál navážet do IT přotřelého veterána tydyta, tak jen směle do toho, já se vždy docela bavím, jak tě pak utře jako sopel malému děcku.
Tak si klidně sbal svoje 2048 bit SVE2 vektory a běž si s nimi rozblikávat LEDky. Ale nevím, jestli to bude stačit, jestli by to nechtělo raději 4096, ideálně pak 8192 bit vektory. A těch ALU také alespoň 16, jinak to brzy bude zaostalá architektura! :-P
Hm... a tohle mě má jako přesvědčit? O vysoké desítky procent pomalejší *) deska, která nic neumí a "TAKY" má jen jeden M.2 slot, byť by mohla mít víc?
*) a to se bavíme o nějakém umělém testu, reálně bude rychlejší i ten prastarý Zen1
Hele je to komp velikosti kreditní karty, tak co po tom chceš? Že to nemá PCIe 16x slot? Vždyť ten je 2x delší než celá deska toho SBC.
Žere to 1,6W, má to 16 GB, stojí to pár stovek, IPC jako Zen 2, žádná vrtule, jen pasiv, ideální na domácí server.
To že to zvládá 2x 4K monitor a Linux Debian na tom solidně rozběhá i web, to už je pěkný bonus. Raspberry Pi 4 na 4K bylo utrpení, tohle běhá jak z praku.
Mozna ti trochu ALU unika, ze lide muzou mit trosky vyssi naroky na PC, nez to co jim tady servirujes.
Jen k zamysleni ;)
25. 6. 2023, 10:13 editováno autorem komentáře
Myslíš třeba PC s pořádným AMD FX9590 co žere 220W TDP?
https://browser.geekbench.com/processors/amd-fx-9590
Dostane nařezáno od miniaturní superlevné SBC destičky Orange Pi 5:
https://browser.geekbench.com/v6/cpu/472300
- bez větráku
- se silnější iGPU než má Zen 4
- s NPU jednotkou pro AI o čemž si můžou PCčkáři leda nechat zdát sny
- spotřeba kolem 1 W, v plné zátěži 8 W.
nikoliv. To jsou upplne nesmyslne priklady
Ja ma treba ted aktualne kombinaci 5900X+4070+32GB RAM. Na co jsou mi nejaka tva ARM? Pokud budu chtit mit minimlani spotrebu, koupim si 13'' notebok a nepripojim ho na monitor. Pokud nejdu po minimalni spotrebe, ale potrebuji vykon, mam desktop. V AM4 desce za 2,5k mam uz treti generaci CPU a GPU od doby jeji koupe. Ja jsem naprosto spokojen.
Na co mi je tvuj ARM? I kdyby to IPC fiialove svitilo, tak na nic.
25. 6. 2023, 13:37 editováno autorem komentáře
Chápu, však ten Orange nikomu nevnucuji jako herní náhradu PS5. Sám mám PC s AMDčkem a 3080Ti.
Ten Orange mi běží jako server 24/7 jako NAS a přitom to žere míň než QNAP.
A jako bonus to umí 2x 4K monitor a Linuxový desktop KDE na tom běži na webbrowsing jako z praku. Tak dobře, že kvůli webu a filmům už velké PC ani nezapínám, protože zapnu monitor a je tam permanentně běžící Linux desktop.
Nic víc, nic míň. No vlastně ano, ten vývoj ARMů jde tak rychle dopředu, že kdyby ta levná destička měla letošní Cortex X4 (3,4GHz a IPC 33% nad Zen 4), tak by výkonem porážela i Zen 3 na 5 GHz. Přičemž ta ARM platforma dnes umí až 10+4 ... 10x big jádra X4 + 4x middle A720 (IPC jako Zen 3, samo na nízkých frekvencích). Tahle levná destička by natrhla trenky i 12c 5900X. Ten vývoj je prostě úžasnej. Minulý rok X3 uměla jen 6 big+4 middle.
Ne jak AMD které to špuntuje na 16c už 5 let. A víc jak 2-channel paměti taky nedostaneš ani na těch předražených AM5 boardech. Apple umí v notebooku 8-ch paměti s M2 Max. To mě na tom sere, že bych si chtěl koupit notebook s 4-ch APU AMD, ale nic takovýho se neprodává přestože PS5 a Xbox přesně tyto 4-ch APU mají. A nechají se převálcovat pitomýma jabkama. Uměle to špuntují a za to odemne x86 lumpárna už neuvidí ani halíř.
Hm, a došlo ti, že NAS je spotřebou definován spíše přes disky? Já mám NASík postavený na Athlonu200 a spolehlivě největší spotřebu mají disky.
Ten "rychlý vývoj" ARMů mi připadne trochu směšný. Jejich výkon je stále subpar proti x86, jediný kdo se jednorázově přiblížil aspoň na dohled byl Apple, jenže tomu už zase ujíždí vlak. A víš co je na x86 nejlepší? Že prostě funguje - žádné zámky bootloaderů, žádné hokusy a pokusy s bootovacím protokolem.
Jak x86 instrukční sada souvisí s bootloaderem a BIOSem???? Jseš tydýt.
ARM může mít UEFI úplně stejně jako AMD může zamknout bootloader na PS5 a XBox X. Doufám že si jseš vědom že PS5/XbX mají x86 APU od AMD.
Apple ujíždí vlak? iPhone už výkonově v ST brutálně drtí Ryzen 5950X (Zen 3) na 5 GHz. Nejnovějši Zen 4 uniká je o kousek protože zvedl frekvenci na 6 GHz. Nový iPhone letos dostane A17 a dost možná výkonově překoná i ten Zen 4.
A ty nejobyčejnější licenční ARM Cortexy X4 se při 3,4 GHz dostanou výkonově na úroveň Zen 3 na 5 GHz. X4 má o 46% vyšší IPC což je brutální náskok. Navíc to umí revoluční SVE2 vektory s flexibilní šířkou až 2048-bit.
Tomu říkám ujíždět vlak :DDD
Spíš tobě ujíždí vlak a vůbec netušíš co se děje mimo svět x86.
Jak? Třeba tak, že pro ARM UEFI potřebuješ i adekvátní BIOSy karet, že UEFI vůbec ale vůbec neřeší standardizaci vlastního hardware (vývojář musí dodat moduly podporující vlastní HW aby to UEFI vůbec fungovalo), je to jen a pouze firmwarový interface pro start systému. A AMD jistě může zamknout své UEFI, ale proč by to dělalo, když tu přes 40 let existuje nějaký úzus a standard PC x86 platformy dodržovaný všemi hráči na trhu? Tedy to, o čem já opakovaně píšu a co ARM nikdy neměl a dodnes nemá.
Tvé iphoní teoretizování je asi stejné jako holedbání se koloběžkáře, že projede tam, kudy neprojede náklaďák. Že ale s koloběžkou fůru písku neodvezeš, to už neřešíš, ty cherrypicking demagogu, co? ST dnes už nikoho nezajímá, dokonce i Intel to už pochopil.
Ale klidně piš dál, je sranda číst ty tvé nesmysly.
S tím umělým špuntováním máš pravdu. Dnešní laptopy jsou v drtivé většině tragédie. Ale nejen z pohledu CPU. Navíc ten “Applovský” trend pájení RAM (a někdy i SSD) je k zblití. I když věřím, že někdo toto neřeší.
Jaké umělé špuntování? Kdo chce (a má use-case), může si doslova za pár šupů (v porovnání s WS od Intelu ještě před několika málo lety) pořídit brutálně výkonnou strojovnu s Threadripperem s až 64C/128T. Ano, těch "pár šupů" budou stále vysoké desítky tisíc až nízké statisíce, ale ten výkon je také extrémní. A pak tu je problém využitelnosti. Já mám doma 8C/16T a kromě kódování videa, což není nic, co by se nemohlo provádět přes noc, nota bene kdy čas kódování v běžném profilu odpovídá playtime, tj. jde v podstatě o realtime věc, mám jen velmi málo aplikací, které ten procesor dokáží reálně využít (komprimace velkých dat, virtualizace, vývoj/kompilování.)
Takže tím chci říct, že aktuálně drtivá většina uživatelů nemá potřebu mít více jader, sám jsem uvažoval nad 12C nebo 16C a vyhodnotil to jako zbytečnost, a to si myslím, že PC využívám daleko intenzivněji než oni. Čas pro více jader přijde, ale nebude to hned. Teď se čeká až se objeví aplikace, které těch 16C dokáží využít u 80% uživatelů...
Já jsem tím špuntováním myslel spíš ostatní HW než CPU (když odhlédnu od bídných nenažraných lejků), jako porty pro úložiště, levné LCD s nízkou svítivostí, chybějící ECC, atd.
RemMes: A, tak to jo. Dnešní HW je strašný odpad (jak po stránce použitých komponent, tak konfigurace/dílenského zpracování), oni kopírují Apple, který ořezává úplně vše, aby měli větší vejvar. Ale bohužel většině to nevadí, protože používají počítače jako tablety s klávesnicí a nezřídka vídám i spotřební chování - "PC je pomalý, tak si jdu koupit nový" - a přitom je to leckdy jen uživatelsky zahnojené, nebo stačí přidat RAM nebo vyměnit HDD za SSD. Lidi už zapomněli na to, že se počítače dají upgradovat a spravovat.
Přesně na to poukazuji. Proč by AMD zvyšovala počet jader desktop Ryzenu na 32 když ti může prodat 32-jádrový Threadripper za 2x nebo 3x vyšší cenu. Ty jsi fakt tydýt :DDD
Teď má AMD Bergamo 16c čiplety, tak by klidně mohla dělat 24c nebo i 32c Ryzeny. Ale nedělá. A víš proč? Protože ti je prodá za 100 tis jako Threadripper. K tomu pěkně desku za 20 tyček abys zjistil že AMD je stejný nenažraný korporát jako Intel.
Proto je lepší podporovat ARM s jeho revolučníma 2048-bit SVE2 vektorama. Větší konkurence = nižší ceny.
A proč by mělo AMD prodávat něco, oč je minimální zájem? Se koukni na ceny Maců s M2 Ultra ty tydýte, to taky není charita, a přitom se jedná o ořezaný a neschopný ARM, do kterého nejde strčit ani grafika!
Threadripper (na zcela MINORITNÍ platformě WRX8, podporující profi standardy) stojí nějakých 145 tisíc, kdežto konzumentský R9 7950X "pouhých" 14 tisíc. S ohledem na to, že čistě mechanicky je 64C něco jako 4x16C to vypadá blbě, ale ty vůbec nezohledňuješ to, co odlišuje WS od PC, tedy schopnosti WS připojit tuny periferií, pracovat spolehlivě a ustát dlouhodobé pracovní zatížení.
No a tvá argumentace je analogií polohy "Proč Dacia, Škoda, Renault, Hyundai nevyrábí velkoobjemové šestiválce a osmiválce?!" A je na to i stejná racionální odpověď: protože drtivá většina zákazníků to NEPOTŘEBUJE a naopak NECHTĚJÍ sice vysoce výkonné auto, které má ale neskutečné provozní náklady. A protože okruh zájemců o šesti- a osmiválce je malý, je logicky jejich výrobní cena vysoká.
Odkud víš že by o 32-jádrový Ryzen byl minimální zájem?
Stejně jako nikdo nekupoval 8-jádrový Ryzen 1800X když Intel nabízel 4-jádra?
Stejně jako nikdo nekupoval 16-jádrový Ryzen 3950X když Intel nabízel 10-jádra?
Jo aha, ale to se tenkrát AMD ještě muselo snažit že? Jenže už nemusí, takže začínají odírat zákazníky jako každej jinej korporát.
Co na to odpovíš tydýte?
Tyhle nesmysly mě fakt baví,
Co třeba podle toho, že REÁLNÉ prodeje jsou největší u 8C a 6C, zatím co 16C je hluboko v průměru?
Kolik myslíš, že se prodá těch hypotetických 32C Ryzenů?
https://www.hardwaretimes.com/wp-content/uploads/2022/12/VOS5V6G.png
32C Ryzenů se prodá víc než předražených 32C Thredripperů.
Už ti to došlo tydýte? Prodej mainstremových 8C na to nemá žádný vliv.
Samozřejmě ty klaune. Tak mi ještě vysvětli, proč se prodává méně 16C Ryzenů než těch 8C. Degrese prodejů s rostoucím počtem jader je jasná. A že by se prodalo o pár procent více 32C Ryzenů než TR? To je čistá spekulace a kromě toho, ony by se ty čiplety do půdorysu AM4/5 tak jako tak nevešly, ty ALU teoretiku. Kromě toho narazíš na limity designu AM4/5, což je omezený počet kanálů pro RAM a PCIe a kromě pár lidí co volnočasově renderují 3D modely by to nemělo žádné praktické využití.
Pročpak AMD nezůstalo u 8C jako u Zen 1 když se těch 16C Ryzenů prodá o tolik míň než 8C? Vždyť mohli místo toho prodávat 16C TR, že tydýte?
V té době AMD bojovalo o zákazníky takže se muselo snažit. Ale to už dnes nemusí takže to uměle špuntují jako každej jinej korporát. Všechno ostatní jsou výmluvy chorého fanatika AMD.
A o tom se tu právě spousta lidí baví, každé z řešení má nějaký vhodný usecase a na jiný je na pendrek.
Tohle věřím že je na spoustu použití vhodné, skvělá efektivita, dobrý výkon na spoustu běžných aplikací ale...
Ale když půjdu k začátku diskuze a zamyslím se nad tím jak se proměnila itx platforma a dost o tom napoví jak se změnily itx case na trhu.
Většina jich dnes pojme třeba 300mm 3+slot GPU a co tak vidím tak většina lidí takové věci staví, hodně výkonné mašinky v malé bedýnce. Což toto OPi nesplní, já mám itx stroje doma dva, první starý atom (co se válel v koutě) ~10w jako NAS 3x plotna+SSD na systém to tady asi nepřipojím a jelikož běží jen v případě potřeby, tak není třeba příliš řešit spotřeby... Druhý jako řídící systém pro CNC, AMD E1 10W na kterém běhá 32bit W7 a tudíž i aplikace které potřebují a hlavně má LPT takže nemusím kupovat nové řídící jednotky, protože jsem ještě nenarazil na převodník který by spolehlivě fungoval...
K tomu mám pracovně-herní stroj v mATX formátu, kde 64GB RAM, R9 12c a 10TF SP GPU celkem stačí a je v ceně 2 měsíční licence SW (běhá to dokonce rychleji než Precision 5860 s xeonem 2465 a quadro a4000 5k€ co máme v práci) ... Takže pokud není potřeba extrémní konektivity či množství paměti, tak to je opravdu příplatek za něco extra a člověk musí zvážit zda to má smysl... U té firmy co prodává ovoce, pořídím podobný stroj za 7k (4,5x tolik) co mi v některých aplikacích natrhne prdel při třetinové až poloviční spotřebě, ale v mém případě je stále mých 1500€ stále lepší volba...
Nehledě na to že někdo vezme to Pí jako podivný bastl kterým se nebude vůbec zabývat ač by to pro jeho účel mohla být dobrá volba...