1. Nejen výkonem, ale taky cenou a spotřebou. Po 5 letech ten tvůj ITX poletí na smeťák protože to v IDLE žere 80W a naprosto se to nehodí na domácí server.
Ten 16 GB Orange Pi mi žere mezi 1 - 2 W a až to nebude stíhat přehrávání videí, tak z něj udělám čistě headless domácí server.
2. Orange Pi 5 resp. ten jeho čip Rockchip RK3588 má iGPU s výkonem 610 GFlops, což je 2x víc než má konzole Xbox 360. Mimochodem je to silnější iGPU než má integrovaný Zen 4 (500 GFlops).
Jinak teoreticky M.2 je PCIe konektor, takže teoreticky tam grafiku možná připojit jde. Ale velká GPU žere v idle 20W takže tím bys tu excelentní spotřebu totálně zabil.
1. Proč by to mělo letět na smeťák? Jako domácí server mám aktuálně AMD FX-8150/AMD970, NVIDIA GF9800GT, 6x SATA disk. Ale fakt je, že to spouštím jen občas, neboť těch 6 disků, i když jsou na poddajném uložení, je poněkud slyšet.
Nemám zvláštní potřebu domácího serveru, na pracovišti mám k dispozici 1TB (možná i neomezený prostor) na cloudech MS a Google, krom toho pro naši skupinu provozuji Seafile cloud ve vlastní režii. To mi vyhoje na zálohování dat více než domácí server (je na jiném místě, než domácí počítače, takže záloha proti požáru, a pak je na veřejné IP adrese).
Pokud chcete využít Orange Pi 5 na domácni server, jak k tomu připojit SATA/SAS disky? Bude k tomu ten M.2 port stačit? Respektive jak tam udělat RAID pole?
2. XBOX 360 byl uvedený na trh před 13 lety, takže předpokládám že výkonem asi dnes nikoho neohromí. Takže chápu, že lze na Orange Pi 5 teoreticky hrát staré hry, ovšem jako výpočetní GPU pro video, neuronové sítě, k užitku až tak moc nebude.
Jen pro srovnání, v primárním počítači mám Nvidia GF RTX 3070, 20TFlops, v sekundárním Nvidia GF GTX 1060 6GB, 4,4 TFlops, na pracovišti používám Nvidia GF 1030, 1,1 TFlops, v šuplíku mám odloženou Nvidia GF 640, 693 GFlops, v domácím serveru Nvidia GF 9800, 336 GFlops, i tahle stařičká karta má větši výpočetní výkon, než je 240 GFlops GPU čipu Xenos z konzole XBOX 360.
Jo já jsem koupil K5 PR150 za nějaké 400 nebo tak něco. To je zadarmo vzhledem k tomu že ten CPU bude mít jednou cenu tak 10 tis.
Sranda je, že na desce nastavíš násobič 2,5x ale ta K5 si nastaví svůj vnitřní 1,75x což by mělo při 60 MHz FSB hodit docela exotickou frekvenci 105 MHz.
Ale protože moje deska pro Socket Super 7 už 60 MHz neumí, tak musí chudát být přetaktován o 10% s FSB 66 na nějakých 115 MHz. Potom to hlásí K5 PR180 nebo tak něco, ale je to stabilní takže proč ne.
Zajímavé bylo, že ta K5 má stejné IPC než novější K6-2. To jsem nečekal, ikdyž jsem to ještě moc nezkoumal. On ten RISC Am29000 jakožto základ té K5 byl asi na svou dobu hodně dobrej CPU. Až z toho vyvstává otázka proč vlastně ten NexGen kupovali. Kvůli hrubému IPC to určitě nebylo. Možná ty 3D Now instrukce byly původně vyvinuty NexGenem?
https://twitter.com/philparkbot/status/1312495036337061888
Architektura u té původní verze špatně škálovala na vyšší frekvence, minimálně to by se v následujících letech asi hodně vymstilo, pokud by to trvalo dál. Možná to měli namodelováno a viděli, že to nemělo moc dobré možnosti dalšího růstu.
Škoda, že nemá MMX...
Upravit škálování frekvencí je rozhodně snažší, než dolovat IPC. Asi nejlepší příklad je K7, která začala na 500 MHz a skončila na 2333 MHz s Barton jádrem.
Těch K7 jader tam bylo mraky jak vylepšovali pipeline:
-Argon 700 MHz max .. 0,25um
- Pluto 850 MHz........... 0,18 um
- Orion 1000 MHz
- Thunderbird 1,4 GHz
- Palomino 1,733 GHz ........... 0,18um
- Thoroughbread 2,25 GHz ... 0,13um
- Barton 2,33 GHz
S K5 mohli klidně udělat to samé, kdyby chtěli.
Neudělali to nejlepší, protože K5 nikdy nedostala verzi K5-2 s podporou MMX. K5 tým musel začít makat na K7 se 3xALU která byla základem i pro K10 Phenom a žili z toho finančně až do roku 2012, tedy dlouhých 13 let.
Tehdy se hrálo na číslo frekvence, IPC nikoho moc nezajímalo, takže slabší ale líp taktovatelná K6 vlastně AMD vyhovovala. K7 byla geniální v tom, že měla jak vyšší IPC díky 3xALU, brutálně silnou FPU, tak i vyšší frekvence než Intel Pentium II-III. Typický Alpha CPU, teda až na ten starý bordel jménem x86 ISA.
Mnohem lepší je totiž ubrat ALU, nejlépe snížit na 2xALU jako u Bulldozeru a pak se divit že mi celá AMD krachuje :)
Že by to dvojnásobné IPC souviselo s tím, že Intel Haswell měl 4xALU?
Jo to chce velkýho fištróna aby si člověk uvědomil, že na 2xALU prostě 8 instrukcí za takt opravdu fyzicky nejde provést :D
Koupíš 20W solární panel za 500 Kč a k tomu přes PWM regulátor připojíš do USB ten celý ARM SBC Orange Pi 5, protože je napájený 5V z USB-C konektoru.
Zkus to udělat se 100W PC, potřebuješ sinus AC měnič na 230V a 10x větší plochu solárních panelů. Dáš 10 tis jen za panely a měnič, což je levnější ten x86 krám vyhodit a dát tam ARM :D
Proč bych potřeboval sinus a měnič, nebude stačit dc-dc 160w zdroj z alegra za 399,- ? Nebo pokud to uživatel zapne jednou za týden aby si z nasu pustil film nebo aktualizoval data a nebude řešit účet za elektřinu když už se mu tento stroj doma válel a ten opi nemá 6x SATA? Když to mám pouze na data ( já tam mám aktuálně 2c atom 10w) někdy je lepší připlatit pár stovek až tisíc ČEZu než desítky tisíc za SSD obdobné kapacity a s tou skvělou vlastností, že už z toho data nikdo-nikdy nedostane... Zatímco u té té staré debilní placky se najdou firmy co ta data najdou... Samozřejmě že to bude stát ranec, ale když mám na to abych jednou týdně zapnul 100w PC co jsem našel u popelnic, tak za tu záchranu oblíbeného porna dám i cizí výplatu jak mnohde navrhujete...
Na ten FX si potom připrav těch DC-DC konvertorů 5 ks protože ATX deska potřebuje:
-12V
-5V
+3.3V
+5V
+12V
Ještě bys mohl zajít dál a pořídit u popelnic nějaká relátka a sestrojit SAPO. Nezapomeň na 100kW přípojku, ale když to pouštíš jen občas tak to přece nevadí :D Věřím že tvoje porno bude nejbezpečněji uloženo na děrných páskách protože si ty data můžeš pěkně manuálně přepsat :D
AMD FX (8370e na čipsetu AMD970, GF 210, SSD) má v idle 50W (tohle jsem nedávno měřil wattmetrem, u AMD FX 9590 jsem v idle naměřil 67W), ten domácí server pouštím občas, když tam ukládám zálohy, mám to připravené na pokusy s RAID-Z2, za posledních pár let jsem se k tomu nedokopal. Kdybych tam dal Phenom II X4, tak si nepomohu, AMD FX má navíc AVX a AES, větší výkon, v idle není Phenom II lepší. Kdybych koupil novou desku, procesor, paměti, tak si nijak nepomohu, neboť ten počítač je primárně v režimu idle, pokud není rovnou vypnutý.
Všiml jsem si, že to má NPU, ale to mi asi nijak nepomůže pro software, jako je TOPAZ Photo/Video AI. Navíc jediné ARM na kterém soft od Topaz Labs spustím je od Apple M1/M2.
Dokážeš to NPU využít alespoň na open source soft jako je Stable Difusion?
Pokud jde o hry, nejsem nijak náročný, moc toho nehraji, jen poslední tři ze série Tomb Raider, Grid 2, Dirt Rally , ty vydala Feral Interactive i pro Linux, ale předpokládám, nic z toho bych na tom Orange Pi 5 asi hrát nemohl.
Nic ve zlém, je Orange Pi je zajímavý kousek hardwaru, ale jak jsem popsal výše, běžný desktop, který slouží na hry, nebo jako pracovní stanice, to nedokáže nahradit. Klidně bych ho zkusil, bohužel všechny projekty, které využívají bare metal ARM co bych chtěl zkusit, jsou žel na Raspberry Pi, a sám si to nedokáži upravit (jako je třeba MiniDexed, PiStorm).
Taky mám A600 + PiStorm s RPi4. Amiga byla a je pořád nadčasová věc. Vem si co dělá Apple a všechny mobily s droidem? Integrují akcelerátory ... a co byla Amiga? Hromada ko-procesorů/akcelerátorů chytře propojených dokupy.
To co se nyní děje s ARM zařízeními je pro mne návrat filozofie Amigy. Upřímně tu NPU v OPi5 jsem nikdy ani nezkoušel, asi tak jako jsem nikdy neviděl Amigu řídit zalévání květin zatímco hraji šachy a u toho poslouchám Mody (to byl článek o Amize v časáku).
Vem si že Orange Pi 5 má idle 1,6W a výkon ..... 770 pts v GB6 ... spotřeba +1W
Ten FX9590 má idle 60W a má výkon.............. 549 pts v GB6 ... spotřeba +30W?
V MT zátěži to má 8W a má to o 40% větší výkon jak ten FX na 220W TDP.
https://browser.geekbench.com/v6/cpu/472300
https://browser.geekbench.com/processors/amd-fx-9590
Já taky starý PCčka nevyhazuju, mám je v garáži a párkrát do roka na tom hrajeme po síti Starcrafty a AoE II. Ale non-stop provozem je už trápit nechci.
Hlavně mi uniká, že tolik rozumných lidí obhajuje majetek Intelu (x86) protože ten tu ISA vlastní a rozhoduje komu povolí to používat (nikomu novému). O to víc nechápu AMDčkáře do roztrhání těla bránit Intelovu x86. Vždyť už Keller věděl že podporou x86 se podporuje žába na prameni, proto rozjel vývoj K12 na ARMu což byl sesterský čip Zenu 1 aby z toho potápějícího se x86 titaniku elegantně vyskočil. Dnes mohlo mít AMD jedny z nejlepších ARM CPU na trhu a mohlo těžce benefitovat z nástupu ARM v serverech a mobilech. AMD mohlo ukázat Intelovi fakáč tak jako Apple, akorát mnohem dřív, a ať si tu svoji starou x86 strčí do pozadí. Bohužel jako AMD fanoušek musím sledovat jak AMD jde do kopru společně s Intelem.
Už je to vidět i ve financích, Qualcomm je násobně větší firma než AMD, přitom je to výrobce ARM SoC do mobilů, původně malinká firmička co koupila mobilní divizi Radeonu. Superpočítač postavený čistě na CPU výkonově překonal superpoč. postavených tradičně na hromadě GPU - a používá ARM + revoluční SVE vektory.
SVE vektory od ARMu mají proměnlivou šířku až 2048-bit. Naprosto revoluční věc z roku 2016. Dnes má každý mobil už SVE2 a připravené jsou SME a SME2 pro Matrix výpočty místo V- jako vektor. Ani po 7 letech ještě nebyli schopni Intel s AMD představit obdobu SVE pro x86.
Chápu že 80% lidí neví která bije a chtějí nechat věci tak jak jsou, ale každej kdo má funkční kus mozku, tak musí vidět že nastává druhý příchod Amigy. Nízko-taktované geniálně navržené koprocesory plné revolučních technologií (viz SVE/SME, NPU, sdílená L4 cache pro CPU,GPU i NPU atd.) opět drtí hloupá nenažraná PC.
A pozor, tentokrát bez hloupého Commodore managementu, který Amigu zabil svou chamtivostí. Všechny ARM technologie jsou dostupné komukoliv, čehož využívají destíky výrobců čipů, od mikro kontrolérů a mobilů až po super počítače. Ten kdo si myslí že x86 tohle může ustát, musí žít v nevědomosti nebo být velký fanda sci-fi.
SVE neni nic revolučního, vektory uměl cray před 50lety. Problém je, že na to musí být ručně optimalizované knihovny, protože kompilátory mají naprosto tragickou autovektorizaci.
A co se týče těch NPU, je to úplně k ničemu, protože krom NVIDIE se nikdo neobtěžuje řešit SW podporu.
ARM žere podobně co Atomy. Lattepanda je jediný SBC po raspberry co dává smysl, právě kvůli SW podpoře
SVE umí až 2048-bit vektory ..... to je 4x víc než AVX512, které ehm skoro žádný SW neumí používat.
SVE2 už mají všechny telefony asi tak dva roky. SVE2 jsou vektory nezávislé na délce registru od 128-bit až po 2048-bit. O tom si může x86 s fixníma vektorama jako za krále klacka nechat zdát.
ARM žere PODSTATNĚ méně než x86 jinak bys měl x86 v mobilech. Nebo si myslíš že trh s mobilními telefony, ve kterém je víc peněz než v PC trhu si nechává Intel a AMD utéct dobrovolně? Nenech se vysmát.
Naposled AMD se snažila dostat Radeony do ARM Exynosu a byla to taková tragédie co se týče spotřeby, že Samsung zrušil High-end Exynos.
To je ovšem jeden z mýtů - ARM sice žere míň než x86, ale není to nějak podstatně míň. Hlavní rozdíl je že ARM je co se týká spotřeby podstatně líp škálovatelný než x86 - na ARMu se líp dělají čipy s nižším výkonem a nízkou spotřebou, x86 nejde pod nějakou minimální spotřebu rozumně udělat. Jak se ale dostaneme k výkonnějším čipům tak už se ta spotřeba sbližuje. Jinak Radeon v Exymosu nemá nic společného s CPU částí, to prostě Samsung nezvládl implementaci GPU.
Pleteš se, 64-bit ARMv9 vůbec 32-bit nepodporuje. Je to 64-bit ONLY ISA.
64-bit ARMv8 a dál je úplně jiná od základu nově navaržená ISA pro vysoké IPC. Se podívej na počet instrukcí, kodovaní, predikace větvení a co udělali s PC counterem. To má společné s 32-bit ARMv7 jenom ty tři písmenka v názvu.
32-bit a 64-bit ARM je stejně obrovský rozdíl jako MIPS32 a 64-bit Alpha.
Asi ti unikly 2048-bit SVE2 vektory a že superpočítač Fugaku s ARM CPU+SVE byl nejrychlejší na světě a porazil GPU od Nvidie. A to má čistě CPU-only, žádné GPU vůbec nemá. Když máš kvalitní a výkonnou ISA tak GPU rozdrtíš. A to x86 rozhodně není.
Proč každej brání soukromý majetek Intelu, x86? Fanoušci Intelu? Nebo AMDčkáři bez znalostí ?
V mobilech nejsou proto, proč není ARM v PC - softwarový ekosystém. AMD nemá ani ty správné vazby a IP typu modem. Intel to vedle softwaru projel ještě na tom, že ty mobilní Atomy neiteroval moc agresivně novými architekturami. A asi i debakl 10nm technologie přišel pro tu iniciativu v nejhorší možný moment. Vedle té softwarové stránky to přímo o x86 ISA moc nebylo.
Ten argument se Samsungem/RDNA mi přijde hodně na vodě, stačí se podívat, že Samsung měl némlich stejné problémy s Exynosem předtím když měl GPU ARM Mali (tuším že to bylo ono a ne Imagination, ale nedíval jsem se teď). A úplně stejné problémy měl na tom procesu Samsungu Qualcomm a je to zdokumentovatelné protože vydal srovnatelný čip na procesu TSMC. Čili myslím, že kvůli RDNA fakt Samsung svoje procesory neodpískal.
26. 6. 2023, 16:57 editováno autorem komentáře
1. Ale trt, software nebyl v době Atom telefonů zdaleka 100%. Většina byla sice jenom o překompilování, ale i to chce testovat, kompatibilita se zařízeními v telefonech byla třeba testovat a není automatická... ale hlavně ten sw byl na x86 neoptimalizovaný, takže měly například problémy hry. Protože ne všechno se jen kompiluje, na něco jsou ruční optimalizace v ASM, intrinsics. Ne nutně přímo v aplikaci, ale třeba v knihovně, která se volá.
2) Samsung má svůj modem, MediaTek má svůj modem. Ano. Apple nemá, ale chce. Apple si ale může úspěšně dovolit spoustu věcí, co by AMD znamenala nekonkurenceschopnost.
3) irelevantní
4-5) vaše dojmy, no... IMHO je to dělání velblouda z komára
Takže nám tady chceš tvrdit, že 8x větší prachy než v serverech si AMD nechává utéct jen proto, že není schopné dokončit optimalizaci SW pro Android? (smajlík s očima nahoru) Tomu nevěří ani ten DeDe.
Oborně se tomu říká kognivní disonance.
Právě ta Amiga by ti měla napovědět, že drátování specializovaných koprocesorů není ta úplně nejchytřejší věc. Amiga zazářila na 5 let, pak přišel Doom a celý koncept bitplánů, Copperu, Blitteru šel do háje zelenýho. A totéž čeká dříve či později (a zatím to vypadá na to "dříve") i Applovský ARM.
Ale zatím co u Amigy to bylo v té (dřevní) době jediné schůdné řešení, dnes je to jen hloupost a snaha o zkratku, která se nakonec vymstí.
Chceš tím jako říct, že PC do Dooma neměla grafiku, jo? Mimochodem, první akcelerované OGL/GLIDE/DX 3D hry přišly až někdy v půlce devadesátek, to to měla Amiga už dávno spočítané a Commodore byl zkrachovalý (tuším ho měl v té době Escom). Do té doby to byla čistě CPU prácička...
26. 6. 2023, 20:43 editováno autorem komentáře
Ty tvrdíš, že tu 3D grafiku v Doomovi počítala VGA grafika? Ha ha , měl by ses dovzdělat tydýte. VGA zobrazovadla byl jen framebuffer a DAC na anolog monitor. Žádnou 2D akceleraci ala Amiga to neumělo, a všechno to tahal CPU. Proto PC potřeboval 20x rychlejší CPU než Amiga pro stejnou grafiku. Na 386DX40 sis Dooma nezahrál ikdyž CPU mělo 8x vyšší frekvenci než Amiga.
Amiga přes koprocesory tlačila veškerou grafiku, Agnus měl v sobě Blitter a Copper, zatímco Denise čip se staral o všechno ostatní jako bitplane atd. Nástup 2D/3D akcelerátorů nebyl nic jiného než převzatá filozofie Amigy, kdy zjistili že 3D grafiku už CPU neutáhne a bude dobré oprášit nápady z Amigy.
Dnes to samé se děje s AI a NPU akcelerátory. ARMy v mobilech už to mají roky zatímco x86 se teprve nyní rozzářila žárovička a horko těžko dohánějí ujetý vlak. O nějakých flexibilních vektorech ala 2048-bit SVE2 si může x86 jenom nechat zdát vlhké sny. Mobily už mají SVE2 dva roky. Nebo flexibilní vektory RVV dlouhé 65536-bit jako má RISC-V, ne to není sci-fi to aktuální specifikace RISC-V. PCčka mají fixní AVX512 ala pravěké MMX z 1990.
Já fakt nemůžu z těch revolučních flexibilních vektorů... Fakt vám nepřijdou tyhle řeči dost ironické?
"revoluční vektory SVE2 v mobilech" jsou reálně jenom 128bitové. *žádná architektura* nemá SVE2 na širších SIMD jednotkách.
x86 procesory mají 128bitové vektory (SSEx), 256bitové (AVX/AVX2) i 512bitové (AVX-512) vektory, takže programátor buď s těma širšíma může vytěžit mnohem vyšší celkový výkon, nebo použije ty užší, když se mu to víc hodí do algoritmů. To ovšem ale skutečně, skutečně vůbec není flexibilní /s
Dokonce některé x86 procesory používají určitou šířku SIMD operací jednotky s nižší šířkou. Vždyť je to skoro to samé, jako u toho konceptu SVE (ale vzniklo to ve špatném táboře, počítám rozhodující faktor...), akorát je maximální šířka zvolená nižší.
Zajímavé je, že když se diskutuje o fyzických SIMD jednotkách v jádře, tak je podle vás super nápad to místo zpracování jednoho širokého vektoru počítat zvlášť několikrát po kouskách, ale na úrovni instrukční sady to máte přesně obráceně...
A další ironie je, když se podívám, co mělo vlastně SVE/SVE2 řešit: problém, že aplikace a software nevyužívají širší vektory. Tj. například že aplikace pro x86 používají jenom 128bitové SSEx a relativně málo jich používá i 256bit AVX(2), nemluvě o AVX-512.
ARM/SVE tento problém navrhují řešit tak, že instrukce SIMD budou abstraktní od šířky a díky tomu se jednou napíše jeden kód, který pojede jak na těch 128bitových i těch 256bitových jednotkách a tím nebude problém, že procesory s 256/512bitovými jednotkami je mají nevyužité.
Ale co se reálně stalo: ARM se místo těch širších jednotek vrátil ke 128bitové šířce, kterou už měly instrukce NEON. Takže plánovaný přínos SVE/SVE2 se ani nikde nemá jak uplatnit. Ale kód si nese zátěž overheadu a komplikací, které variabilní šířka přináší. Revoluční :)
Tím nechci říkat, že by to byla mizerná technologie jako tady pan expert šíří o x86 SIMD, jenom je třeba trochu zkorigovat tu extrémní adoraci
V současnosti to prostě neplní to, co se od toho očekávalo a jestli to stálo za to a je to dobrý nápad, tedy pořád ještě nebyla šance moc prokázat.
(inb4 řečnění o Fujitsu - k tomu je můj názor takový, že je to HPC procesor, používaný pro numerické aplikace coby konkurence GPGPU a to IMHO moc opravdu moc nedokazuje. O tom, jak dobrá a použitelná architektura to je, ani nejsou moc informace, protože se k tomu málokdo dostane/pro málokoho má smysl se tím zabývat.)
27. 6. 2023, 20:00 editováno autorem komentáře
Já zase nemůžu z toho jak prosazuješ fixní vektory z roku 1966 jako něco úžasnýho a nenahraditelnýho. Podle tvýho bysme místo křemíkových tranzistorů měli používat pořád relátka a elektronky, ne? Hlavně nic novýho a lepšího, fuj!
Revoluční Flexibilní ARM / SVE vektory vs. Fixní x86 / SSE-AVX
28. 6. 2023, 09:08 editováno autorem komentáře
OMG, zase další mlamoj, co neumí česky a nechápe psaný text.
Kromě toho, tvé obzory jsou poněkud zúžené. První 2D VGA akcelerátory pro PC jsou z první poloviny 80. let, poměrně známá IBM8514 MCA z roku 87 uměla prakticky totéž co Amiga. Že se do běžných levných pleček dávaly odpady jako Trident8900, to na věci nic nemění.
https://en.wikipedia.org/wiki/Graphics_processing_unit
Takže zpět: Doom byl čistě CPU, máš to i v mé poslední větě, mlamoji. Ale PC v té době běžně používaly grafiky (dokonce už SVGA standard) a Doom se dal zahrát i na 386SX40, byť to nebylo na fullscreen, ale muselo se zmenšit okno o jeden až dva kroky. A 3D akcelerace byla něco úplně jiného, než akcelerace Amigy, přičemž celá historie je plná mrtvých koprocesorových platforem. Ne nadarmo je dnes třeba GLIDE, druhdy "standard" 3D akcelerace úplně mrtvý, že?
Ty tvé CPU wannabe akcelerátory jsou pro běžné použití k ničemu, kdyby byly, dávno je má každý.