AMD to ma dobre vymyslene, kto chce jedno GPU kupi si kartu s 1 GPU, kto chce 2 GPU kupi si kartu s 2 GPU, kto chce 4 GPU kupi si kartu so 4 GPU.
Problem bol v nedostatočnej rychlosti komunikacii medzi GPU kartami, ktoru AMD sa zda už vyriešilo. Už sa len čaka či to AMD uvedie viac čipov NAVI teraz na 7nm procese, alebo až za rok na 7+nm procese.
Monitori už prišli 4K s 144Hz už len chyba GPU čo to potiahne :)
O konci CF se mluví minimálně tak 2 roky.
https://www.pcworld.com/article/3227865/amd-radeon-phases-out-the-crossfire-brand-as-multi-gpu-gets-more-complicated.html
Už to začína, AMD u nových Ryzenov znižuje boost frekvencie, vypadá to na snahu o zvýšenie spoľahlivosti. Hlavne že nás doteraz krmili o neškodnosti vysokých napetí a teploty :
https://www.reddit.com/r/Amd/comments/cuk6bt/amd_reduced_boost_in_newer_agesa_versions_for/
AMD má vždy všetko " dobre vymyslené " a stále sú tí druhí. Na budúci rok vstupuje Intel na trh grafík a plánuje podporu v zmysle SLI, za nejaký čas môžu byť AMD až tí tretí.
Najvýkonnejšiu desktopovú grafiku má stále nVidia, najvýkonnejší desktopový procesor má stále Intel, taká je realita.
Kdeže "začíná", ty změny turba jsou už od AGESA 1.0.0.3. Ta byla na X470 deskách často později (i když třeba Gigabyte ji měl hodně rychle), ale na těch X570kách by měla být už skoro (úplně?) od začátku.
Jedna z těch změn je, že maximální turbo je dosažeitelné jen s o něco nižší teplotou. Dřív to bylo do 79 Celsiů, přičemž od 80 výš se automaticky strop zredukoval o 200 MHz, tj. například z 4,6 na 4,4 GHz u Rí 3900X. AGESA 1.0.0.3 to snížila na 74 stupňů, těch -200 MHz je už od 75 Celsiů. Není to ale snížení maximální frekvence, jeno ztížení podmínek, za kterých se dá dosáhnout.
Můžou tam být další změny, ale detailně se zatím ví jenom o téhle (zdroj: The Stilt). To fungování řídí firmware jednotky SMU, který je součástí BIOSů.
Ale je těch 75 stupňů při jednom vlákně (kde se dá aspirovat na to max. turbo), nebo při všech? Když už je vytížené celé CPU, tak je limit příkon (PTT) a že je maximální frekvence boostu už jenom 4400 MHz, to už tomu může být úplně jedno, protože bez překročení PTT si to k ní ani nečuchne.
No a jak to je ve skutečnosti. Dovolil jsem si vytípnout obrázek ze svého PC, protože mě tyhle intelí FUDy začínají vadit.
https://imgup.cz/image/LzeO
Jak je vidět, CPU je v ST těsně pod max. boostem, napětí je daleko od těch mýtyckých 1,5V, AGESA je 1.0.0.3a
Produkty AMD sa kupujú z dôvodu nižšej ceny, oni si jednoducho nemôžu dovolit Intelovské marže, preto nízky zisk. Údajne Intel pracuje s maržou 27%, AMD s 5%.
Pre komerčnú spoločnosť je propagácia technologickej vyspelosti veľmi dôležitá a nato slúžia vlajkové lode, teda tie najvýkonnejšie produkty, výkladné skrine, takže podstatné to je dost.
Podle vás ten procesor má 75 stupňů při jednovláknové zátěži (nebo jste mě špatně pochopil)?
Jako já ho nemám, ale vy IIRC taky ne.
A třeba techPowerUp má namátkou 79 stupňů v Blenderu (což by mělo být blízko maximální spotřebě nebo na maximu, a bude to nejspíš 100% přes 12c/24t, protože rendering). Takže 74C na jendom jádru se mi nezdá, tam už by neměl být ten malý křemík takový bottleneck chlazení.
Mvladar..Tech 75C je pri vytizeni celeho CPU, ne pri vytizeni jednoho jadra.. Jak muze nekdo chodit na technicky web a psat jeden nesmysl za druhym dokolecka..
Drive na weby chodili lidi, co si vymenovali technicke informace, dneska tady chodi BFU v roli fotbalovych fanusku, kteri patrne v zivote nemaji co delat..
@tombo, je vidieť, že sa v problematike neorientuješ. V jednojadrovej, respektive málojadrovej záťaži je dôležitá teplota jadra v záťaži, teplota puzdra procesora je ti úplne na figu. Stiahni si CoreTemp, alebo Aida64, boostni jedno jadro na max. a porovnaj teploty procesora s teplotou jadra, to uvidíš veci....
@tombo, žiadaš o poučenie, tak prosím :
Tvoj 8550U prepína jadrá, managment rozhadzuje záťaž v single móde cyklicky na jednotlivé jadrá. To, že ti reportuje teplotu najteplejšieho jadra je naprosto správne a je to presne prípad, ktorý zdôrazňujem. Jadrová teplota má prioritu, pretože teplota puzdra procesora v málojadrovej záťaži bude nižšia, pokial bude meraná selektívne od teploty jadra.
Diametrálne odlišný je prípad, keď sa vybere najlepšie jadro, napere sa Vcore 1.5V a hurá, mám v R15 +200b.
Už chápeš ?
@Jan Olšan, no vidíš, druhý deň sa tu bavíme prečo je ta teplota dôležitá a tombo už klasicky nič nechápe, dokonca to zabije hned úvodnou vetou " Vzdyt je to preci jedno. "
A pritom si to pekne popísal :
https://www.hwcooling.net/chcete-mit-lepsi-turbo-na-amd-ryzenu-3000-drzte-teplotu-pod-75c/
Vzdyt je to preci jedno. Pokud vyrobce specifikuje teplotu/napeti/'TDP" ve kterych se to muze pohybovat, tak je to preci jedno. Kazdy vyrobni proces/architektura to bude mit stejne trosku jinak. Jo pokud by v ramci toho, co AMD uvadi, ty cipy zacali hromadne odchazet, tak to by samozrejme bylo uplne neco jineho. Ale tohle se nedozvime stejne do te doby, dokud se to nestane a do te doby se musime spokojit se zarukami, AMD, ze je to v ramci specifikaci.
Vyrabet tady senzace, bez jakehokoliv hmatatelneho dukazu, neni nic jineho nez fabulace. V pripade Vadara jsou to zamerne sirene FUDy neboli lzi.
To stejne plati o tom, co tady Vladar a dalsi sirili a boost frekvenci, aby se nakonec ukazalo, ze je to problem desek. AMD v tom asi uplne nevinne neni taky, ale ne tim, ze by ta CPU toho boostu nebyla schopna, ale mozna proto, ze vyrobci BIOSu neemeli dostatek casu na vyadeni do vydani. Ale delat senzace o tom, ze CPU neboostuji, ze AMD zavadi a lze...vzdyt to jsou zase FUDy a lzi, ktere lidi jako Vladar pravidelne zamerne trousi(li).
tohle není blábol, ale konstatování, že mezi cenou, kvalitou a oblibou neexistuje žádný přímý a zaručený vztah. Existují komodity, kde je zákazník extrémně citlivý na cenu, jinde zase na kvalitu. A existuje i zboží, kde nic z toho neplatí. Typicky se jedná o "statusové" zboží, které se nakupuje proto, že majitel tím říká "já na to mám" a výrobce to šikovnou cenovou politikou podporuje.
Z vlastní zkušenosti (velké desítky iPhonů a iPadů) můžu říct, že Jablečný HW i SW není nic extra, spíše se jedná o horší průměr.
zase to tolik nehroť. RT je stará vesta, kterou jsem používal už jako student (to bude už přes 20 let), na principu se nezměnilo nic. Stejně tak PhysX, které nvidia zkriplila a uvolnila až když už k ničemu nebylo. No a GWorks, odhlédnu-li od podstaty (což je běžný toolset), sloužilo ke stejnému účelu jako PhysX předtím.
Nikoliv ty Madare, protoze tvoje FUDY jsou chybne od zacatku. U AMD boostuje jedno jadro na max. boost, je to jejich technologie, kterou pouzivaji. Jakou to ma spojitost se "spatnou" teplotou jednoho jadra, ktere je reportovane jako Package, jsi stale nevysvetlil, Ani nemuzes, protoze fabulujes. Ten boost u AMD je definovany tak, ze minimalne jedno jadro jej dosahuje. Cili v teorii, to mohou byt klidne i vsechny. I kdy by to bylo proklamovane jedno, porad neni jasne, proc by to mel byt problem, ktery stale nekde vytvaris. Reportovana teplota package CPU je ti naprd, pokud to nezkombinujes s aktualnim spotrebou toho chipu, ktere to vytizeni zpusobuje. Pokud ti reportuje 75C, ale TDP je nekde na strelim na 50W tak co jako ma byt podle tebe spatne?
Konecne zkus nekde vysvetlit a dolozit co je na teplote 75C spatne, co je spatne na tom, ze CPU boostuje max na jednom jadre?
Proc se napr nerozhorcujes nad tim, ze teplota Intelovskeho CPU dosahuje 92C?
O jakych urazkach mluvis? Ty tady lzes a vymyslis si zleva doprava a nemas ani kousek studu se za ty svoje neustale vymysly ani omluvit. Kdyz ti nekdo slpane trochu na prsty, tak ti hned ublizuje co?
To ze ti reknu, ze jsi madar neni v tom pripade urazka, ale jeste lichotka.
ALe chapu, ze nemas co napsat, protoze ze lzi se tezko znovu vylhava co Vladare?
Jeste jednou
.. kde je problem s teplotou u AMD CPU?
..kde je problem, ze CPU boostuje na jednom jadre?
..proc si neztezujes, ze Intelovske CPU ma klidne i teploty nad 90C?
- Uz ti najednou nevadi, ze vsechna AMD CPU tzv. neboostuji na max boost?
.. a nebud zbabelec a aspon se snaz misto vyhybek o tom, jak ti nekdo ublizuje, odpovedet.
Tu predsa nejde o princíp na akom RT funguje. Ale o spôsobe ako ho akcelerovať. Ten sa časom predsa menil podľa dostupných technológií. MS v spolupráci s NV aj AMD pripravil DXR a NV už stihla pripraviť svoju implementáciu pre toto API. Ide aktuálne o najrýchlejší spôsob ako RT akcelerovať, ale tu sa to proste neocení, pretože je pre niektorých ludí nad ich ludské sily za niečo NV pochváliť (radšej sa nasilu hľadajú "argumenty", na základe ktorých by sa dalo jej riešenie prehlásiť za zbytočné alebo mŕtve). Pretože aktuálne sa aj vďaka NV robí kopec práce, z ktorej budú ťažiť všetci. A aj napriek tomu (hlavne fandovia AMD) riešia stále iba svoju politiku neznášanlivosti voči NV a nedokážu sa ani trochu tešiť, že sa RT začína dostávať do hier a herných engine-ov a že konečne máme štandardizovaný spôsob jeho implementácie. Aj napriek tomu len čítam u tých istých ludí, ktorí to robia pri každej technológii NV, že je to na nič, malo prísť neskôr alebo nikdy (rozumej až vtedy keď to bude mať aj AMD, aby náhodou obľúbená firma nebola pozadu) pretože je RT podľa niektorých blbosť (očividne ani nevedia čo to RT je) alebo že je dokonca implementácia NV pre DXR mŕtva. To je ako tvrdiť, že je implementácia DX11 od NV mŕtva lebo je iná ako tá od AMD.
Ad PhysX - a tu je ten ďalší problém, že NV nikdy PhysX neskriplila. Je smutné, že sa na technických weboch dočíta človek takéto nezmysly aj po toľkých rokoch. NVIDIA kúpila od AGEIA riešenie v určitom stave - riešenie, ktoré používalo staršie inštrukčné sady a nebolo natívne multithreadové. A kto sa z toho obviňuje? NVIDIA. Klasicky. Pritom NVIDIA celý PhysX postupne prerobila od základov, zefektívnila ho citeľne oproti pôvodnému riešeniu, čo kúpila a ešte aj rozšírila jeho feature set a pripravila jeho akceleráciu pre grafické karty (ktorú opäť časom zefektívnila), čím značne rozšírila základňu, ktoru bolo možné na akceleráciu PhysX použiť. Lenže samozrejme AMD nemalo alternatívu, tak sa muselo vyrojiť kopec nezmyslov, aby to náhodou nevyzeralo, že má NV z niečoho výhodu. Tak vznikli fámy o kriplení PhysXu. Fakt si tu niekto myslí, že NVIDIA zobrala paradne a efektívne riešenie od AGEIA a prekopala ho tak, aby bolo čo najmenej efektívne na CPU? O akom kriplení sa to stále hovorí? Fakt už keď sme na technickom webe bolo by dobré prečítať článok od jedného z tvorcov PhysXu na túto tému a nešíriť bludy len preto, že sa hodia do tézy zlej a všetko ničiacej NVIDIe:
http://www.codercorner.com/blog/?p=1129
Gameworks je ako píšeš bežný toolset, ktorý sa používal na pridávanie grafických fíčur do hier. A musím zdôrazniť VOLITEĽNÝCH fíčur. Takže si ho kto chcel mohol vypnúť alebo k nemu ani nemal prístup. A aj napriek tomu, že to neovplyvňovalo konkurenciu, tak sa vyroijilo kopec mýtov o každej hre, ktorá Gameworks používala. Na technických weboch sa človek dočítal na fórach totálne nezmysly. GW "mohol" pomaly za všetky chyby a problémy, ktoré hry mali. Vymýšľali sa doslova hlúpe teórie na každú jednu hru, že čo v nej GW robí zle a to bez ohľadu na to, či vôbec použité moduly z GW mohli dané problémy zapríčiniť. A keď sa nedajbože niečo také aj naozaj stalo (pretože chyby sa pri práci stávajú) tak to bol jasný dôkaz bohviečoho.
Áno. PhysX, GW aj RT využíva na zvýšenie predajov svojich vlastných kariet. Ale čo je na tom zlé, keď ludia čo majú karty od NV majú možnosť prístupu k niečomu, čo AMD pre svojich zákazníkov neurobí? Ide o volitelné fíčury, ktoré ak sa ti nepáčia môžeš vypnúť alebo ignorovať.
Fakt je táto kultúra oprskávania a hate-ovania smutná. Ludia sa vôbec nevedia tešiť z nových vecí a riešia len svoje osobné vojny súvisiace s firmami, podľa toho, ktorú majú alebo nemajú radi. Sakra konečne sa dostáva Raytracing do hier a je akurát okolo neho od istej skupiny ludí len samý hate len preto, že ho tlačí NVIDIA a jej konkurencia ešte nemá svoje vlastné riešenie. Pretože skutočné dôvody na ten hate naozaj nie sú.
Hele nevymyslej si a nelzi Vladar zase. Ja nikde netvrdim, ze teploty nejsou dulezite.
Ja jen rozporuji tvoje FUDy na tema vysokych teplot a tvoje "prehrivani se" jadra.
Misto toho lhani, a uhybani by jsi mohl konecne napsat, co na tech CPU AMD je spatne. Kdyby jsi se umel cervenat za to lhani, tak musis svitit jak Rude namesti v Moskve :)
Ty jsi se povedl :)))
O jakych hysterickych "vylevech" to tu mluvis? Myslis tim svoje FUDy o tom, jak AMD CPU neboostuje, nebo FUD, jak ma 1,5+V vyssi napeti, nebo jak Intel CPU je rychlejsi? Nebo, ze si mam "nainstalovat HWInfo a uvidim"? Ktery tvuj vylev mas na mysli?
To ze ty nechapes prizpevek a prelozis si to jako "na teplote nezalezi"..kdyz ja pisu uplne o necem jinem a sice o tom, ze Vyrobce specifikuje nejake kombinace provozni teploty/napeti/spotrebu..coz je uplne neco jineho, nez to co jsi si z toho vybral.
Ze se z toho snazis vykroutit a pises mi neco o "hysterickych vylevech a rupnutych nervach"..to je opravdu vtipne :))
Ruply ti nervy? Dosli ti fabulace? Nemas zadnou odpoved na otazky, ktere ti opakovane kladu? :))
Snaz se trosku Vladar..to je bida i na intelfunboye tveho kalibru..
jen telegraficky:
1. RT: spíše než o akceleraci jde o optimalizaci (ovšem s dopadem na kvalitu). Pro mě je současná podoba RT zbytečná a škodlivá, je to jen další hřebíček do rakvičky zábavných her, protože to jen navýší náklady a znova ořeže počty herních studií.
2. PhysX, GWorks: že jej majitel bude vyvíjet a udržovat, to bych celkem očekával. Podstatná věc je JAK jej využije. A v případě nvidie tu nejde o technologii nebo standardy, ale v první řadě o dominanci. Nakonec tyto slibné technologie skončí vymačkané jako citron a zapomenuté, nepodporované. Problém to je v okamžiku, kdy si chceš zahrát starou hru, která kdysi "podporovala" tyhle "bonusy." Chápu, že asi budu minorita, ale tak to prostě vidím já.
A není to o nvidii jako takové (jak píšeš "hate"), ale o principech. Když AMD udělá podobnou prasárnu, budu to kritizovat taky - jenže ti jedou daleko víc cestou otevřenosti, viz FreeSync.
freesync je pekny priklad toho, kdyz nekdo vymysli jakoby standard a vykasle se na nej. necha to na vendorech. vznikaji pak paskvily jako "freesync" monitory 48-60Hz VRR. oproti tomu gsync, kde mas vzdy zaruku plne funkce od 30Hz do maxima monitoru vcetne LFC. tedy presne to nvidii vycitas pasuje naopak na amd, nikoliv na nvidii.
konkretne k gameworks/physx, nejake odhozeni a nepodporovani je zjevny nesmysl, kdyz mas v Metru Exodus gpgpu physx. Nvidia bude samozrejme physx dal vyvijet, ale pod otevrenym kodem. stejne jako ted otvira svoje architektury a drivery do linuxu.
nekde tvrdim, ze 4cip karta bude mit spotrebu presne jako 4 diskretni grafiky? neumis cist i pocitat pocitat nebo co? kolik myslis ze z cele karty zerou pameti? pocitano pred kaskadou, pokud ma karta 250W TDP tak ramky si vezmou max. 50, ale spis mene.
tazke ano, ctyrcip by zacinal na 800W. a to nepocitam, ze takova karta by mela vic pameti, tedy vic pametovych cipu.
48-60Hz je pořád lepší než stejný monitor s pevnýma 60 Hz. U takových LCD nebývá za tu funkci žádný příplatek a je to prostě bonus, který se pořád pro míň náročné hraní hodí.
G-Sync na takové hráče a monitory, které nesjou úplně herní úplně kašle a nabízí jenom 120-144HZ a vyšší LCD, které jsou ale o nějaké nezanedbatelné tisícovky dražší. A proti tomu je jsou FreeSync ekosystému desítky alternativ, pořád za nižší cenu, tak kde je problém?
Naopak proti tomu bonus freesync u nejlevnějších běžných LCD Nvidia měla* Nvidia jen těch 60Hz napevno. Tohle není nějaká stinná stránka FreeSync, tohle je IMHO stinná stránka ekosystému GeForce.
*Naštěstí Nvidia vzdala tu exkluzivitu g-sync a teď se dají ty monitory použít i na jejich kartách, protože tohle jim opravdu v ekosystému chybělo. (Ale pro jistotu to obrblávají v PRkách o tom, jak jsou ty FreeSync monitory nekvalitní a lidi by je neměli kupovat - když to trochu přeženu. No, to jsem se zase rozhorlil, pardon.)
@tynyt
1) Ešte pár rokov dozadu ukazoval Intel Raytracing demo, kde už vtedy hovorili o hybridnom renderingu. V tom čase bolo jasné ako to začne. Ja to beriem ako začiatok (prvý) krok k výraznejšiemu zlepšeniu počítačovej grafiky v hrách. Preto mi vôbec takýto postup nevadí. Urobí sa kopec práce, vybuduje ekosystém a RT sa postupne bude používať viac. A že sa bude používať zatiaľ iba ako súčasť určitých fíčur nie je predsa tiež problém. Pre viacero fíčur ako AA, AO či dynamické tiene existuje viacero alternatív, ktoré sa museli postupom času vybudovať a firmy to nezruinovalo. Nevidím žiadny dôvod prečo by to malo orezať počty herných štúdií. Hlavne keď to zapracujú do herných engine-ov.
2) V pohode. Chápem tvoje výtky ohľadom proprietárnych riešení. Ja osobne s nimi ale problém nemám kým sa budú používať ako nepovinné fíčury, ktoré sa nebudú vynucovať na používanie. Okrem toho čo sa týka PhysX-u, vďaka NV sa dostal do herných engine-ov a používa sa stále v hojnom počte. Len už to nie je GPU@PhysX, ale len CPU (ktorý má ale zasa oveľa širší feature set) a tak sa to marketingovo nepropaguje ako kedysi. Tiež sa PhysX používa aj na rôzne simulácie v profesionálnych nástrojoch (SamanCZ o tom tak rok dozadu písal). Ide o jedno z najlepších riešení na fyziku (minimálne pre hry určite). To, že sa celkovo v hrách nepoužíva lepšia fyzika skôr dávam za vinu nezáujmu vývojárarskych štúdií v tomto smere niečo meniť. Ani s Havokom či predtým Bulletom sa nerobilo v hrách nič extra. Bohužiaľ.
@hnízdo: Metro Exodus nepoužíva GPU@PhysX. Ide o CPU, ktoré je ale už postavené na SDK 3.x a nie ako prvé Metrá, ktoré využívajú SDK 2.x. Okrem toho dnešné CPU toho zvládnu aj v maisntreame viac ako pred 6 či 7 rokmi. Na tú fyziku, čo používa Metro Exodus očividne stačia.
ad Freesync vs GSync: Tu máte podľa mňa pravdu všetci a zbytočne niektorí nadávajú alebo podceňujú to druhé riešenie než preferujú oni. GSync má jasne dané vlastnosti, ktoré spĺňajú všetky monitory s danou certifikáciou. Dlhodobo išlo o najlepšie riešenie na trhu v tomto smere, ktorému sa vyrovnalo len veľmi málo Freesync monitorov. Toto by sa ale malo zmeniť s Freesync 2, ktorý by už tiež mal garantovať určité vlastnosti. Freesync monitory ale zasa boli lacnejšie a dostali sa k väčšiemu množstvu ludí. Tu NVIDIA podľa mňa zaváhala a mala doplniť podporu pre Freesync monitory skôr. A vytvoriť ďalšie využitie pre GSync modul, ktorý by jeho existenciu opodstatňoval vzhľadom na cenu.
“většinu času to ale osciluje mezi 65-70°” ?
Asi ti ušlo, že to nebylo to tom, jestli ti "věřím". Ty jsi neříkal něco, so bys zjistil/věděl. Ty jsi si to prostě "myslel" . Když je nějakej fenomén a my se ptáme, jak se to chová, tak to chce na to jít empiricky a ne se ptát filozofa v komentářích, jak si to on představuje, ještě když to vypadá, že je filozof poměrně zaujatej a tudíž by to nemusela být úplně intelektuálně poctivá úvaha.
Prosím ťa, každý kto pričuchol k OC ti bez filozofovania a z fleku potvrdí, že jadro pod napetím takmer 1.5V pri použití štandartného chladenia nemá šancu pod 75st. v záťaži a navyše u nových Ryzenov, ktoré sa smažia vo vnútri.
To že teplota oscilovala 65-70st. je už výsledok managementu procesora, skrátka zostrelil napetie, frekvenciu, výkon. A to je presne prípad o ktorom si písal v tom článku....
mvladar: to tvoje "napětí téměř 1,5V" neexistuje.
V okamžiku, kdy jádro zatížíš, tak tohle napětí jde okamžitě dolů (nikoli nahoru).
Tvůj problém je, že máš nasazené modré brejličky a všechno posuzuješ podle toho, jak to funguje u konkurence, jenže tohle není intel a ten procesor prostě funguje jinak. Stejně tak ty teploty.
To predsa nerozporujem, práve naopak o príspevok vyššie tvrdím presne to, čo ty.
J.O. si dostal do stavu blaženosti schválne zbabraným testom, kde vidieť voltáž i teploty, ale frekvencie/výkon ani náhodou, proč ? Takže daj dôkaz, test, kde procesor boostuje v ST na 4.4GHz pri nízkom napetí a nízkej teplote v plnej záťaži.
Ta jak, si schopný poskytnúť dôkaz ?