Asi jsem natvrdlej, ale v tom starém článku o DirectX 12 Multiadapter je o tom, že tato technologie umožňuje zapojit do práce dvě naprosto různé grafiky i od různých výrobců a v tomto článku zase píšete, že to bude fungovat jen na kartách, co mají SLI konektor.
Nebo to mám chápat tak, že dvě karty od stejného výrobce (nepropojené SLI) nepůjde v počítači zprovoznit, protože ovladač bude vidět jen jednu? Takhle to funguje u spousty hardwaru, třeba se mi nepodařilo zprovoznit dvě stejné webkamery, protože ovladač vidí vždy jen jednu z nich.
Také jsem z tvrzení článku poněkud zmatený. Přesně tak, jsem DirectX 12 Multiadapter, jako vy pochopil také:
https://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview
Na YouTube jsou již roky videa, kde lidé kromě kombinací grafik od NVidia a AMD, jsou třeba 2x GF 1050, nebo 4x GF 1030.
Možná je to jen nějaké omezení oficiálních ovladačů od Nvidia. Pokud si vzpomínám, vždy tam používali nějaký patch.
Ono to kdysi vypadalo, ze hracu bude ubyvat a vyrobci grafik tvrde zaplaci, tudiz napad se dvema grafikama, kdy by hraci nekupovali jednu, ale dve, tudiz dvou nasobne prodeje, davalo to vyrobcum smysl. Hracum tolik ne, protoze ani CF ani SLI moc nefungovalo.
Dneska je situace jina, grafiky podrazily, hraci uz neubyvaji a vyrobci spis maji problem vyrobit tolik grafik, aby uspokojili vsechny hrace. Tudiz SLI ani CF uz nedavaji smysl ani jim.
Navic vec, ktera s tim muze souviset, ze se po pocitacich pozaduje, aby byly tiche. Pritom prave grafika dela obvykle nejvetsi bordel. Vzpomente pritom driv, jak nam ty PC hucely jak nejakej parni stroj. Dneska to neni, dneska chcete tichej uspornej procesor jako nabizi AMD a tichou uspornou grafiku, to se bohuzel NVidii naposledy podarilo s Pascalem. Nakonec proto ted nekteri cekame na listopad na zazrak, ze po 350W zbijecce NVidie prijde na radu usporne vykonne AMD jako takovy zazrak z cisteho nebe, ale osobne se tomu take spis usmivam, uvidime.
On niekto pri zmysloch fakt veri, ze sa najde jediny vyvojar, co sa bude patlat s komplikovanou multigpu implementaciou, ked jediny hardware, co to vyuzije je 2x3090, cize zostava, co len v grafikach stoji 3000 eur? Kolko potencialnych zakaznikov jeho hry to oceni, ci dokonca (co je vlastne jedine pre vyvojara naozaj dolezite) sa prave vdaka tomu rozhodne tu hru kupit? Dvaja? :-)
TecLab otestovali RTX 3090 s podivným, len 10% zvýšením výkonu proti 3080. Použili najlepší dostupný procesor i9-10900K pretočený na 5GHz + vysokotaktované RAM...
Zrejme malý nárast výkonu proti 3080 má na svedomí software, to by sa časom malo zmenit :
https://wccftech.com/nvidia-geforce-rtx-3090-teclab-review-leaked/
S tim SLI / CF je to skoda, ze se ta technologie nerozvinula jinak. Ono by bylo krasne mit neco jako "graficka NUMA" v dekstopu, zel to takto nefungovalo. Zaroven mi ani nedava smysl, aby si tuto technologii resili vyrobci her sami, o toto se ma starat driver (ridici SW / FW), vrstva nad tim - napr. hra - ma resit jen "mam dostatek pameti? mam dostatek vykonu?" a dalsi veci jako "optimalizace sceny".
Nové nVidia karty vyžadujú rýchle procesory, aktuálne dokáže najlepšie vybudit RTX 3080 Intel Comet Lake na +5GHz, ale už sa chystá aj Rocket Lake :
https://videocardz.com/newz/intel-compute-runtime-gets-rocket-lake-dg1-support
Toto som hľadal - ComputerBase otestoval export videa formátu 4K/59.94 fps + zložité efekty v Premiere. Implementácia HW akcelerácie Adobe je klasicky slabšia, taký Director bude znova hviezdiť, ale i tak RTX 3080 to zvláda perfektne, menej ako reálny čas:
- TR 3990WX = 5 FPS
- GTX 1080 = 9 FPS
- RTX 2080Ti = 54 FPS
- RTX 3080 = 70 FPS
Obrázok z testu :
https://mirovl.rajce.idnes.cz/4K_efekty_export/1461267498
@mibfox
..NV museli hacknout, jinak si nedkokazi predstavit, jak neco takoveho mohli sami postnout. Vzdyt preci NV (Intel) nemaji zadne problemy :))
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/397662/geforce-45638-game-ready-driver-feedback-thread-re/
ps: pripsevek je urcen pouze zeleno-modrym trollum, nikoliv normalne smyslejicim uzivatelum, kteri chapou, ze zadny produkt neni bez chyby :)
tombomino 21.9.2020 at 9:37
Eh, tech black a blue screenu je tam trosku moc. Takove drivery by nemel publikovat zadny vyrobce, ale nezijeme v idealnim svete. Shit happens. Tak uvidime, jak dlouho jim bude trvat fix.
Na druhe strane jsem pred nejakou dobou odinstaloval svoji druhou grafiku (AMD v tomto pripade) z pocitace, vcetne vsech driveru. V trayi mi zustala ikonka "Radeon", ktera za sebou nema zadnou utilitu, ale je tam. Takze to je zase "neschopne" AMD pro zmenu. Jenze pocitace jsou tak slozite, ze se nekdy vubec divim, ze po zmacknuti tlacitka se zacne neco dit ;)
nVidia reaguje/vysvetluje bezprecedentný, obrovský záujem o nové karty a tým akútny nedostatok produktu. Taký záujem jak na seba strhli nové GeForce proste nečakal nikto:
https://videocardz.com/newz/nvidia-publishes-q-a-regarding-geforce-rtx-3080-availability
Z toho jsem také zmatený, dosud jsem měl za to, že přes DX12 multiadapter jde využívat spolu jakékoliv GPU. Ale pokud je to tak, že i na toto je potřeba nějaké povolení v ovladačích, které NVIDIA opět záměrně blokuje, pak ať se jdou bodnout, protože s takovým přístupem žádný vývojář tuto technologii do své hry neimplementuje, kvůli těm 0,001 % zákazníků. A že jsou situace, kdy se zapojení výkonu více GPU může hodit - takové náročné tituly, zejména pro VR, tu jsou.
SLIFIRE: 390X + GTX 970 in DirectX 12 Benchmark:
https://www.youtube.com/watch?v=1Rl-nZ9tolA
S tým prvým odstavcom nemôžem úplne súhlasiť, ja si to pamätám asi tak, že v tej dobe ponúkala jedna GK stále nedostatok výkonu na FHD pričom hry v tej dobe boli dosť náročné, napríklad prvý Crysis a pod. Tak vy mysleli SLI a CF, pričom to bolo primárne mierené do snoob segmentu, to že tie výsledky neboli až také ako sa to sanžili prezentovať je druhá vec. Tretia vec je, že SLI/CF začalo byť tak trochu zaujímavé aj pre menej majetných hráčov a to spôsobom, že hráč si kúpil dosku (drahšiu samozrejme) s podporou SLI/CF k tomu jednu GK od strednej triedy po hi-end a plánoval že po jednom až troch rokoch dokúpi ďalšiu obdobnú GK z bazáru akú už mal v mašine. Samozrejme že k tomu z 90% (asi aj viac) nikdy nedošlo a buď kúpil úplne novú GK alebo celý comp. Jediný kto z SLI/CF skutočne profitoval boli výrobcovia základných dosiek a presne na tom základe začali byť "normálne" ceny dosiek +200€, teraz sa ten dojem potreby drahej dosky už márne snažia udržať, väčšinou na to používali techniky prémiovej sieťovej integrácie, v začiatkoch Wi-Fi a teraz 2,5-10Gbit LAN. /// K tej novej rade AMD, príkon top modelu je už v podstate +- jasný +300W, otázka je už len aký k tomu ponúkne výkon.
No taky mi přišlo zvláštní, že to dál bude omezené, když to bude implementované přímo v rámci hry. Ale zřejmě to Nvidia může uměle zablokovat (ono třeba takovéto že musíte mít desku s logem SLI nic jiného než umělé omezení nebylo). Jestli je ta komunikace mezi kartami m-stkem při těchle technikách multi-GPU nutná a Nvidia to teda omezuje (i) proto, to nevím.
Video testy RTX 3090, tak to je už iná káva. Procesor 10700K na 5.1GHz :
https://www.youtube.com/watch?v=GOgFtE3CVIA
Jo presne tak jsem si pral, aby to tak fungovalo. Slibovali, ze pod dx12 muzeme mit ruzne karty a budou spolupracovat.
Proc os nevyuzije i pamet na gpu? Dalsich 8gb pameti. Atd.
Vyprdli se na to:
Jednak moc prace to napsat a sladit
Druhak, kdo chce high end, musi vysolit dost penez a tecka. Zadne 2x mid gpu = 1 high end. To oni nechtej. Oni nam chtej prodat za nesmysl top kartu.
Oni te skasnou jako svine, ty si zahrajes, oni usetri na podpore.
Takhle bych to videl, proc nam to moc nikdy nefungovalo.
Pro 8K materiál v odkazovaném PudgetSystem benchmarku (DaVinci Resolve-based) bylo požadováno 20GB VRAM, takže ideálně RTX 3090 (možná RTX 3080@20GB).
Das Resultat in 8K ist darüber hinaus davon beeinträchtigt, dass der Testlauf nach 20 GB Grafikspeicher verlangt – die GeForce RTX 3090 mit 24 GB sollte hier schon allein deshalb deutlich stärker abschneiden.
Po predrazenem neschopnem strepu 2080Ti se neni cemu divit. Zeleni fanousci poslouzili jako betatesteri a jeste za to radi platili ;) Kouzenak se jen smal, jak prevazel penize nakladacem. A ted kdyz konecne.v Nvidii udelali grafiku, ktera je generacnim posunem, zeleni hykaji znovu a jeste intenzivneji.
CeKacko uz pripravuje, ze all-core 5,3GHz budou mit i LEDky na vetracich. A to vam rikam, CeKacko, jak tu svoji RTX 3090 nevytahnete alespon na 5,3GHz all-core, tak jste u me zabar, protoze Bedlodedek rikal, ze CPU je velmi podobne GPU, tak to musi jit!
@DD, na blogíšku si písal, jak sa budú hromadne testovať nové nVidia karty na Ryzenoch a samozrejme opak je pravda. Najnovšie úniky testov RTX 3090 znova Intel procesory 10980X a 9900KS:
https://videocardz.com/newz/even-more-nvidia-geforce-rtx-3090-benchmarks-leak
Ak urobis multithreadovy task, kde cast uloh spustis na GPU1 an cast na GPU2, ziadny vendor s tym nic nenarobi, leda zeby kompletne zakazal nainstalovat drivre, ak je v PC uz konkurencne GPU. Problem je, ze je to vlastne rovnako komplikovane ako multithreadove ulohy so vzajomnou synchronizaciou pre CPU (v skutocnosti este viac, pretoze u plynuleho a rovnomerneho fps si nemozes dovolit ani najmensi starving jedneho threadu na ukor druheho). Takze - kto by to pre tak mikroskopicky trh robil? Jedine snad v pro render aplikaciach, co sa predavaju za desat az sto tisice dolarov. To hry nie su ani nahodou.
Ololol. ;-) Ty asi nebudes moc programator, ze ano. Poviem ti tolko, ze problem je i len prekompilacia pre dva odlisne procesory, ktora by nahodou bezala 100% dobre (co sa casto nestava), pretoze tym automaticky ak mas akukovek chybu reportovanu pre dany typ CPU, musis ju testovat na nom, aby si si bol 100% isty, ze to nie je prave v tom. Pricom urobit bezchybny vseobecny (!), automaticky kod, co bude distribuovat (skoro optimalne) tasky pre dve gpu a vysledky mergovat, pricom na 99.998% zostav bude toto v skutocnosti neaktivne pac je tam GPU len jedno - no jasne. Kazdy radsej napise, ze to nepodporuje a odmieta sa s tym srat, to je prakticka realita.
@DD, rypat do nVidie, to je u teba ohromné prekvapko....som fest zvedavý, jak budeš na blogíšku obhajovat paper launch AMD produktov, keď sama Lisa pripravuje na problémy :
https://www.pcgamer.com/amd-7nm-is-tight/
Prý to již některé podporují, ale ty novější, mám dvě z nich, ale nezkoušel jsem (nepřišlo mi zajímavé přidat k GF 1060 jednu GF 640):
Rise of the Tomb Raider
Shadow of Tomb Raider
více zde:
https://forums.tomshardware.com/threads/dx12-or-vulkan-games-supporting-m-gpu.2766047/
sice by DisplayPort 1.4 a HDMI 2.1 bylo lepsi nez 1.2 a 2.0 ale to uz na me bylo financne mimo ... na HDR obsah musim prepinat na HDMI, ale ma i adaptive sync, takze by to melo jit az na 75Hz ... to jeste budu muset vyzkouset ... a vypada to, ze funguje i pres HDMI (adaptive sync) nejen na DisplayPortu ... takze na obcasne hrani to je pouzitelny, na HDR filmy taky, no mam radost, o tom adaptive syncu jsem se oficialne nemohl nikde docist
C.K. Maďar zase úřaduje z léčebny.
Ten blogísek v garáži z tebe žije, jak mu tam pořád chodíš, ale když je někdo blb a maďaro-rumun, tak to nepochopí.
Ostatním nadává, že tam lezou, ale sám je tam pečenej vařenej. Oni tě nikde nechtějí, že? Vyhodí tě dveřma a ty se vrátíš oknem :D
Na padrť jste z vlastní nechápavosti nebo neochoty si sám něco zjistit. Prostě jste jenom takový Pepa Prudič. Chtěl jste znát můj názor tak jsem Vám ho řekl. Nač si stěžujete?
Přitom by stačilo trochu zagůglovat po naší diskusi a našel byste dost informací. Prostě jste se ze včerejší diskuse nepoučil.
jj já jsem pepa prudič :D nejsem to já, kdo potřebuje googlovat a že jsem se nepoučil? Máš pravdu, kdybych se poučil, s retardem se nevybavuji. Ty jsi včera udělal ze sebe totálního idiota, kompleního, jako z reklamy a mě tady jdeš vykládat o googlu a poučení ... tak jo, klidně tě nechám máchat ve tvém přesvědčení jaký jsi génius a jací jsou lidé kolem tebe tupci ... tohle už není o egu, hodí se na tebe několik diagnóz a ani jedna není zrovna přívětivá ... můžeš se zlobit jak chceš, ten, jehož jméno se nesmí vyslovit, by měl z tebe obrovskou radost, sektář jako vyšitý ...
Kdybyste se poučil tak jste si mohl zjistiti třeba níže uvedené. Víte myslel jsme si, že Nvidia nedělala nic ohledně chipletů. Jsem opravdu rád, že ve mne Alich vzbudil pochyby a našel jsem tohle https://www.pcgamesn.com/nvidia/graphics-card-chiplet-designs Nvidia tedy připravuje chiplety o kterých tvrdíte jak jsou drahé a komplikované.
Já se nezlobím ale ani nejsem génius. Jsem překvapen jak jste mimo. Nejste schopen uvést jediný technický argument a celou diskusi jste okamžitě od DedekHrib 19.9.2020 at 10:51otočil do osobní roviny. Inu Pepa Prudič.
oslíku, já ale nikde nepopřel, že něco takové není možné, naopak, ne jednou jsem psal, že tohle je jediná cesta ... zbytech nechám na tobě, víc blábolit snad už ani nemůžeš ...inu, Oslič ...
a když už odkazuješ na nějaký článek o něčem, co se ví roky, alespoň si ho přečti, píší tam přesně to, co jsem ti napsal já (jinými slovy samozřejmě) ... blekoto
kamaráde, nechtěl bys mě řešit osobně ... brečel bys nonstop ... já jsem hrozně hodný člověk, nenávidím násilí, ale jak mě někdo nasere tvým způsobem, bez výčitek ti flusnu do obličeje ... takže žádný prudič, pouhý jeden z Newtonových zákonů ...
a s čím že mám souhlasit? Naopak, nesouhlasím téměř s ničím, co tady předhazuješ ...
Když jak píšete "Naopak, nesouhlasím téměř s ničím, co tady předhazuješ …" co je k nesouhlasení na mém příspěvku?
"Není co vysvětlovat. Přinášelo to více námahy než užitku. Ano tudy tedy přes spojování karet ala SLI cesta nevede. Vede ale přes rozsekání GPU na menší části co budou schopny lépe odvést zbytkové teplo tedy přes chiplety."
Nevzal jsem Vás na milost jenom jsem Vám dal možnost převést naši diskusi zpět na faktické argumenty. Opět jste to převedl do emoční roviny a stelete ty svoje zakomplexované zkraty.
Mám pocit, že budete asi hodně osamělý člověk. Tohle mi připadá jako byste si ulevoval ze svého neradostného života tím že vylejete svoji frustraci na někoho. A tím rozhodně nemyslím jenom sebe. Můžete si znova ulevit když nemáte jak slušně odpovědět. Když Vám to uleví v životě klidně si poslužte.
a že kdo to otáčí do osobní roviny :D DD ty nejsi jen hlupák, ty jsi vtipný hlupák, to není žádná osobní rovina, to je prostě fakt ... faktama se dá reagovat jen na fakta, ne na totální hlouposti ... cizí jazyky neumíš, přeložit si to neumíš, pak mi sem dáváš linky které popírají co jsi napsal a potvrzují, co jsem ti napsal já ... jaká chceš fakta, když nerozumíš psanému? Blekotáš o neradostném životě, blekotáš o frustraci ... evidentně soudíš podle sebe, oslíku. Že jsi exemplární hlupák, na tom není nic urážlivé ... jak by jsi nazval člověka jako ty? "Neerudovaný psychopat", nebo "na něco si hrající zbytečnost"? Nebo jak? Naznač, přizpůsobím se ...
Takže pojďme zpět k faktům. Dám Vám znova možnost fakticky zareagovat od DedekHrib 19.9.2020 at 14:02
Když jak píšete „Naopak, nesouhlasím téměř s ničím, co tady předhazuješ …“ co je k nesouhlasení na mém příspěvku?
„Není co vysvětlovat. Přinášelo to více námahy než užitku. Ano tudy tedy přes spojování karet ala SLI cesta nevede. Vede ale přes rozsekání GPU na menší části co budou schopny lépe odvést zbytkové teplo tedy přes chiplety.“
Alich 20.9.2020 at 9:44
Zdravím. Nikdy jsem nic takového nenapsal. Myslím (je to pocit, že bude potřeba další energie na "dopravu" informací a jejich koordinaci mezi chiplety) si že potřebují či spíše budou potřebovat větší energii. Ani to nejsem schopen odborně posoudit. Já jenom tvrdím, že cesta vpřed v oblasti GPU jsou chiplety a potvrzují to zprávy jak od AMD tak od Nvidia. Stejně tak tomu nahrává podobnost CPU a GPU i to že na CPU už chiplety máme.
Princip je následující: Uvědomte si že výrobní technologie zahustili obvody tak, že při se snadno uškvaří. Na stále menším prostoru vzniká obrovské množství odpadového tepla. Cesta je rozložit teplo do prostoru - chiplety.
už ti to tady někdo napsal ... ta podobnost cpu a gpu je jen optická, dvě placky, nijak není podobné vůbec nic. Nejde propojit gpu tak, jak jsou propojené cpu chiplety, hledá se technologie u všech tří firem, kdo a kdy ji nalezne první, je ještě ve hvězdách, každá z firem má svoje představy, na něčem pracují ... propojit gpu několika málo cestami řešení není, cpát mezi chiplety nějakou propojovací jednotku vše snad ještě zhorší, více cest, víc prodlev, víc tepla
DedekHrib 20.9.2020 at 10:07
Ciplety to teplo "nerozkladaji", naopak pridavne cesty a logika, jak jste sam psal, to teplo bude zvysovat. To, co se firmy pomoci cipletu snazi resit je primarne cena. Proc? Jednoduse proto, ze vyrobit hodne vykonne GPU a CPU souvisi i rozlohou a vetsi cip obecne znamena vetsi nachylnost k poruse. Pokud budete mit treba cipy o velikosti 4 na wafer a poruchovost bude 50%, tak mate z jednoho waferu 2 cipy. Pokud tech cipu tam budete mit 100 a poruchovost bude 20%, tak mate porad 80 cipu. Pokud by 1 velky cip byl ekvivalentni treba 20 malym, tak misto z velkeho monolitu mate vyteznost 2 cipy, z malych cipu (cipletu) mate vyteznost 4 (80 / 20).
Jedine, kde lepe distribuujete teplo je o kousek vetsi rozloha cipletu, ale takovy nemuzete dat zase moc daleko od sebe - logicky by dlouhe cesty znamenaly degradace frekvenci (rychlost naboje) a take to mmj prinasi radosti s chlazenim v zapouzdrenem cipu (bylo jedno hezke video o tom, jak pastovat Threadripper prave kvuli cipletum - protoze pri klasicke metode pak dochazelo k nepokryti casi pouzdra a tedy zvyseni teploty na cipu).
A jeste k tem cipletum GPU vs. CPU. Ano, podobnost tam je, ale logika a propojovaci logika techto dvou vypocetnich kremiku je podobna asi jako vysokozdvizny vozik s kolobezkou - oboji maji kola).
gogo1963 20.9.2020 at 10:13
Zažívám příjemné překvapení.
Promiňte ale to že to je schůdná cesta asi vědí mnohem lépe u Nvide než rádoby odborníci jako jsme my dva. Pracují na chipletech viz https://www.pcgamesn.com/nvidia/graphics-card-chiplet-designs nebo u AMD viz https://www.tweaktown.com/news/74274/amds-next-gen-rdna-3-revolutionary-chiplet-design-could-crush-nvidia/index.html
Jinými slovy i když jsou některý Vaše argumenty rozumné jsou to jenom parciální problémy které jsou řešitelné. Chiplety je možné zavést i GPU a jejich aplikace přináší více užitku než problémů.
Alich 20.9.2020 at 10:29
Víte, že říkáme skoro to samé? Já jenom používám termín "Ciplety to teplo rozkládají do plochy" a Vy píšete "lepe distribuujete teplo ". Co píšete je logické a souhlasím.
A s těmi GPU a CPU i s tím s Vámi souhlasím. Ano vysokozdvižný vozík s koloběžkou – obojí mají kola. A k tomu dodávám u CPU a GPU mají možnost použít chiplety.
psal jsem už předtím, že čiplety u gpu jsou ekonomicky neúnosné, alespoň zatím, v tom článku se to píše několikrát a na závěr ... "But when it comes to gaming GPUs I’m not convinced we ever will. With CPUs it’s a lot easier to combine multiple chips together to work for a common processor-y goal on their specific workloads" ... co chceš víc slyšet?
u profi karet to bude pravděpodobně jinak, protože i jejich cena je o řád vyšší, zatím je tam "nvlink", kdo ví co příště ... dle mého názoru, dokud půjde zmenšovat proces, do té doby budou monolity hrát prim ...
gogo1963 20.9.2020 at 10:47
Chiplety jsou ZATÍM pro Nvidiu ekonomicky neúnosné. To slovo zatím je velice důležité. To že chiplety vyvíjejí dokazuje, že předpokládají změnu stavu. (Jinak by nepracovali na chipletech ale dělali něco rozumnějšího )
Proč? Malé chipy jsou násobně levnější na Výrobu než veliké. Protože výroba menšími procesy má stále vetší a větší problémy musí se jít cestou chipletů. Jinak si v budoucnu prakticky znemožnili v jedno chipu dodat vyšší výkon.
Jestli Nvidia něco neudělá s chiplety tak se může dostat do podobné situace jako Intel s procesory. Stejně jako nemám radost z vývoje na poli procesorů tak bych se nechtěl dožít stejného výsledku i u GPU.
Ale k tématu SLI umírá chiplety nastupují. co Dodat více?
poučovat mě svými pseudofakty nemusíš, psáno je jasně, přímo z nvidie, nepředpokládají, že se někdy čiplety dostanou do herních karet ... pokud se něco změní, dají vědět ... a že je kousek něčeho na výrobu levnější neznamená, že bude levnější celek ... a ta poslední tvoje věta je zcela mimo mísu ... bez sli grafická karta funguje ...
gogo1963 20.9.2020 at 11:26
Nechte si prosím to označení pseudofakta. Logicky je rozporujte ale nedemonstrujte to.
A proč u Nvidie tedy vyhazují ve vývoji chipletů peníze? Co když tohle je jenom lež která má za cíl oblafnout konkurenci? Jestli je ten pán pracuje na vývoji chipletů a svá slova myslí vážně tak učinili kozla zahradníkem.
pseudofakta se jinak nazvat nedají ... nevíme, za co nvidia vyhazuje peníze, že dělá na čipletech neznamená, že nedělá na mnoha jiných věcech, třeba stackování čipů, nebo jiných způsobech ... že na tom dělá i AMD neznamená, že to dotáhne do zdárného konce ... Intel taky dělal na 10nm procesu 8 let a pořád tady pořádně není ... takových dělání je u všech firem hafo, nic neznamenají, nic nedokazují ... a že někdo něco nepochopil :D tak to máš pravdu, já to ale nejsem ...
Jestliže podle Vás chiplety nejsou budoucnost pak jste to právě Vy kdo nepřímo říká, že Nvidia vyhazuje peníze za chiplety. Nvidia ale chiplety neodtroubila tak podle ní (a ne jen podle ní) budoucnost mají a díle na nich pracuje.
Přece by Nvidia konkurenta od AMD nepochválila za chiplety třeba opěvováním jejich budoucnosti.¨
A ješte tady https://www.guru3d.com/news-story/nvidia-next-gen-gpu-hopper-could-be-offered-in-chiplet-design.html
nvidia nic neodtroubila, nic nepotvrdila, jen se píše, že čiplety mají smysl v určitých oblastech, při zpracování velkého objemu dat, nebo deep learningu, ne u herních grafik ... čemu na tom nerozumíš? A že podle mě něco nemá budoucnost, to jsi vydedukoval z čeho? :D
další věc je, vyjasnit si slovo "vývoj" ... taky se v tom článku píše, že jsou nějakým způsobem na papíře a že pokud to bude aktuální, posunou ty nápady návrhářům čipů ... nic o vyhazování peněz za čiplety nikde není ...
k tomu dodatku ... klíčové slovo "mohlo by být" ... nic víc
Chytejte se čeho chcete ale důkazy probublávají všude. Dovolil jsem si jenom pár z mnoha odkazů které jsou k dispozici a to od nejen od Nvidie ale i od Intelu a AMD. SLI umírá nastupují chiplety.
https://www.techquila.co.in/nvidia-might-move-to-an-mcm-similar-to-amds-ryzen-chiplet-design-with-next-gen-hopper-graphics-cards/
https://seekingalpha.com/article/4321159-nvidia-faces-huge-threat-from-intels-chiplet-gpu-approach
https://fuse.wikichip.org/news/2456/nvidia-inference-research-chip-scales-to-dozens-of-chiplets/
https://www.hardwareheaven.com/amd-a-gpu-with-chiplet-for-rdna3/
https://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf
https://www.tomshardware.com/news/nvidia-msm-inference-chip,39780.html
https://www.youtube.com/watch?v=huK37xcFFL4
Zaskočilo mne to kolik jich je na netu a že už se to k nám nedostalo.
čeho kolik je? Všechno o tom samém, přebrané ... a že se to k nám nedostalo? S tebou nemá smysl rozebírat to ... kdejakých blafů je všude možně plná ... dále ... předpokládat, že dva čiplety každý o 200mm2 budou dávat dohromady stejný výkon jako jeden 400mm2 monolit asi nebude reálné ... nefunguje to tak, jako u cpu ...
DedekHrib 20.9.2020 at 10:44
"Víte, že říkáme skoro to samé? Já jenom používám termín „Ciplety to teplo rozkládají do plochy“ a Vy píšete „lepe distribuujete teplo „"
Prave nerikam to same. Duvod, proc Nvidia, AMD, intel a jini zkoumaji pouzitelnost cipletu je primarne kvuli vyteznosti. Velky kus kremiku je proste problematictejsi vyrobit, nez ten maly. Naopak teplo se diky cipletum bude zvysovat, protoze musite jeste pridat logiku pro propojeni a samotne propojeni. Plocha u cipletu sice trochu vzroste vlivem pouzdreni (ctete: okraju), ale ciplet ABCnm bude vyzarovat to stejne teplo na mm^2 jako monolit, jen bude patrne mensi. No a proto, abyste dosahnul stejneho vykonu, tak budete muset mit minimalne tolik cipletu, na kolik byste rozdelil ten monolit (v praxi to bude jeste horsi, staci se podivat co zpusobuji ciplety u AMD vs. intel monolit co se celkoveho vykonu tyka). Tedy vysledne teplo z cipletoveho cipu bude vetsi, nez z monolitickeho a distribuce toho tepla (plocha) nebude o tolik vetsi, takze zrejme bude tezsi ten cipletovy cip uchladit, nez kdyby byl monoliticky.
To co označujete jako "blafy" napsali lidé kteří byli mnohem chytřejší a odborníci než my dva dohromady. Zase jenom znevažujete myšlenky ostatních snad aby Vaše ego mohlo excelovat. Je to smutné excelování. Je to i absence pokory a úcty tak do očí bijící. Dělejte s tím něco.
Debatu s Vámi končím a jdu se věnovat něčemu užitečnějšímu. Myslím si, že bylo úspěchem to jak jste omezil ty svoje výpady a v klidu jsme to dotáhli povídání až sem. K tomuhle se vrátíme až budou chiplety na GPU. Až se po tomhle pohřbu SLI se narodí i chipletová GPU.
Alich 20.9.2020 at 13:01
Směšujete dva termíny. Celková spotřeba grafické karty (celkově vyzařované teplo) a vyzařování na plošnou jednotku chipu (to byste viděl v termovizi). Chiplety dělají místo jednoho tepelného ohniska několik menších ohnisek od sebe vzdálených. Místo jednoho velkého ohne je několik malých ohníčků od sebe vzdálených.
Rozumíte mi?
a tohle je další z tvých blábolů ... Alich nic nesměšuje, píše docela jasně a myslet si, že 4 rozpálené čiplety udělají méně tepla než jeden monolit, to si můžeš myslet opravdu jen ty a tvůj idol dd ... rozvaděč tepla rozvádí, u čipletů bude jen odvádět ... douč se fyziku a kde co ...
hřibe, pořád někoho vyzýváš, aby si něco uvědomil ... uvědomuješ si, že jsi korunovaný vůl? Ani ne kvůli tomu, co tady plácáš, ale jakým způsobem se snažíš ty svoje nesmysly prosadit ...
na závěr by ses mohl pokusit vysvětlit mi, co že si to mám užívat, když ztrácím čas s takovým volem?
... lživá dogmata :D bože
Alich 20.9.2020 at 14:43
Celkovou spotřebu jsem zmiňoval abyste si uvědomil, že Vy o ni mluvíte ale neuvědomujete si to. To byla snaha o vysvětlení toho efektu oddělených ohňů.
Jestliže ohně oddělíte na několik menších ve kterých spálíte více paliva než v tom centrálním tak mezi ty ohně můžete vložit mnohem více teplovodiče kterým odvedete mnohem více tepla po mnohem větší ploše do prostoru. Díky tomu vloženému teplovodiči (je to takový heatsink) snížíte teplotu oněch malých ohňů. Chiplety se méně zahřívají. To je ten princip kterému nerozumíte nebo nechcete porozumět.
Dostalo mne to poděkovaní Gogovi. Děkujete inkvizitorovi ta jeho lživá dogmata a nechcete pochopit jak tomu je. Je ta Vaše cesta užijte si ji.