Celé je to o kryptotrhu. AMD se bálo, že dopadne jako při minulém krypto boomu a zůstanou jí plné sklady grafik, až boom poleví. Navýšení výroby po distribuci do retailu zabere několik měsíců. Jelikož to by pro ně bylo za současné situace velmi špatné, kdyby jim zůstaly ležáky na skladě, tak zřejmě nenavýšili nějak výrazně výrobu. Výsledkem byl totální nedostatek AMD karet na trhu a pro pro těžbu se začala kupovat Nvidie, u které je sice větší investice a delší návratnost, ale i tak se na těžbu vyplatí. Toť moje zkušenost za Q3, nakoupil jsem cca 50 karet obou výrobců.
Herní trh je už dost zasycen, nic nového na trhu kromě 1080Ti není. AMD prakticky nemá highend, takže tam NV kraluje. A protože mainstream AMD nebyl skladem a nebo byl za nesmyslné ceny, i v tomhle segmentu se na hraní kupovala výlučně NV.
Kdyby AMD mělo dost karet na trhu, situace by byla jiná. Neměla, těží z toho Nvidie.
Neni mi jasne, z jakeho duvodu se potrebujes navazet do Diit a autorim tam. Ze jsou lide, kteri maji emocni problem zkousnout Stacha, to bych jeste mozna pochopil, vzhledem k jeho banovaci politice. Proc se musis ale jeste navazet do dalsich jen ukazuje, ze nemas respekt k jinym narzorum nez ke svemu omezenemu videni sveta, jako male dite ve skolce.
Maťko narážal na prognostiky niektorých ľudí, ktorí tvrdili v čase, že sa trh nakláňa AMD a ide sa v ich prospech lámať. To bolo v čase keď NV podiel klesol postupne z nejakých 80% na 70%. Tuším bolo obdobie kedy malo AMD iba 18% podielu na trhu s dedikovanými GPU. Potom sa to ale ustabilizovalo a už sa to toči okolo podielu 70:30 v prospech NV.
Soucek je uplne stejne mimo realitu, jako Stach. Ten clovek uplne zere vsechen PR material, co AMD vypusti. AMD dava bombasticke jmeno doslova kazdemu prdu, ktery na GPU prida - udelame obdelnikovy cip misto ctvercoveho a nazveme to Hyper Square Architecture - HSA :D A druhy den mas od Soucka clanek, jak jsou obdelniky lepsi nez ctverce a diky tomu je architektura AMD o roky napred.
Jenze ten clovek si vubec neuvedomuje tu disproporcionalitu, s jakou AMD a Nvidia zverejnuji nove technologie. Nvidia ty technologie u hernich GPU jednoduse nezverejnuje. Zverejnuje jen veci, ktere musi (aby je vyvojari mohli pouzit). O tile-based renderingu jsme se dozvedeli jen nahodou, navic dva roky od nasazeni. Pritom je to prulomova technologie. Vzhledem k tomu, ze Nvidia dosahuje mnohem vyssich vykonu pri pouziti mensich cipu, navic s brutalne nizsi spotrebou, tam takovych technologii, o kterych nemame ani tuseni, bude mnohem vic.
Pak jsou tu jeho zcela absurdni logicke zavery - treba lepsi asynchronni shadery u AMD. Vychazi z porovnani her bez a se zapnutymi AS. A z vetsich zisku AMD usuzuje, ze jsou lepsi. To je neuveritelna stupidita. Duvod je ve skutecnosti zcela opacny - skvela efektivita u Nvidia GPU i bez asynchronich shaderu. Jednoduse receno, zapnutim AS uz neni tak moc, co by slo vyzdimat. Navic Nvidia grafiky jsou i s asynchronimi shadery porad rychlejsi, jen je o neco malo mensi jejich naskok :D
Je to ve skutecnosti spis spatna znamka pro AMD a jejich problemu s architekturou - a predevsim navrhem scheduleru, ktery se prave o efektivni vyuziti zdroju stara.
Hele Maudite, sorry. Vim, ze jsi si dal praci a hezky jsi to sepsal. Tak za mne mas za to plus. Ale jinak s tvym zduvodnenim, proc by mel byt soucek mimo, to opravdu ne. Argument typu, ze NV "zverejnuje co musi" a proto je soucek nevim co, protoze zverejnuje dokumenty AMD, ktere narozdil od NV jsou k dispozici..to jsou vymyslene argumenty typu..kdo chce psa byt, hul si najde. To nema smysl. To stejny s AS..je X ruznych clanku na ruznych webech a renomovanych, dokonce i jeden byl na extrahw, ktere se tomu venovali..a vetsinou dosli do stejneho bodu, ze AMD to ma zmaknuty lip. NV ma zase X jinych veci zmaknute lepe. Nechapu, co je na tom za problem a proc se musi kolem toho "valcit". Je to zase jen tvoje osobni zaslepenost NV (nechapu proc) , ktera te nuti to prskat na soucka.
Tobe se proste nelibi, ze zverejnuje veci k AMD, to je cely. Udelal by jsi lip pro sebe sama, kdyz by jsi se s tim v sobe radeji srovnal, nez to plival na neho.
Schvalne to, co jsem napsal, postni Stachovi na ten jeho blogysek jako citaci. Uvidis, co ti na to napise :D Zrovna dneska zas mlel tu jeho mantru: "je pravděpodobné, že nový test využívá některé z pokročilých funkcí, například Asynchronní Shadery, které jednoduše na GTX grafikách ne tak pokročilé Pascal architektury nejsou využitelné."
A jeste v tom ma chyby.
No ale zase je to post na Redditu... čistě principiálně bych spíš věřil tomu, co o tom řekne někdo, co to fakt programuje (tohle je jen náhodnej internetovec, počítám, ne někdo renomovanej? Takhle když to zběžně prolítávám, tak si ani nejsem jistej, jestli tam fakt mluví o tý samý věci...). Taky je to z doby, kdy proti té spekulaci stála jako protidůkaz "jedna alfa verze hry". To už tak docela neplatí že, máme víc her, 3DMark, už je z toho v podstatě běžná technika o které se postupně přestane mluvit, protože je standard...
A trochu pochybuju, že třeba to o problému s cenou context switche/paralelismem u Maxwellu, což byl ten důvod, proč na něm v těch hrách AS nezlepšovalo výkon, byl úplně jenom něčí výmysl.
At si zverejnuje, co chce. To jsi tu pointu ocividne nepochopil. Jeho pomylenost je v tom, ze on na zaklade tech zverejnenych technologii povazuje AMD za technologicky pokrocilejsi, ale vubec neuvazuje o rovine tech nezverejnenych. O tom rozhoduji fakta, ne nazory. A nazor, ktery se nezaklada na faktech, ale jen na nejakych PR slajdech, ten opravdu respektovat nebudu a budu ho cupovat :) Fakt je ten, ze Nvidia docela s prehledem dokaze drtit jakoukoliv konkurenci od AMD. A to s rok a pul starou architekturou. A to je ta jedina overitelna informace, na ktere se da nejake hodnoceni stavet.
Co se tyce AS, tak tam je situace jeste horsi, potoze Soucek nema technicke vzdelani a neni programator. To plati i pro nektere dalsi techweby. Kdyby byl a mel zkusenosti s D3D nebo OGL, tak by vedel, jak predchudci D3D 12 funguji. Herni engine totiz nedava prikazy GPU, co ma delat, ktere by se hned vykonaly (low-level). To dela s urcitou mirou abstrakce az prave D3D 12 nebo Vulkan. U D3D 11 a drivejsich to ale funguje jinak - herni engine rika driveru, kde jsou data a co s nimi chce delat (a to v hodne abstraktni, high-level podobe). Driver pak dane operace vykonava nebo nevykonava dle sveho uvazeni a poradi, tak jak to vyhodnoti jako optimalni. To zahrnuje treba i spravu pameti - v realu u D3D nikdy nemuzes predpokladat, kde se nejaka data (textury, meshe) nachazeji - jestli v graficke pameti, v systemove, nebo v obojim. V D3D 12 spravujes pamet sam, coz je vyhoda i nevyhoda zaroven (memory management je tezke udelat spravne, proto jsou tak popularni jazyky jako Java nebo C#, ktere to delaji za programatora).
Duvody pro to jsou jednoduche - u D3D 11 nepotrebuje programator vedet ty nejmensi detaily, ale jen high-level konstrukce (a streaming operace, jako treba shadery). O vsechno ostatni (low-level) se stara driver. U D3D 12 jsou naroky na programatory nekolikanasobne vyssi (i vysledny pocet radek kodu je nekolikanasobe vetsi), protoze muzou (a musi) resit vsechny ty low-level veci sami. A tady se dostavam k dalsi absurdite, kterou Soucek a Stach tvrdi - cekaji, az budou vsechny nove hry na D3D 12. Nebudou. Vyvoj komplexniho D3D 12 enginu si muzou dovolit jen velke spolecnosti. Takze hry od velkych studii mozna ano, hry od malych jen pokud si koupi velky komercni engine a nebudou delat modifikace. D3D 11 hry budou vznikat porad, protoze to ma svoje opodstatneni. Mozna by to v Microsoftu meli prejmenovat, treba na D3D High-Level a D3D Low-level. To by bylo vystiznejsi :)
Jak rozdil mezi D3D 11 a 12 souvisi s AS? Jednoduse. V D3D 11 zavisi vykon velmi silne na tom, jak dobre dokaze driver optimalizovat provadeni pozadovanych draw-calls tak, aby co nejlepe vyuzil zdroje GPU. Nvidia v tomhle sla opravdu velmi, velmi daleko (az do bodu, kdy vyrazne pozmenuje hrou navrzeny render cycle). To vyzaduje rozsahly GPU profiling, kdy se lidi z Nvidie divaji, jak dana hra renderuje, kolik,kdy a jakych draw-calls pouziva. Navic diky tomu ma jejich razeni plne pod kontrolou a muze je provadet v davkach, odpovidajicich jejich hradwaru (coz je u D3D 12 mnohem horsi, kontrola prechazi od driveru k vyvojari). Async Shaders/Async Compute je vicemene rozsireni toho konceptu, protoze jde o to, jak dane draw-calls vyhodnocovat co nejvic paralelne. Ten problem je velmi komplexni - vem si, ze beznym procesorum dela multi-threading semtam dost velke problemy i dnes, a to maji treba jen 2,4,8 jader a 16 vlaken. GPU ma jader treba 2000. Nvidia interne dela async compute uz od dob Fermi. Velkou cast toho problemu zvlada resit uz dlouho a interne v driverch (bez interakce programatora) to u D3D 11 titulu vyuziva i bez AS z D3D 12. Proto u Nvidie neni narust s AS tak veliky, ten paralelismus tam byl v dost velke mire uz i v D3D 11 (a driv). Rozhodne to neni tak, ze by byla implementace AS u Nvidie horsi. Naopak, pokud je workload napriklad rozdeleny do max. 32 front (u Maxwellu), jsou AS pro ten samy workload vyrazne rychlejsi, nez u AMD. U vice front dokazou GPU od AMD Nvidii dohnat (ale ne predehnat, pozor!!!).
"Maxwell is capable of Async compute (and Async Shaders), and is actually faster when it can stay within its work order limit (1+31 queues). Though, it evens out with GCN parts toward 96-128 simultaneous command lists (3-4 work order loads)."
https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/
Takze GPU od Nvidie (i dnes uz relativne stary Maxwell), zvladaji asynchronni shadery v nekterych situacich vyrazne lepe, nez AMD, v ostatnich minimalne stejne dobre. Jenze pointa je v tom, ze je z casti pouzivali uz u D3D 11, takze pri prechodu na D3D 12 neni zisk tak vyrazny.
Soucek a Stach jsou proste fandove, hltajici slajdy. Jejich technicke znalosti jsou na bodu mrazu. Sorry, ale to je tvrda realita. Pred nekolika lety, kdyz jsem na diit (tehdy jeste CDR) chodil, tak jsem mel snahu, pozitivni, jim vsechno podstive a trpelive vysletlovat, bez emoci. Jenze jak uz to u fandu byva, nebyl zajem. Tak ted uz jim ten domecek z karet uz jen cupuju. Aspon je to trochu sranda :)
Jisteze to byl vymysl. Je s podivem, kolik lidi se nad tim zakladnim predpokladem vubec ani nepozastavi. Cele to tvrzeni vychazi z pomeru zisku pri zapnuti optimalizaci (asynchrony shadery). A pak se predpoklada, ze vetsi zisk u AMD znamena lepsi implementaci. Jenze jestli ta pocatecni omptimalizace byla u obou stejna, na to uz jaksi zapominame. Odpoved je jednoducha, nebyla. Nvidia dokaze paralelne zpracovavat vice uloh najednou uz od dob Fermi.
To je to fanouskovstvi, ty cervene bryle, jak se rika. Vetsinou je to neskodne, ale v tomhle konkretnim pripade ze sebe ti lide delaji hlupaky.