kopa zbytocnych kecov, dajte sem vysledky tolko a tolko fps v tej a tej hre, taka a taka spotreba. Potom to porovname s 1080, ked bude vysledok ze vykon = 1,5*1080, spotreba = 0,x - 1*1080, tak bude dobre. Ale co ma znamenat ta poznamka o karte s 300W a 1500MHz???? ved to je 1,7*1080, uplne nepripustne.
V clanku se nekolikrat pise neco ve smyslu "AMD pridalo feature X, kterou Nvidia uvedla v generaci Maxwell/Pascal", od tile-based renderingu az po podporu Int8/FP16 - tolik k udajne "pokrocilosti" architektury GCN :D
Vzpominate, jak jsem asi tak 2-3 mesice nazpet psal, ze jestli chce byt AMD konkurenceschopne, musi se zastarale GCN zbavit? A jak se na me AMD trollove sesypali, jak je GCN skvela a uzasna? :D A ted to tu je a mel jsem pravdu - AMD zahodilo GCN a dela radikalne novou architekturu a doplnuje features, ktere ma Nvidia uz dve generace. Co na to tynyt, del42sa, warda, skaven123 a ti dalsi kluci usati cerveni? Nestve vas, ze znam AMD lip nez vy? :D
Jak si to tady ctu tak vetsinu spiny tady hazi lidi kteri podle vseho nikde nic jineho necetli. Nejdrive si prectete informace ohledne arch GCN, VEGA a RYZEN. RYZEN ma prednost je to stezejni produkt, VEGA bude prelom Q1 a Q2. Vykon je nad GTX 1080 na 100% a ani GTX 1080Ti je nedokaze porazit a to je jeden z duvodu proc ji nVidia vubec neoznamila. VEGA ve spolupraci s procesorem RYZEN rozpohybovala Battlefront: Rogue One ve 4K na 60FPS a to bez propadu, vic ani nejde protoze tam je lock na tech 60FPS. GTX 1080 to nedokaze a to je fakt. Tak to je dukaz pro ty kteri porad tvrdi ze to FAIL.
Iný súdok kávy, ale len nech to tu frčí :)
http://www.guru3d.com/news-story/amd-8-core-ryzen-processor-spotted-running-3-6-ghz-base-and-3-9-ghz-turbo.html
Tak niečo na mini spracovanie Jano.
A Maudit môže ešte nejako zhovadiť všetko okolo AMD. Fun Flame War
Add: https://mobile.twitter.com/CPCHardware/status/817044837358780416
F4 is already here @ 3.6/4.0
Redaktor Videocardz vs jeden užívateľ. Hádam pre niekoho prínosné.
TristanSDX • 15 hours ago
WhyCry
Something from green camp ?
2 • Reply•Share ›
Avatar
WhyCry VideoCardz.com TristanSDX • 15 hours ago
1080Ti was meant to be shown at CES, but NVIDIA pushed it back. At least that's what I heard.
Even Gigabyte is begging Jensen to launch 1080 ti..
A Glass of Water WhyCry • 15 hours ago
Was the source of that legit or just offering hypotheticals?
2 • Reply•Share ›
Avatar
WhyCry VideoCardz.com A Glass of Water • 15 hours ago
I usually don't listen to speculation. For sure it wouldn't be considered as a source.
9 • Reply•Share ›
Avatar
A Glass of Water WhyCry • 15 hours ago
Thanks for the reply. Y'know, that one comment has proven that Nvidia really is a bit well - shocked, I think is the right word, about Vega. I'm pretty sure NV just assumed AMD would shrink FIJI and make another Fury X with HBM2
IMO of course.
4 • Reply•Share ›
Avatar
WhyCry VideoCardz.com A Glass of Water • 15 hours ago
I think they learned Vega10 is really close performance wise and decided to tune it up a bit. Well, technically they had no reason to launch it now, other than actually making their presentation interesting.
https://www.youtube.com/watch?v=Y8tDaPLHxiE
Hands LITERALLY On AMD Vega!
Kde jsi něco takového psal a k tomu současně, kde jsem psal, že je GCN skvělá a užasná. Prosím o důkaz a to hned. Jinak tě s klidem označím za lháře, což jsi skoro vždycky.
A pokud se nemýlím, tak o Vega řadě jsi tu mluvil jen jako o failu, defacto nástavbě Polarisu, nikoliv jako o nové architektuře.
Já sice nevím, proč jsem si to vysloužil, ale být v jedné grupě s del42sa mi až tak nevadí. ;-)
Mimochodem - já jsem GCN nikde nechválil, ale považuji ji za architekturu, která řeší problém hrubou silou (což považuju za pozitivní, neboť se tento přístup historicky prokázal jako úspěšný, a to nejen v oblasti grafik) a zároveň se domnívám, že AMD dlouhodobě staví své HSA na GCN, byť se toto vyvíjí. Takže mám stále za to, že i Vega bude mít GCN (a prezentace nic zásadního v tomto ohledu neodhalila, že by přišlo něco víc než jen evoluce).
Pokud bych to měl shrnout (a bojím se, že tvá zelená mysl to stejně nepochopí), tak zahozením GCN si AMD nepomůže, naopak je IMHO vidět, že GCN stále vylepšují, a to i o techniky, které úspěšně znovupoužila nvidia (dlaždicový rendering). Jenže tohle tu je věky, a probíhá to oběma směry (což při svém zeleném zákalu asi nevidíš).
"Vykon je nad GTX 1080 na 100% a ani GTX 1080Ti je nedokaze porazit"
A toto bratia a sestry je pravá viera. Pravý červený boh AMD ešte ani neposlal svoje dietko do sveta (Vegu) ale tý z vierou sú už aj tak neochvejne presvedčený na základe pár "správe vybraných faktov" od AMD že VEGA bude lepšia a proste lepšia než rovnako nevydaný Zelený syn temnoty GTX1080Ti.
Naskytá sa už len jedna otázka - je to tá pravá viera alebo skôr ľahkovernosť?
Jenom bych podotknul, že mi to nepřijde jako zahození GCN, ale spíš jako "GCN 2" (kdybychom ignorovali, že podle AMD byl Polaris GCN 4 a přečíslovali si to tak, že předtím bylo GCN 1.0 - GCN 1.3). Přijde mi, že je to většinou postavené na podobných principech a koncepci, podobně jako třeba Sandy Bridge -> Haswell. Nepřijde mi, ž eby to byl předěl, kdy se zahazuje celá koncepce a začíná se odznovu (jako Excavator -> Zen).
BTW díval jsem se a GP104 prý nemá jednotky schopné dělat FP16x2. Má jenom normální FP32 a *navíc* jednu jednotku FP16 na každý klastr... takže když se výkon v FP16 změří, tak je poloviční proti FP64, které už je na tom GPU samozřejmě samo pomalé. To jsem teda při tom uvedení nezaregistroval a dost mě to zaskočilo. Není to prej tak, že by Nvidia ty instrukce uměle softwarově osekala, ale přímo to tak je implementované v HW, údajně (říká AnandTech).
Což je teda docela neštěstí protože to může znamenat, že vývojáři her nebudou FP16 používat a tzn. se nebudou nikde realizovat ty možnosti zvednutí výkonu, které to dává. Leda asi na PS4 Pro.
GCN a konkretne Vega ma zase techniky nvidia postrada. Rozhodne to neznamena, ze by nektera byla horsi, jsou proste jine, co se casu tyce, tak AMD starne pomaleji, ale muze se to vylozit i tak, ze ziskavaji na vykonu v case kvuli optimalizacim v ovladacich, ktere nvidia umi aplikovat rychleji.
Zbavit se GCN je holy nesmysl, GCN je architektura navrzena pro konzole a low level API, dost pochybuju, ze by Sony nebo microsoft stali o jinou architekturu, kdyz ji sami pomahali navrhovat a financovat vyvoj. AMD na v GCN vynikajici architekturu kombinujici skvely vypocetni vykon a konkurenceschopny herni vykon. Vega je v tomhle ohledu pomerne znacny skok dopredu, ale zaroven si drzi versatilitu GCN. AMD asi tezko bude delat architekturu zvlast pro konzole a zvlast pro PC, navic kdyz jsou obe platformy PC. To by nedavalo smysl, tak jako nedava smysl vas nazor zbavit se GCN.
Na podobne tvrzeni je trochu brzy. Vega 10 bude zcela jiste vykonejsi nez 1080, ale i Titanu XP si nejsem jisty, asi to bude zalezet dost na dane hre. Faktem je, ze Vega je parametrove lepsi, ovsem s nizsimi takty, ma lepsi pametovy subsystem. Bude s 1080Ti rozhodne souperit, jestli bude mirne pomalejsi (AMD ma tradicne ve vysokych rozlizenich dobre vysledky) nebo rychlejsi je uz celkem jedno a rozhodne to pouze o cene. AMd rozhodne nepujde s cenou hodne dolu oproti konkurenci, ne u tohodle produktu.
Nechci ti kazit radost (vlastne jo), ale GTX1080 s aktualnimi drivery taky dava Battlefield ve 4k pri ~60fps :) Jasne, po uvedeni to davala s cca 50fps, ale to uz je skoro trictvrte roku. Pretaktovane edice GTX1080 davaji Battlefield ve 4k dokonce pri vice nez 60fps prumer ;)
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/8.html
"Well, technically they had no reason to launch it now, other than actually making their presentation interesting."
Přesně tak. Teď se prodává GTX 1080 za 600-700 dolarů, a na záapd od nás jsou schopný nějaký pracháče zlomit i na Titana XP. Kdyby GeForce GTX 1080 Ti zase uvedli za 650 USD jako GTX 980 Ti (i když ona by asi zase byla nejdřív bonusová funders edition), tak by museli GTX 1080 zlevnit. Ve výsledku by si v tržbách ani nemuseli pomoct a marže by se asi zhoršila. A bylo by těžší někoho zlomit na to toho Titana XP za 1200.
Čili tohle IMHO nemají motivaci dělat, dokud nevyjde nějaká konkurence, která by na ty modely GP104 zatlačila. Podle mě vydají zase v malém předstihu před tím, než by měla přijít ta Vega.
A co tedy podle tebe dělá nvidia? Maxwell byl trochu nedochůdče, tak jej museli pro Pascala "opravit" po vzoru GCN, aby aspoň trochu zvládal DX12.
Tys asi žádnou GCN grafiku v životě neměl, protože rozdíly mezi GCN1.0 a poslední iterací jsou docela velké, nicméně, a to je pozitivum platformy GCN, základ je totožný. Tím lze velmi dobře podporovat starší architektury, a tak si uživatelé prastaré HD7970 mohou užívat efektivního výkonu v DX12, ta karta je prostě stále použitelná, a to i v nových API. Narozdíl od GTX680, která má podporu pouze na papíře, v reálu se propadá.
kolik ti je? Sedm? Prý "a to hned" :DDD Včera vám to s Tynytem šlo celkem dobře, dneska zase perlíte ... Každopádně bude Vega super čip, z jakého důvodu, to ponecháme odborníkům, akorát se malinko bojím té spotřeby. Víc se těším na Rizen, pokud se potvrdí 3,6-3,9 frekvence, bude to velice slušná konkurence ...
ten komentar nieje namiereny proti autorovi clanku ale proti AMD! Nieje to ziadne hadzanie spiny ale jednoduche konstatovanie. Mna nezaujima ze zvysili vykon v xyz hocicom, mna zaujima ze doom 1920x1080 ma xyz FPS a spotreba je abc W. Dalsi dolezity ukazovatel je, ze asus strix stoji fgh€.
Plus sú trošku zaskočení vegou. No však uvidíme. Volta podľa komentárov ešte nie je na rade, ale to vôbec nevylučuje Pascal Refresh.
Nvidia má celkovo dobre zvládnutý business model a preto podojí, čo sa dá a presne podľa toho aj bude manévrovať.
Takže na leto sa môžeme celkom tešiť na Pascal Refresh vs Vega, ak sú ozaj v NV AMD zaskočení.
Ano je to tak. Anand má pravdu. Ty packed instruction math FP16 umí jen jediné GPU od Nvidie a to GP100 (možná i Tegra XP, teď nevím). GP104 má "obyčejné" FP32 jednotky a jen jednu jedinou 2xFP16 jednotku v klastru. Já se osobně domnívám, že využití FP16 ve hrách určitě přijde, je ale otázkou v jakém časovém horizontu, takže to až tak nemusí NV vadit, ale mohla by to být i teoretická výhoda Vegy.
Zajimalo by mě spíše co je pravdy na tom, že i GP100 má mít údajně ROPs a Polymorh engine, čili by hypoteticky mohla být vydaná jako herní karta ??? To by bylo docela překvapení....
http://www.anandtech.com/comments/10516/nvidia-announces-quadro-pascal-family-quadro-p6000-p5000/509590
Doteď? O čem to píšeš? Poslední GPU s hrubou sílou byl Fermi a velký Kepler.
Od té doby nvidia jde cestou optimalizace jak na úrovni GPU, tak na úrovni driverů. Je to ostatně vidět velmi dobře na (ne)optimalizování kódu driverů starších generací v novějších releasech. Když to funguje (tj. nvidia upraví drivery a zároveň donutí vývojáře her k implementaci svých optimalizovaných technologií), je to super a sexy. Jenže to jsi v područí výrobce a když si usmyslí, že kartu zařízne, tak s tím moc nenaděláš. U AMD je to tak, že ty staré karty sice podporu nemají, ale fungují - možná ne optimálně, ale poměrně lépe než jejich nV ekvivalenty. Toť má zkušenost.
Rosťo, to slyším poprvé, že hrubá síla = nVidie, kde si to vyčetl? Ne, fakt by mě to zajímalo, protože se dá najít desítky článků (rok, dva roky staré), kde se píše, že nVidia na to jde chytře přes odladěné ovladače a AMD jde na to hrubou silou. Už jen teoretické TFLOPs, což se +- rovná hrubé síle měla vždy větší AMD
Tvoje tvrzeni o Maxwellu jako nedochudceti bylo prave uspesne vyvraceno. Nebo je to nahoda, ze prave featury z Maxwella nyni AMD implementuje do Vegy? Nebo je nahoda, ze Nvidia zvlada podavat s Maxwellem mnohem lepsi vykon pri mnohem mensi velikosti cipu? Na jedne strane tvrdis, ze GCN dela veci hrubou silou, oproti pokrocilym optimalizacim Maxwellu/Pascalu, na druhe strane tvrdis, ze GCN je pokrocila a ne zastarala? To je totalne k smichu :D Zadna architektura, ktera dohani sve nedostatky hrubou silou a klidne o 30% vetsim cipem, se neda nazvat pokrocilou. ;)
A koho zajima, ze HD7970 dokazala dohnat GTX680 v DX12, skoro pet let po jejim vydani (GTX680 byla vydana uz 22. brezna 2012), kdyz navic existuji stovky DX11 her, kde ma GTX680 vykonu dostatek, ale ani ne deset her, ktere pouzivaji DX12? Jsi cim dal tim smesnejsi. Nevim jestli je to tou zvetsujici se zoufalosti ze Zenu a Vegy v nedohlednu, ale mel bys s tim neco delat.
Ale stejne je na tom kepler-maxwell-pascal. Tam proste spouta veci zustava a meni a vylepsuji se urcity casti.
Tam jde spis o to vizi toho co ta firma od te dane architektury chce a AMD v GCN verzatilni architekturu do vsech odvetvi. Nvidia jde trosku jinou cestou, coz slo videt u kepleru vs maxwell a pascal tohle dotahuje jeste dal, kde mame cip, ktery se vubec na hernim trhu neobjevi.
Jak jsem psal nahore, jestli Vega zvlada Battlefield DX12 ve 4k pri 60fps, tak bude vykonem odpovidat priblizne GTX1080 a Nvidia nema duvod reagovat. Pretaktovane GTX1080 dosahuji jeste lepsi vykon.
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/8.html
Nvidia udelala za trictvrte roku existence GP104 ocividne velky pokrok v ovladacich. Vetsina tech, kdo prorokuji uspech Vegy, ale stale pouziva vykony v testech z doby uvedeni GTX1080, ne aktualni.
Takze si nemyslim, ze by Nvidia byla Vegou zaskocena. Spis ji prezentace AMD uklidnila. Navic, jestli bude mit Vega problem porazit GTX1080, co bude AMD delat s refreshem Pascal, ktery je tu za tri-ctyri mesice? ..
omg roob fy si nepochopil o com je tento clanok :) na info ohladom spotreby a fps si pockas do vydania a prvych recenzii...podla tvojej reakcke hore a toho ze si clanok necital usudzujem ze este chodis tak max na strednu a tento clanok este neni pre teba :) ale aby si sa nehneval, a ak si daco aspon cital tak ti poviem ze spotdeba bude pod 300w a doom v 4k utiahne na 60-70 fps s procesorom Ryzen :)
Pokud Wikipedie (na kterou sám odkazujete!) má pravdu v tom, že GCN je jednak ISA, jednak mikroarchitektura (fyzická realizace ISA), pak rasterizér, geometry pipeline, řadič paměti apod. nemají s ní mnoho společného. Něco jako "uncore" na CPU. Dokonce ani to zavedení fyzických ALU s variabilní šířkou nemusí ovlivnit instrukční sadu, po úpravě dekódování a plánování instrukcí - je to už samozřejmě ale úprava mikroarchitektury. Prostě to z pohledu programátora nevidíte jinak než jako změnu latencí, propustnosti a spotřeby (ale k takovýmto změnám by došlo i při jiných úpravách mikroarchitektury než při zavedení variabilních vektorových jednotek).
Samozřejmě pokud by tyto změny byly více viditelné, už by to asi nebyla GCN (možná podobně, jako když se Intel chystá v budoucnu uřezat hromadu starých instrukcí - to už taky asi nebude plná AMD64). Není mi však z veřejně známých informací zřejmé, že právě k tomuto dojde. Máte snad takovéto podrobnější informace vy? V současných webových zprávách je zrovna u tohohle bohužel hromada šumu.
vy oba juníci, tvrdě bojujete za svá práva :DDD S nástupem Pascalu se opět, jako pokaždé, psalo o hrubé síle v souvislosti s frekvencí ... stačí jen malinko číst, neplácat ... Já nic neporovnávám, jen konstatuji, nic víc, nic méně.
Nemám nic proti Veze a nebudu psát, že se opičí po nVidii s některými features a že je taky 100 let za opicemi. Proč, když má z toho uživatel prospěch?
Maxwell-Pascal není moc dobrý příklad, protože tam se toho změnilo opravdu málo a Kepler zase má jiné uspořádání SM bloků.Samotné CUDA cores se od Fermi takřka nezměnily, mění se jen uspořádání SM(x), front-end a back-end. Kepler příšel s Hyper-Q schedulerem (front-end) a s Maxwellem přišel tiled-based rasterizator (back-end), což byly jedny z hlavních důvodů zlepšení efektivity oproti předchozím uarchs.
Ty změny ve Vega jsou tentokrát opravdu hodně razatní byť základ je stále GCN (respektive styl fungování - scheduling a SIMD/MIMD)
První GCN byla pro AMD revoluční změna, ty další updaty GCN spíše přidávaly výpočetní funkcionality, teprve s Tonga přišla navíc Delta Komprese, vylepšená geometrie podpora pro FP16 a s Polaris "primitive discard accelerator" a opět lepší geometrie a posílení asynchroního zpracování dat (výpočetní i herní)
Samotné shader core ale zůstalo celé ty léta od uvedení HD7970 beze změny. Takže to se u Vega mění, vlastně se toho mění docela hodně, vše co souvisí s rasterizací a geometrí a shader core.
Současné karty s GCN jsou velmi pokročilé, ale bohužel různé věci zvládají různě dobře a třeba nejsou dostatečně výkonné (s ohledem na investované křemíkové prostředky) pro hráče. Což mně osobně tedy vůbec nevadí - pro mě jsou to jen výpočetní prostředky -, ale chápu, že někomu třeba ano, a pro puberťáky pořád ostatně máme herní karty od nVidie.
Lenže Intel nič netlačí do toho aby vyvýjal novú architektúru. Mal konkurenciu od prvého CPU s Conroe architektúrov? Nemal. To isté u grafík. Tam si nVidia riadne našlapla do tempa a posledné tri-štyri generácie sa jej náramne podarili. Preto AMD nemôže len "štelovať" architektúru ale musí ju poriadne pomeniť.
A vieš vôbec ako sa kreslia mapy do hier? Ty si myslíš, že sa spraví najprv terén a potom sa do toho umiestni voda? Si pekne mimo. Práve naopak, do vody sa umiestňujú prvky. Ide o zjednodušenie návrhu. Aspoň si pozri občas nejaké to video s navrhovaním máp, keď musíš takto trepať.
O cem se tu vubec bavime? Ani samo AMD uz to za GCN nepovazuje. A kde odkazuju na wikipedii GCN? :D Mate vlci mlhu. Navic tu tvrdite, jak studujete hw architektury, pritom se musite ptat wikipedie? Ahm, dobry no :)
"GCN je jednak ISA, jednak mikroarchitektura (fyzická realizace ISA), pak rasterizér, geometry pipeline, řadič paměti apod. nemají s ní mnoho společného" - co to je zas za blabol? Fyzicka realizace GPU architektury nema nic spolecneho s rasterizerem, geometry pipeline, memory controllerem apod.? Od kdy? To asi o tehle vecech pri predtavenich nove ARCHITEKTURY uz roky obe spolecnosti mluvi omylem, ne? :D
Hráči to opravdu neřeší. Ale AMD má v tomto ohledu docela luxusní pozici a poslední rok se to projevuje zejména v kvalitě ovladačů. Zatím co drivery AMD jdou jednoznačně nahoru, jak obsahem funkcí, tak 0-day funkčností, u nvidie docházelo minimálně poslední rok k vydávání driverů, jejichž kvalita byla velmi diskutabilní. I to je důsledek držení se GCN, které je ve všech podstatných konzolích a většina vývojářů už prostě AMD neignoruje jako dříve, naučili se s tím pracovat.
Další bod je mé oblíbené HSA, kde vidím velké příležitosti do budoucna, a tam platí, že udržet architekturu alespoň v základních rysech je taky velmi vhodné a efektivní.
Když to vezmu podle sebe, já si můžu hrát tak maximálně 3-5 hodin týdně, zbytek mi zabere práce, kde (opět) mám dlouhodobě lepší zkušenosti s AMD (už od dob starých Rage, které donedávna ještě sloužívaly v serverových deskách spolu s Matroxy coby onboard grafika propojená na iDrac/BMC). Pár nvidií jsem měl a prostě mi nesedly, často generovaly neřešitelné problémy. Takže já grafiky nekupuju jen kvůli hraní, ale taky podle toho, jak fungují v desktopu v pracovním nasazení. A tím je můj pohled trochu jiný, než u běžného gamesníka, který honí jen gamesky.
Já jsem s Pascalem náhodou spokojen. I když to není nějak král technologií, i s malým čipem a vysokými frekvencemi je prostě mnohem dále, než to, co má AMD. A proto AMD utekli marže. Může si za to sama. :)
Osobně jsem hrubou sílu považoval za instrukce na takt, takže FLOPS. Pokud se ale celou dobu myslela frekvence, tak tu již nějakou dobu vede nVidia.
Za svá práva bych jinak bojoval. Ale nevidím, že to zrovna dělám. :D
Nejsou pokrocile ani v nehernich vecech. Ze nezaostavaji za Pascalem tolik ve vypoctech neni mensi zaostalosti GCN v GPGPU, ale spis strategii Nvidie, ktera do hernich grafik dava umyslne jen omezeny vypocetni hardware. Pokud se ale podivate na vypocetni podporu u GP100, pak je zcela jasne, ze je GCN zastarala i v tomto ohledu (a dokoncer byla i proti Maxwellu a Kepleru, v prislusnych generacich).
Karta s GCN má prakticky vždycky víc TFLOPS a propustnosti.
Těm Nvidiím z posledních let to jde sice ve hrách stejně dobře s nižšími parametry, ale třeba ta propustnost se může projecit na nějaké výpočetní zátěži, kde nefungujou delta komprese/komprese textur. To ukazuje, že tam ten rozdíl reálně je.
Takhle to teď dělá Intel, u Skalyke skoro vůbec nic neřekl k tomu, co v těch čipech změnil. Ale neznamená to, že by "marketing" držel klapačku, prostě se jen plácá o jinejch věcech - jak budou drony dronovatější, iot o 50% víc iot a doma bude všecko řídit umělá inteligence, která vám automaticky pošle vrtulník na podržení mobilu, když se chcete v koupelně vyfotit na facebook :)
Třeba Goldmontu neřekl vůbec nic, a to je to eviedentně archtiektonicky hodně změněné jádro. Já teda preferoval minulost, když se těmi změnami uvnitř chlubili.
Jeste stesti, ze samo AMD to vidi jinak nez ty a rozhodlo se GCN zahodit a ponechat z ni jen par zakladu :) Ale po tom fiasku, co jsi predvedl s nepochopenim Geforce Now, protoze ve skutecnosti nema byt v zadnem pripade nahradou desktopoveho hrani, se ani nedivim, ze ti unikaji dalsi a dalsi veci.
Dlouhodobe mas lepsi zkusenosti? Vazne? Vzdyt jsi amater, ne profesional, ktery ma dost omezene znalosti, vzhledem ke tvym postum za velmi dlouhou dobu.
Cim to asi je, ze v profesionalni sfere ma Nvidia dlouhodobe jeste vetsi podil, nez v herni - pres 90%? Jednoduse tim, ze funguje vsude lepe, vcetne Linuxu. U hracu se ten podil da treba okecavat fanouskovskou zakladnou, i kdyz je to v zasade taky nesmysl. Ale u firem, ktere jdou dnes tvrde za pomerem prinos/cena to uz vazne okecat nejde.
Shrnuto - vetsina profesionalniho sveta ma lepsi zkusenosti s Nvidii, jen tynyt je letadlo :D
Tak počúvaj ma ty lajno. Najprv sa vrieskalo ako AMD má teselačné jednotky a nVidia ich bude simulovať SW cestou. Keď vyšla pravda najavo tak AMD bolo s teseláciou výkonom dosť pozadu. To že nemali výkon na riadnu teseláciu nie je problém nVidie ale AMD. Prečo AMD si nenasadí viac svojich programátorov na podporu hier? Obzvlášť dnes kde sa podiela AMD tak hra kopeckrát beží lepšie na nVidii ako AMD. Čím to bude? Ale čo by som chcel od dementa s IQ tykve. A už vidím teba ako vývojára ktorý do detajlov študuje komplet hru a opravuje teselácie len na viditeľné objekty. Chlapče si pekne naivný. Tak sa tu do mňa neobúvaj, odhaľuješ svoje nízke IQ...
Souhlas. Ale ono to dava smysl, zamerit marketing jinam. Proc investovat tolik penez, kdyz v dane oblasti drtive vedou a na existenci konkurence uz ostatni skoro zapomneli? Staci si udelat pruzkum, kolik lidi (ne jen hrstka ajtaku) si pamatuje AMD a jejich procesory. Intel muze drzet svuj CPU marketing skoro na nule, dokud AMD ten svuj nerozjede.
Tady se pletete. Pokud je v cipu efektivnejsi caching (necham si v cachi data, ktera znovu pouziju a ne ta, ktera uz nepouziju), inteligentnejsi prefetch dat (tzn. prednacitam si veci, ktere skutecne pouziju a ne ty, ktere mi k nicemu nakonec nebudou), nebo treba lepsi komprese, tak mi ke stejnemu vysledku mensi propustnost. To je zakladni princip nejen v hardwaru, ale i v softwaru.
Otázka je koľko rešeršistov sa o Goldmount zaujímali lebo všetky materiály (informácie) majú dostupné na ich webe: Intel® 64 and IA-32 Architectures Optimization Reference Manual - CHAPTER 14 SOFTWARE OPTIMIZATION FOR GOLDMONT AND SILVERMONT MICROARCHITECTURES
source: https://software.intel.com/sites/default/files/managed/9e/bc/64-ia-32-architectures-optimization-manual.pdf
Možno si to nechávajú pre Denverton platformu s 8 ~ 16 Goldmont cores
link: http://www.cnews.cz/sestnactijadrovy-atom-c3000-na-fotce-pry-jiz-ma-novou-architekturu-goldmont
Prvá dualcore vlaštovka je už vonku
source: https://ark.intel.com/products/codename/63508/Denverton#@Server
Už jsem Ti říkal minule. Když je GP100 Tesla 21TFLOPS bestie, jak to, že ve hrách je to absolutní low-end? :)
Protože je to brutální výpočetní čip, ale očesaná o pro výpočty nepotřebné jednotky.
Nemůžeš porovnávat teoretický výkon instrukcí s výkonem daných jednotek čipu. :)
co kecas? 60fps, uplne v pohode
https://www.youtube.com/watch?v=JoheH-5a_FI
https://www.youtube.com/watch?v=fqhEvg02-fY&t=0s
..
Je to stejny engine, stejna hra, od stejneho autora i vydavatele, jedno je prvni svetova, druhe je ze sveta Star Wars. Vzhledem k tomu, ze Rogue One neni na zadnem duveryhodnem webu poradne na GTX1080 otestovany, nechtel jsem davat jen tak nejake youtube linky, ale realny a kvalitni test temer toho sameho.
Pokud ale vyzadujete presne srovnani ve stejne hre a stejne lokaci, ale spokojite s youtube, tak to srovnani jsem dal take v postu kousek nahore. Klidne si vyberte.
Ten tvůj chlapskej přístup mne skutečně dojímá. Jako fakt moc. Skoro jsem ti i uvěřil, že už nejsi v pubertě.
Já vim, řádná teselace je vždycinky taková, jakou zvládne jen ta NVidia. Neumíš si připustit, že by třeba přepálená teselace mohla být prostředkem konkurenčního boje. A protože potřebuješ argumentíky, tak neopomeneš zmínit tu skvělou podporu gejm developerům, což je nejvíc cool, protože jinak by přeci ta nejvíc nej teselace vůbec neexistovala.Je potřeba hry co nejvíc prasit, protože tak se to přeci naprosto normálně dělá ne? Nějaký open close to metal API jsou fuj, gameworks rulezz! Eště nezapomeň zmínit PhysX, CUDA či co ještě máš v návodu na zvládání kritických situací.
A pokud máš problém s invektivy drsňáku, tak první jsi sem přilétl ty a poučoval "neználka", jak to ty velký kluci dělaj, tak se možná jen děsíš toho co sám píšeš. Upřímně, úroveň tvého skvostného projevu naprosto přesně kopíruje tvou brilantní inteligenci!
Jo, manuál je pro to dostpuný už možná tři měsíce (nevím přesně), ale popravdě teda to je trošku nad moje schopnosti, vyčetl jsem třeba z té tabulky instrukcí tak maximálně ře je to zdá se už aspoň z části 3-issue jádro a to je tak všechno.
To je právě to - oni to netají, oni o tom jádru prostě jenom nemluví. Nevím jestli jim při posuzování Goldmontu vyšlo, že by neměl úspěch v mobilech, tak teď na něj mají pifku, nebo nechcou vracet pozornost na to, že zapíchli ty čipy určené pro telefony... a proto ani pořádně nemedializovali launch Apollo Laku...
Efektivní cache ano, komprese také, ale nechápu, jak vám prefetch pomůže s propustností. Ten pouze skrývá latenci. Pokud je spekulativní (třeba na způsob http://www.cs.cmu.edu/~tcm/tcm_papers/asplos96_RDS_pf.ps.gz), tak potenciálně i na úkor propustnosti.
A na tom, že jiná hra má jiný mnosžství textur s jinýma rozlišeními, jiný počet obejktů na scéně, jiné efekty (a může mít třeba i jiné věci jinde v enginu), to je jako jedno? Jako už jsem slyšel různý věci, ale tohle se mi nezdá, že můžeš myslet vážně. (nebo teda jestli jako "pro orientaci", OK, kdyby jiný data nebyly, ale není ta orientace pak spíš k ničemu, než k něčemu?)
Normálně se pro správný test vyžaduje, že by měla být stejná verze hry, stejná lokace a stejný průběh (ideálně naskriptovavaný, aby nebyla variace - takže jen ruční pobíhání po scéně už je do jistý míry problém, i když se to v recenzích někdy musí dělat, když to jinak nejde). A najednou stačí, když se to vozkouší na "podobný hře"?
Jasně že je lepší to yt video, i když tam není ta samá akce. Zrovna v tom lese bych si tipl, že budou podle množství vojáků, stromů a pohledu FPS dost jiná. IMHO je ve všech těchchle srovnáních chyba "měření" větší, než jakej je nějakej relevantní rozptyl, kam to GPU může s výkonem dopadnout, takže v tuhle chvíli nemá smysl nic odhadovat.
ja len vravim, co som cital na techspote, ked testovali endor
skor verim im, ako videu youtubera
http://www.techspot.com/articles-info/1174/bench/Battlefront_02.png
http://www.techspot.com/review/1096-star-wars-battlefront-benchmarks/
Ze Vega neni GCN je prece snadne dokazat. S kazdou novou velkou architekturou AMD menilo strukturu compute units - nejdriv fixed-pipeline, pak TeraScale (VLIW), pak GCN a ted nove compute units ve Veze.
No a za druhe - pokazde pri uvedeni vylepseneho GCN nam AMD mlatila o cumak obri powerpointove GCN verze - GCN 1.0!!, GCN 2.0!!!!1!, GCN megahypersuperverze 4.0!!!11!!!!!! a ted nic ..
No to je pravda, ale v realu (z me praxe) je takovych pripadu malo. Vetsinou ta data potrebujete, aby se s nimi neco delalo, tzn. cast casu se travi jejich ziskanim, cast vypocty. Pokud bych potreboval prelevat data z mista na misto, a delal s nimi minimum operaci, tak na to uz je lepsi procesor, ktery ma ke sbernicim mnohem blize (casto ma i specialni propojeni - QPI atd.).
Edit: AMD je v tomto navic v horsi pozici, protoze pokud chce mit unifikovanou pamet pres cely system (RAM + GRAM), znamena to mimo jine, ze nejen grafika ziska pristup ven, ale i jine aplikace mohou chtit data z pameti grafiky. Tim padem ubyva grafice propustnost pro vlastni operace.
Tak je tam toho viac ako len 3-issue oproti 2-issue Silvermontu a vlastne aj 2-issue AMD Jaguar a Puma.
Keď si zvládol tieto články tak nemám obavy, že by si to nedal, veď to nieje žiadna veda a všetko je to tam krásne popísané len to chce čas, ktorý... :-)
http://www.cnews.cz/intel-odhalil-architekturu-silvermont-prevrat-na-nejz-musel-atom-cekat-pet-let
http://www.cnews.cz/amd-na-issc-2013-hovorilo-o-architekture-jaguar-mame-kompletni-slajdy
K druhej časti... má logiku tá teória... možno to bude aj tým, že nabušenejší len 14nm Goldmont aj voči 14nm Airmontu die schrink 22nm Silvermontu nemôže na 14nm jednoducho v telefónoch a tabletoch energeticko/efektívne konkurovať.
Prefetch je u GPU zcela bezna vec. A ano, je to kvuli zmenseni latence. Ale pokud budete pozorne cist muj prispevek, ja nerikam, ze prefetch pomuze propustnosti, ale ze efektivnejsi prefetch pomuze propustnosti. Pokud obe architektury prefetchuji data, ale jedna si stahuje data, znich 60% nevyuzije a druha data, z nichz nevyuzije jen 30%, taa druha ma nizsi naroky na propustnost.
offtopic: odpovidam uz snad na ctvrty vas prispevek za poslednich 15 minut a ani v jednom nechapete latku, o ktere mluvite. je to trochu zbytecne
"IMHO je ve všech těchchle srovnáních chyba "měření" větší, než jakej je nějakej relevantní rozptyl, kam to GPU může s výkonem dopadnout, takže v tuhle chvíli nemá smysl nic odhadovat."
Ano a to je presne moje pointa. Nema smysl prohlasovat Vegu za rychlejsi, kdyz neni zadny dobry test. Na to myslim test z duveryhodneho zdroje z prakticky totozne hry staci - GTX1080 nema problem v tomhle enginu a te akci udelat 60fps. A staci na to i to youtube video, kde jede GTX1080 dokonce spis na 70fps (a to s pomalejsim CPU a pri aktivnim nahravani 4k). Zadne jine validni moznosti srovnani me nenapadaji, dokud to treba TPU nebo TH neotestuje.
To nemyslím, že by byly věci, z kterých bych něco argumentoval, hlavně ne to číslování verzí.
K tomu označování. Stačí se podívat, jak se Intel po pěti letech najednou rozhodl, že Sandy Bridge je "Core 2. generace". Jako by neexistoval Nehalem (což byla po stránce architektonických změn ohromná kláda, asi i o dost větší než Yonah - > Conroe), a to přitom ještě už to "Core architecture [ve smyslu Conroe]" bylo vlastně "Core 2", protože marketing se neudržel a pojmenoval Yonaha "Core" (jo, už tam to pohnojili).
No ale dobře, tak po pěti letech je Sandy Bridge "Core 2 Duo Dvě". A Skylake je "šestá generace", tak bude Kaby Lake "sedmá generace"!
TL;DR: Ne všechny nomenklatury výrobců HW bývají moudré :)
BTW mezi "fixed pipeline" (tím je myšlen původní DX7 Radeon?) a terascale toho bylo docela dost, myslím (DX8 Radeony, dvě různé architektury pro DX9).
P.S. Já budu zatím předpokládat, že to má blíž k GCN než dál - jak jsem předtím dal ten příklad - něco jako evoluční vztah mezi Sandy a Haswellem, oproti ostrému předělu jako byl mezi Neburstem a Conroe. (nebo terascale a GCN). Jestli je to evoluční cesta by mohlo být vidět třeba na té interní instrukční sadě/kompilátorech. Může tam být spoustu nových nebo překopaných komponent, ale jde o to, jestli to vyvinuli z GCN (já bych řek že jo) nebo shodili všechno ze stolu a začli s čistým listem - což se mi z toho dosavadního nezdá.
Pouze v případě, že takovýto přístup nebude koherentní. To asi nebude moc pravděpodobné a nelze to doporučit nikdy ani v jednom směru.
Jinak vámi opovrhovaná GCN byla zřejmě stavěná na to "mnohem bližší připojení", jinak by nemělo smysl, aby se AMD hnala k lepším a lepším APU (že softwarová stránka zatím kulhá to samozřejmě poněkud kazí, což je dost škoda, zvláště pro bateriová zařízení).
Z celyho zaznamu to spadne pod 60 fps jen jednou, na konci, asi na 2 sekundy :) Jinak zbytek hry to je nejen pres 60fps, ale naprostou vetsinu casu pres 70 fps. Jeste navic je to jen na 4-core i5, ne na zadnem brutalne nabusenem 6-core nebo 8-core CPU a ten clovek zaroven nahrava 4k video.
Znama fakta jsou v tuhle chvili pouze ta, ze Vega to dava pri ~60fps (mozna vic, ale to nikdo zatim nevi), zatimco u GTX1080 uz jasne vime, ze to dava v pohode pri 60fps, spise 70fps. Zrejme s nejakym nabusenym sestijadrem od Intelu a bez nahravani by to mohlo jit jeste rychleji. Enjoy :)
"efektivnejsi prefetch pomuze propustnosti"
"Pokud obe architektury prefetchuji data, ale jedna si stahuje data, znich 60% nevyuzije a druha data, z nichz nevyuzije jen 30%, taa druha ma nizsi naroky na propustnost."
Ale to není vlastnost architektury, ale konkrétního algoritmu běžícího v programovatelné jednotce. U toho se můžete rozhodnout (na základě jeho povahy, např. u těch stromů), že vyměníte latenci za šířku pásma (což ale u masivně paralelního stroje se souběžným zpracováním možná nebude nejlepší nápad), ale co to má společného s architekturou, to netuším. Leda že byste se rozhodl neprovádět prefetch explicitní (např generovaný kompilátorem) a nějak to nechat na "inteligentní" paměťové jednotce. To bylo asi docela odvážné rozhodnutí, protože pak riskujete plýtvání, které nejste schopen programově ovlivnit, a ještě jsem nezaznamenal případ, kdy by se s něčím takovým systémoví programátoři smířili a hrozně u toho neřvali.
Látku chápu velice dobře, architektury studuji už tři dekády, děkuji pěkně. Vidím to z druhé strany podobně.
Jdi do háje ty nvidia fan... AMD aspoň má normálnější podporu a ne jako nvidia, která ti odpoví váš problém, čau.
Jako vážně nevím co tu řešíš, když ty tvé sračky jsou hodnoceny v halířích.
Jseš nula co si hledá všechno... A reálnost nevidíš nikde. Neviděls reál, ale vše je lepší.
Nechapete zakladni princip unifikovaneho pametoveho prostoru. To nema s koherenci nic spolecneho. Koherentni pametove schema by notifikovalo klienta o zmenach v pameti GPU, aby invalidoval svoji lokalni cache. To ale znamena, ze si prave aktualni verzi dat stahuje z pameti GPU, protoze v jeho cachi jsou zastarala. Pro dostudovani doporucuji do Googlu "wiki memory coherence".
No ja mám opačnú skúsenosť. Na AMD som reportoval niekoľko chýb a ani mú ani bú. Na nVidiu som nereportoval nič, nebolo našťastie čo. Takže nenadával by som tu do nVidia fanov, pretože to isté by som mohol hovoriť tebe, že si AMD fan. Skôr by som to spriemeroval tvoju a moju skúsenosť, tak to si potom nemajú obe firmy čo vyčítať. A ostatne keď sa to tak zoberie, nemáme profi karty, neplatíme si podporu separátne :)
Tady je videt, ze vubec zadne HW architektury nestudujes. Jinak bys takove blbosti nepsal.
Occlusion culling je hardware feature a ma znacny vliv prave na prefetch textur a vertex/index dat. A ze v tomto AMD do ted zaostavalo dokazuje i novy pristup k teto oblasti (rozumnej uplne predelani daneho HW), coz mimo jine pisi i v te prezentaci (nebo o tom mluvil nekdo od nich, uz presne nevim).
Jaké "koherentní paměťové schéma"? KOHERENCE je VLASTNOST prováděcí stopy programu s ohledem na jeho přístupové vzory, to není žádné "schéma". Každý konkrétní program (nebo i každé jeho spuštění) ji může nebo nemusí mít. To, o čem mluvíte, sice existuje (bohužel nešťastně - a v tomto případě fyzikálně nevhodně - to má podobný název), ale není to to, o čem mluvím já.
[EDIT: s tímhle konceptem mimochodem přišli pokud vím počítačoví grafici, nikoli "klasičtí CS-nící", takže tady se pouze přizpůsobuji oboru, o kterém se zrovna mluví.]
AMDfanovi vyviera žlč? Počúvaj ma ty bezmozog. nVidia má prepracovaný svoj propietarný SW, preto si ide svojou cestou, má výbornú podporu programov, ktoré bežia rýchlejšie cez CUDA ako OpenCL. To že AMD je neschoopné rozvíjať spoluprácu s inými firmami opäť nie je chyba nVidie. A aké sračky som vykladal ty dement? Povedal som len to, že každý máme svoju skúsenosť so supportom a začal si tu vylievať žumpu. Ty budeš to decko, ktoré si myslí že múdrosťou zožralo pol sveta a jediné čoho je schopné uchylovať sa hneď k násiliu ale pochopiť základné fungovanie trhu je už moc? A choď si fackovať niekoho doma...resp. seba lebo si pekne tupý.
EIDT: a ako si dospel k záveru, že nVidia serie na zákazníkov? Potom AMD nerobí zhola nič len sľubuje.
Naopak. Koherence ma ten ucel, ze je pristup k datum pro klienty transparentni, ze se nestane, ze maji v cachi stara data, kdezto zdroj (vetsinou hlavni pamet) ma uz novejsi verzi. Jenze to mimo jine znamena, ze bud musis cache aktualizovat, nebo presmerujes cteni primo do zdroje dat. V obou pripadech ale musis zmenena data z graficke pameti nejak dostat ke klientovi.
Tak co tam podle vas z GCN zbylo? Predelali od zakladu compute units, predelali od zakladu rasterizer, predelali geometry pipeline, scheduler predelali take. Nejak tech komponent v GPU uz moc vic neni. Memory controller treba a co dal? Ze pri navrhu vychazeli z GCN a vzali si z ni nejake zakladni veci neznamena, ze to je GCN.
Pouziju tvoji logiku, ty nejsi Maudit, protoze vykazujes znaky uplne jineho tvora. A odpoved na tohle omilani neustale zjevneho faktu, ze se jedna o prekopanou arch, coz nikdo nerozporuje: kuprikladu je to porad simt. Prirovnani, ze to je stejna zmena jako vliw-gcn(simt), kdyz gcn vs gcn ncu je oboje porad simt...