Najväčšou udalosťou nielen tohto roka, ale pomaly posledných 5 rokov, bude súboj nVidia vs AMD(Ati) v High Ende (naposledy to bol súboj GTX 980ti vx R9 Fury X....Vega64 už nemala na GTX1080ti...to nebol súboj, ale vopred prehraný boj) a nie uvedenie kariet jedného z účastníkov.
V hlasovaní mi chýba možnosť: - Možno, ale najskôr počkám na Radeon-y 6000 (Navi 2x) a potom sa rozhodnem.
Pre nezainteresovaného by z článku mohol nastať dojem, že jediným výrobcom GPU je nVidia a konkurencia neexistuje, pretože v článku sa ani slovkom nespomenulo slovo "konkurencia, AMD, NAVI, Radeon 6000", pritom dva mesiace po nVidii príde na rad aj AMD (tá ma produktov z rôzneho spektra, a na september dostalo prioritu CPU Vermeer alias ZEN3). Už o mesiac sa dozvieme, či to bude súboj 10 alebo 8nm vs 7nm+ .
PR článkov na nVidiu je teraz veľa, spúšta kampaň pred uvedením RTX 3000.... tak aby si niekto nepomyslel o tomto článku svoje.
Ako nemožeš sa čudovať že sa konkurencia nespomina, 8 rokov AMD nič poriadne neukazalo a zo svojim 20% podielom ma len tolko trhu aby Nvidia nemusela platiť antimonopolne pokuty. To je dnešna realita. Ako nič proti AMD ale to dlhe roky konkuruje len nižšou cenou. Tiež dufam že tento rok sa to zlomi a to 5120 jadrove NAVI bude mať dosť vykonu na 5400 jadrove ampere.
Přijde mi, že se dost zapomíná na reálnou situaci Navi proti Turingu. I na těch 12nm (Turing) proti 7nm (Navi), kdyby Nvidia zahodila RT jádra i tensor jádra, mohla GeForce násobně překonat Radeony. Turing má čistě v rasterizaci už tak dost velký náskok. Teď si vemte, jak by to bylo bez těch nových technologií a křemíku, který je jim vyhrazený.
Souboj s RDNA2 (velké Navi), tak nebude vůbec o schopnostech AMD. Bude čistě jen o tom, jak velkou část čipu vyhradí Nvidia pro raytracingová jádra a tensor jádra. Pokud by se na ně Nvidia vykašlala, zadupala by Radeony od AMD do země. Bylo by celkem jedno, jestli by Ampere byl na 8nm, 7nm, EUV nebo bez EUV. Dost možná by stačil i die shrink Turingu.
Tipuju, že strategie Nvidie je zvýšit rasterizační výkon Ampere jen tak, aby pohodlně nové Radeony porazil a zbytek půjde do raytracingu a tensor jader. Je ale otázka, jak dobře v Nvidii výkon nových Radeonů odhadli.
Dál tipuju, že AMD si je vědomá, že jí v technologiích nenávratně ujel vlak (rozuměj absence raytracingu a AI akcelerace) a bude se snažit napálit rasterizaci na maximum, tzn. nebude mít žádná dedikovaná raytracing ani AI jádra. Raytracing v podání AMD bude víceméně softwarový, počítaný na klasických jádrech s nějakou menší úpravvou, a jeho výkon bude mizerný (tak 50% výkonu Turingu). Všimli jste si, jak jaksi chybí dema her s raytracingem u nových PS5 a Xbox Series X konzolí? I to demo od AMD, lesklé jak psí kulky, mělo mizernou kvalitu (rozuměj odlesky se nepočítaly pro každý snímek, ale interpolovaly se).
Takže AMD půjde cestou maximalizace rasterizace (a bagatelizace raytracingu, zatímco si tu "featurku" odškrtne jako papírově splněnou), zatímco Nvidia naopak. V tom bude ten souboj zajímavý - jestli Nvidia správně odhadla potenciál RDNA2 a nasadila dobrý poměr rasterizace a raytracingu.
Nemôžeš povedať, že AMD 8 rokov nič nemala...7970Ghz, R9 295X2, R9 390X, R9 Fury X, Vega64 (prvú a poslednú kartu zo zoznamu som vlastnil, či vlastním)...zdatne konkurovali vo svojej cenovke, ale na absolútny vrchol v podobe Titanium verzii od nVidie nemali...ale vzhľadom na oficiálnu cenovku, sa o to ani nepokúšali. RX 570/580/590 boli veľmi zaujímavé karty (tiež som 580ku mal) za cenu ktorú sa dali zohnať...u všetkých (7970,rx580,vega64) ale trhová cena utrpela na kryptohorúčku značný posun. 5700XT je tiež super karta, ale ako vlastník VEGA64, som ostal chladný (držím sa pravidla: upgrade sa oplatí, až keď sa výkon zdvojnásobí....inak nerobím upgrade)
preto očakávam s čím príde nVidia a AMD a ako sa nakoniec predvedie Raytracing v CyberPunk 2077 (či to za to bude stáť, tá technolóia), alebo na skúšku kúpim bazárovú Vegu 64 (už sa občas pohybuje za cca 160€) a zapnem to do CrossFire či využijem podporu DirectX multiadapter...podotýkam, že mám 4K monitor a single Vega64 sa pohybuje od 30-45FPS, záleží od hry (som občasný hráč)
Uplne vse pri starem to asi uz nebude. Jak Vega, tak Navi vysli az rok po uvedeni NV karet. Nyni vyjdou cca mesic/dva pozdeji. Zaroven dneska ma AMD silnou zakladnu v CPU, tudiz je tu i vetsi sance, ze idi co si koupi AMD procak, budou pokukovat i po AMD karte.
Myslim si, ze AMD ma tentokrat slusnou sanci (pokud to nezvore) byt vyrovnanejsim hracem, nez v uplynulych 5 letech i presto, ze NV udrzi vykonostni korunku.
Ale ano Zero, může. Celá GCN a i teď první generace RDNA jsou čipy nataktované na maximum, až za bod optimální pro efektivitu, aby byly alespoň trochu k něčemu. To je nesporné. Přitom se prodávaly a prodávají s minimální marží, protože kdyby je AMD nacenila se stejnou marží jako Nvidia, nikdo by je nekupoval (mainsteam od AMD by stál jako high-end od Nvidie). Poražená generace grafik se nepozná podle konkurenceschopnosti výkon/cena. Cena se dá snížit prakticky vždy aby se grafiky aspoň trochu prodávaly, pokud zrovna nemusí jít firma pod náklady. Poražená generace grafik se pozná podle toho, kdo z výrobců prodává s menší marží. A to je za poslední desetiletí jen a jedině AMD, a to výrazně.
Po tom čo som videl demo Unreal Engine 5 na PS5 si vravím či ten Raytracing potrebuje až taký priestor, či výkon...veď sa to používa iba na lesklé povrchy a tých býva v hrách pramálo a keď tak sa to dá dobre zoptimalizovať...viac ma zaujalo to "Multi Bounce Global Illumination", ktoré vytvára takmer fotorealistickú grafiku a na pár odleskov by malo stačiť rozšíriť súčasné jednotky o túto fičuru (počítanie lúčov svetla), ako to plánuje predviesť AMD...uvidíme, koho prístup bude lepší a nielen umelo vynútený v nejakej hre. Ale ak porovnám demo unreal Engine 5 a napríklad Battlefield 5 s ultra raytracing nastavením, tak potom chcem radšej hry s Unreal Engine 5 grafikou.
"kdyby Nvidia zahodila RT jádra i tensor jádra, mohla GeForce násobně překonat Radeony."
"Souboj s RDNA2 (velké Navi), tak nebude vůbec o schopnostech AMD. Bude čistě jen o tom, jak velkou část čipu vyhradí Nvidia pro raytracingová jádra a tensor jádra."
Hlavní limitace výkonu GPU je v aktivní spotřebě jednotek, takže pozor s tímhle uvažováním. Pokud by se dalo bez RT jader dát dovnitř třeba o 20 % víc jednotek (shaderů/SM, ROP) díky ušetřené ploše, mohly by sice při stejné spotřebě běžet na nižších taktech a výkon by díky tomu stoupl, ale o méně než o 20 %.
Toto je samozřejmě za předpokladu, že RT jádra Nvidie neleakujou nějak masivně energii ve vypnutém stavu.
To jako fakt srovnáváš karty AMD, které tady kvůli absolutním finančním problémům jen roky recyklovalo Polaris a Vegu? A Navi uvedlo jen do úrovně vyšší střední třídy (kteréžto donutilo nvidii vydat Super revizi - což lze považovat při daném stavu jako úspěch)?
Navíc technicky vzato ani jedna z těch historických karet nebyla vyloženě špatná, jen se na nich jednoznačně projevilo to, že sloužily déle, než kdokoli čekal. A u Navi lze říct, že nvidii dorovnala i ve věcech relativně nepodstatných, jako je spotřeba.
Fakticky jsme už všichni odvykli tomu, že se AMD s nvidií přetahují o roli krále grafického výkonu - to se doufám velmi brzy změní (a to čistě v zájmu hráčů, ne kvůli AMD nebo nvidii), a s tím zmizí i virtuální marketingová inovace jménem RTX (stejně jako podobné marketingové inovace v minulosti, po kterých dnes ani pes neštěkne).
Stále si ma nepresvedčíl o tom , že AMD nič nemala, ono to zrejme nepôjde, lebo históriu, tých kariet nevymažeš. Čo je na diskusiu je fakt, že AMD mala minimálne marže na tých produktoch, čo môže byť pravda, ale aj nemusí...do toho nevidíme ani ty, ani ja, iba samotný výrobca čipu.
Ale jedno s tebou súhlasím, história AMD sa bude písať na dobu pred "Lisa Su" a po "Lisa Su", a od "samo odídenia" Koduriho, keď to do rúk na čas zobrala Lisa, to je len lepšie a lepšie...tak ako pri CPU so ZEN-om.
Demo UE5 běželo na PS5 jen ve 2K a jen při 30 snímcích za vteřinu. A to ještě potřebuje velmi speciální SSD a sběrnici, která je schopná data z něj do grafiky dostatečně rychle pumpovat. Navíc tam jsou stále velmi dobře vidět chyby osvětlení díky nedokonalostem techniky light probes.
Nvidia samozřejmě staví ty karty tak, aby mohly zároveň běžet všechny části. Hry s podporou raytracingu se spoléhají jak na klasickou rasterizaci, tak na raytracing jádra. Některé, snad by se dalo říct většina, pak využívají i tensor jádra pro DLSS. Nějak asi nechápu, co se snažíte říct.
Já tě nemám potřebu o něčem přesvědčovat. Historie je jasná a malovat jí na růžovo nic nezmění.
A zdá se, že se mnou chceš souhlasit v něčem, co jsem neřekl. Nemyslím si, že bude jakási doba před a po Lize Su. Nvidia narozdíl od Intelu nespí a neustále agresivně tlačí výkonovou laťku nahoru a technologie dopředu - raytracing, AI akcelerace, celý standard DirectX Ultimate (mesh shadery, VRS, DXR). Narozdíl od CPU, kde Intel stagnoval, v grafikách diktuje vývoj situace Nvidia jednoznačně.
AMD mela jen jednu vec a to je cena. 3xx, 4xx a 5xx radeony se daly poridit v ruznych slevach za velmi zajimave penize, coz je pro nektere lidi urcujici. O tom jakou mela v dane dobe amd marzi neni pochyb, protoze marze je soucasti financich vysledku.
To pochopitelne neni dlouhodobe preferovany stav a amd bude muset hodne pridat, aby byla aspon dustojna dvojka.
Podivas-li se na to bez fanouskovstvi ciste realne, tak vidis, ze ke zlepseni dochazi ve vsech firmach. Uspech AMD s Lisou Su je v tom, ze vratila AMD do pozice technologicke firmy. V te firme sefuji a pracuji lide, ktere to bavi a chteji uspet s co nejlepsi technologii. Musi si samozrejme vydelat na zivobyti, ale je to to mene podstatne a casto, kdyz jde jedno, jde i to druhe.
Intel je oproti tomu dneska hlavne fabrika na penize a spoustu schopnych lidi si sami odehnali pryc. Na Intelu snad vsichni vidime, jak tam to nadseni pro vec proste neni. Je to proste korporat, ktery jede dopredu proto, aby vydelal a jak vidno technologicka firma ho zadupava do zeme.
Jenze s NVidii to stejne neni. Preci kazdy, kdo vidi Huanga jen treba pri oznamovani novych produktu, musi videt, ze to toho cloveka bavi a zjevne to bude bavit i jeho spolupracovniky. Jiste jsou schopni i obchodne, proto nas tak obiraji a vydelavaji takove sumy :-), ale jde tam predevsim o tu technologii stejne jako u AMD.
A tohle si myslim, ze je prave ten rozdil, proc dneska AMD porazi Intel ve vykonu procesoru, ale neporazi NVidii, ktera je napred a dohnat to bude pro AMD moc moc tezke az nerealne.
Takze uvidime, kdy AMD vyjde s novyma grafikama, jestli nahodou mezitim uz nebudeme mit vsichni nove grafiky od NVidie a jestli budou aspon v pomeru cena/vykon u AMD lepsi a vyhodnejsi.
Dlouhodobá grafická stagnace AMD je jasně vidět v NTB. Ač disponuje již druhý rokem svými GPU na 7nm její výkonná mobilní CPU se v NTB kombinují především s GPU konkurence (vyrobených notabene na 12nm)!
Snad Navi 2x tento stav zlepší, to by si asi měli přát nejvíc ti co šetří na novou generaci NVIDIA GK.
Si pletieš dojmy a pojmy....ak tvrdíš, že AMD nič nemala, tak jedine v období Pascal a Touring aj to iba v "Titanium/Titan" segmente, čiže proti GTX1080Ti, a neskôr proti RTX 2080Ti...Vega 64 zdatne súperila s GTX 1080...a kvôli RX 5700XT nVidia vydala RTX 2080Super, aby mala navrch (2080ka víťazstvo nemala vždy isté a cenovo bola niekde inde) 2070Super je takmer to isté ako 2080 (bez Super). RTX 2060 Super a RTX 2070 stála proti RX 5700 (bez XT). Jedine RTX 2080Ti nemala súpera.
https://www.anandtech.com/show/14618/the-amd-radeon-rx-5700-xt-rx-5700-review/7
https://www.anandtech.com/show/14663/the-nvidia-geforce-rtx-2080-super-review/7
nVidia nespí a nespala asi nikdy od prvej GeForce to je mi jasné, ale "kožeňák" starne a urobil v poslednej dobe zlé rozhodnutie (ohrdol TSMC so 7nm výrobou, na to sa nezabúda a istú dobu sa to sním povezie) a ktomu ešte odchod Toma Petersena, ktorý posledných 15 rokov viedol technický marketing a budoval obraz firmy ako technologického lídra (minimálne v očiach hráčov vlastniacich Geforce), a toho len tak ľahko nenahradí. Treba vidieť aj súvislosti a nie slepo veriť v trajektoriu Pascalu a Touringu.
Raytracing je ešte v plienkach, takže sa uvidí čo s toho ešte vznikne a najbližších 10-15 rokoch odmietam uveriť v čistý raytracing v hrách
PS5 nebude mať grafiku porovnateľnú s tzv. "Veľkou NAVI".
PCI-Express 3.0 4linky = 4x985MB/s = 3940MB/s ...PCI-Express 4.0 4linky = 4x1970MB/s = 7880MB/s....Je to len otázka na výrobcov SSD a dopytu po takých diskoch...nieje to žiadne sci-fi, keďže to dokážu pre PS5 vyrobiť a pridať aj nejakú real-time kompresiu dát.
Ja nebažím po vernej simulácii sveta v ktorej budem lupou hľadať , či náhodou tam niečo nieje, tak ako má byť....Ja požadujem navodenie dojmu fotorealistického sveta v ktorom nedokonalosť oka či mozog-u pri takej projekcii dovolia veľa odpustiť a nemienim niečo lupou hľadať. Využíva sa to pri kompresii videa (psycho-vizuálne techniky) už dlhé roky, tak prečo to nepoužiť aj vo fotorealistickej grafike.
"A to ještě potřebuje velmi speciální SSD a sběrnici, která je schopná data z něj do grafiky dostatečně rychle pumpovat."
No přijde mi že v případě RT a podobných efektů se bavíme o výkonu GPU a ten fakt podle mě nebude omezovat rychlost SSD. Kdyby ho omzeovala, tak stačí použít o něco méně textu/o něco nižší rozlišení, ale to se zrovna kvality raytracingových efektů, pro které je úzkým hrdlem výpočetní náročnost, nedotkne.
Jinými slovy ta rychlá SSD umožní rychlé loading times a práci s větším množstvím textur, než by paměť konzole normálně umožňovala, ale ne víc shaderů nebo víc ray tracingu.
Bavíme se tu o Unreal Engine. A jejich vývojáři jasně řekli, že ta úroveň detailů je možná právě díky tomu speciálnímu SSD (de facto funguje jako rozšíření paměti) a že to tak nebude fungovat na běžných počítačích (pokud nebudou mít superrychlé SSD) ani na Xbox Series X.
Ve skutečnosti to GPU nerenderuje nějak větší množství trojúhelníků, než dnešní grafiky nebo dokonce i grafiky předchozí generace. Rozdíl je v tom, že má okamžitě přístup k high LOD modelům.
"Nanite geometry is streamed and scaled in real time so there are no more polygon count budgets, polygon memory budgets, or draw count budgets; there is no need to bake details to normal maps or manually author LODs; and there is no loss in quality."
Doporučil bych vám si projít k tomu nějaké zdroje, než se pustíte do komentování.
"... a kvôli RX 5700XT nVidia vydala RTX 2080Super, aby mala navrch..." hele, nedrž se tak při zdi ;) když v souvislostech (co mi to jen připomíná...), tak Nvidia vydala dopředu 2080Ti, jak byla z Navi vystresovaná :D Faktem je, že ve velkých testech, nebo v sumarizaci menších testů, vychází 5700X vůči 2070 Super cca ve 2/3 her jako ta pomalejší a s většími propady.
Problém je v spotřebě tedy výkonu komponent koncentrovaných na malé ploše a v jejich následném uchlazení. Tedy cestě kterou kráčí Nvidia a zatím i AMD v cestě jednoho jádra. S tím se potýkají všichni a právě díky nezvládnutí výrobnímu procesu a rozkmotření se s TSMC se tento problém u Nvidie ještě umocňuje.
Zaspekuluji si a budu tvrdit, že dokud nebudou chipletové grafické karty tak bude vždy raytracing jenom technologie v plenkách a ne dospělý produkt který budou naplno používat masy. Dalším kamenem u nohy raytracingu jsoui konzole. Jsem velice zvědav kdo nám dodá dříve chipletovou architekturu grafik.
Odpovězte si na tohle: Mají karty Turing nižší spotřebu, když na nich běží hra bez ray tracingu a DLSS, než když běží něco co ty jednotky využívá?
Když je v čistě rasterizační hře díky nevyužití RT/tensor jader volná část TDP, kterou by jinak konzumovaly, tak GPU zvýší frekvence, aby se ten energetický příděl využil, to je základní power management a určitě to tak už teď funguje (říká se tomu boost...)
A říct jsem tím chtěl to, že eliminace RT jader a Tensor jader by ušetřil tranzistory a zlevnila GPU, ale nezvýšila by přímo výkon GPU v rasterizaci, pokud by mělo jeho GPU být stejné.
Nepřímo trošku třeba jo skrz omezení úniků proudu, ale to bude zlomek toho, co asi od té hypotetické de-RTXizace těch čipů čekáte.