I pres prohlaseni amd ze RTX nikdy, pak mozna, az to pujde v mainstreamu atd. do toho amd jit musi.
Byli by za blbce kdyby RTX nemeli. Vyrobce s podilem mensim nez 20% trhu musi nabidnout to same a levneji, jinak nema sanci. I Intel bude mit RTX.
Myslim ze amd neni v pozici, aby si mohlo dovolit "trucovaci" postoj k nove technologii, ktera posouva herni hranice.
Dost mozna za rok uz bude vic her s RTX nez her bezicich nativne na dx12/vulkan/mantle. Jak dlouho to amd tlaci? Od rady 7000? Kolik tech her je a za jakou dobu? A kolik her s rtx je oznamenych behem prvniho! roku co se to teprve zavadi?
Tady cucham zavist amd, proto ten postoj. Meli by sklapnout a resit rtx na svych kartach a levne!
"O Navi se hovoří jako o „nové architektuře“, ovšem to neznamená, že je nová od základu, do této charakterizace se vejde i jen mírné vylepšení GCN/Vegy. Nicméně je řečeno, že Navi přináší „mnoho nových vlastností/funkcí“.
takhle AMD mluvilo o každé nové iteraci GCN ( Polaris, Vega, etc. ) Je to prostě staré dobré GCN :-)
No osobne som sakra zvedavý čo to teda zač budú tie 7nm mainstreamové AMD grafiky, resp. aký výkon a za koľko poskytnú. Uvidíme čo AMD vyčaruje ale osobne som dosť opatrný a možno až pesimistický vzhľadom k tomu že 200-250€ cenovku (keď to teda vezmem v tých eurách) ako u dnešných GTX1060/1660/580/590 rozhodne v úvodných mesiacoch resp. minimálne pol roka po uvedení nečakám a zase za +/- 300€ je dnes v predaji slušná ponuka 1660Ti/2060/Vega56 a je otázne ako tomu dokáže AMD na 7nm výrobe a neviem, možno GDDR6 cenovo konkurovať.
btw:
Gainward GeForce GTX1660Ti Pegasus OC 278€
GIGABYTE Radeon™ RX VEGA 56 GAMING OC 8G 310€
Gainward GeForce RTX 2060 PegAsus OC 6GB 335€
Koho to zajima, je venku druha cast videa od AdoredTV ohledne NAVI.
Jeho posledni leaky (vyjadreni), oproti puvodnim odhadum ohledne spotreby NAVI, nejsou moc pozitivni...
https://www.youtube.com/watch?v=Xg-o1wtE-ww
Není to ani mesic co NVidia vydala grafiky GTX1650, GTX1660 a GTX11660Ti, které zadne RTX nemaji. Takze nejak nutnost mit grafiky pouze s RTX nebo spis spravne s DXR nevidim.
Mimochodem na RTX 2060 je RTX téměř nepouzitelne. Pro vyuziti RTX je idealne třeba aspoň RTX 2080, kam Navi v zadnem pripade neaspiruje, minimalne ta letošní Navi ne!
"Dost mozna za rok uz bude vic her s RTX nez her bezicich nativne na dx12/vulkan/mantle."
RTX (DirectX Ray Tracing) vyžaduje bezpodmíněčně běh pod DirectX 12. Ray tracing může být i pod Vulkanem, ale pod OpenGL nevím. Takže vždycky ty hry budou muset používat tahle nová API.
RTX AMD asi nikdy nenabídne, je to technologie NVIDIA a to nejen HW v podobě RTX cores ale je to celý balík včetně SW, podobně jako Game Works. Pokud AMD implementuje RT, tak budou mít vlastní řešení, a je jedno zda na úrovni specializovaného křemíku nebo jen SW řešení. Také se mohou na vlastní tech nebo kompatibilitu s RTX vyprdnout a podporovat jen DXR.
Q1 2020 si už teda nepamatuju, že jsem "tvrdil". Ale Q4 2019 bylo v předchozích zprávách a předpokládat konzervativnější scénář nikdy není moc velká chyba. Viz drby o 5GHz Ryzenu 3000, co bude uvedenej v lednu na CES 2019.
Nezapomeňte, že já si v podstatě zprávy skoro nikdy "nevyrábím", já vám jenom hledám ty, co se někde na internetu objeví. A tam se holt vždycky musí rozhodovat, co je důvěryhodný a co ne. Někdy může být něčí zpráva evidentně vymyšlená nebo nedůvěryhodná, ale pak se to třeba vyplní náhodou (rozbitý hodiny dvakrát denně ukazujou správnej čas...)
Souhlasim, damage control musi byt :)
No ale ted k ty zavisti. Me prijde, ze ta amd je vazne rozdelena. Zatimco CPU divize byla zticha a makala, maximalne prosaklo skromne prohlaseni a nakonec tu mame Zen, kterej amd zachranuje. Tak GPU divize vypousti do sveta traparny typu "Poor Volta" apod. a to ja pratele nemam rad. Nasrali si marketingove xkrat do huby a takova prohlaseni, ktera se pak nenaplni, amd jen skodi.
Vidite ten rozdilny pristup cpu/gpu divize?
Mozna tam nebude zavist, treba EGO nekoho jako prase.
Podle meho nazoru, by vubec nemeli takovym zpusobem reagovat na konkurenci. I v pozici toho silnejsiho je takove jednani prinejmensim ubohe. A oni jsou dvojka...
Meli by sedet na zadku, byt zticha, rict ze na necem maximalne delaji a dodat kvalitni produkt za fer cenu jako byl Zen u CPU divize. Specialne ted, kdyz prosakuje, ze Navi zas az tak uplne nova archi nebude. Netusim, zda je mozne do vydani Navi jeste dodat treba chip s nejakymi rtx jadry, nebo to dat primo k chipu, netusim. Myslim, ze to nestihnou. Takze budou bojovat cenou.
Jeste bych dodal, ze predpokladam vyvoj RTX u NV samozrejme dal. Rada 3000 uz muze treba davat i s mainstreamovou kartou tech 60FPS na fhd.
Jestli amd nebude mit neco podobneho jako NV, ujede ji vlak a gpu divize bude prodavat jen zobrazovadla do kancelarskych PC.
Jo, jedine ze by AMD vytahla svoje, jine reseni a treba jeste lepsi nez RTX. Proc ne, ale podivejte se jak dlouho tlaci dx12/vulkan a jeste dnes, v 90% pripadu kdyz uz nejaka hra s dx12 je, stejne to prepnu na DX11, protoze implementace dx12 je spatna a hry nejsou stabilni (vyjimka wowko, stabilni to je, prinos "0" takze je to vlastne jedno :) )
Ale RTX je videt a ma "wow" efekt. Proste funguje. Jak jsem si pustil demo rtx star wars na pc, spadla mi celist. Pak BFV a jsem RTX fanousek. Pristi roky se grafika ve hrach fakt hodne zmeni.
AMD by u toho melo byt taky!
GCN začala s vývojem někdy v roce 2007/2008 když vezmeme v úvahu 4 letý vývojový cyklus pro GPU. Vydaná byla v roce 2011 s GPU Tahiti. Největší změny prodělala při vydání Hawaii (2013), kdy došlo k zdvojnásobení geometrického výkonu a doplněním 8 asynchronous compute engine. Hawaii ještě dobře škálovala s navýšeným počtem CU a čtyřmi SE, což se bohužel už nedá říct o FIJI/VEGA...
Další hodně významná změna nastala při uvedení Vegy v roce 2017 ( bohužel tam toho spousta dodnes nefunguje ) nebo se to téměř vůbec nepromítá do výkonu. (DBSR, Primitive Shader, HBCC, NGG, RPM) Jako třešniška na dortu naprosto hrůzná spotřeba čipu a složité balení s HBM.
Uvidíme s čím přijde NAVI, ale víc než fix- bugnutou Vegu s o málo nižšní spotřebou bych nečekal.
Celkem s námi bude GCN achitektura už 9 let ...
pro srovnaní délka životnosti předchozích architektur od AMD:
R300 - přes 3 roky
R500 - 2.5 roku
TeraScale - 4.5 roku
GCN - 9 let
Ok. Mel jsem tam doplnit "JEN"
“Dost mozna za rok uz bude vic her s RTX nez her bezicich nativne jen na dx12/vulkan/mantle.”
Urcite tusite co jsem tim chtel rict. Ma chyba.
Puvodne se od dx12 ocekavalo hlavne optimalizovani vyuziti vice jader. Hlasalo to amd, hlasal to ten pan oDDvedle a nakonec se dx12 pouzije jako nositko NV RTX, protoze ten prinos dx12 = lepsiho vyuziti jader/spolehlivost aplikace, nam zatim uz nekolik let pokulhava.
Tak to je dobry ne? XD
No ja jsem optimista, DX12 a cokoli v nem i kolem se bude dal vyvijet. Treba si jednou reknu, tech 16 jader mi pridalo v DX12 30FPS. To by byla parada.
Jasne ze nutne to neni. Nutne nepotrebujeme bmw. I felda nas doveze do prace zejo. Ale ja chci bmw (RTX)
NV proste pripravila neco a dela na tom, co me jako hrace zajima.
Pustil jsem si Star Wars RTX demo na gtx 1080 (18FPS) a videl, ze chci hrat hry uz takhle. Jasne ze BFV hraju slusne. Ale ted bych tam chtel i RTX.
Potrebuju RTX gpu? NE. Chci ji? ANO
Kde pořád bereš ty kecy o nepoužitelném RTX na 2060? Hry na tom běží naprosto v pohodě s RTX. Že to bez RTX běží rychleji? Ano běží, ale když si i na ne RTX hře a i slabši grafice snížím detaily tak také poběží hra lépe. RTX není o tom aby to běželo lépe, ale aby to vypadalo lépe.
HFTS stíny taky degradovaly výkon na slabších kartách. HFTS stíny jsou pricipiálně nejblíže RT ze všech dosud rasterizaci implementovaných.
Mne je to nad slnko jasné a práve preto píšem hore uvedené a som zvedavý čo AMD vykúzli ak teraz za 300€ kúpiš nereferenčnú Vegu 56 či za 20-25€ viac/menej 1660Ti/2060.
...a v to žeby v úvode predaja začal byť mainstream reálne na +/- 250€ veľmi nedúfam, ono stačí sa pozrieť na koľkých €€€ ale aj kč reálne začínala RX480.
Je dobry si jeste uvedomit, ze kazda architektura, jak SW/HW, muze mit "skryte rezervy". Pokud bych to chtel videt optimisticky, tak i Navi muze krome 'bug fixu' prinest nejak optimalizovanou GCN, ktera muze pro urcite scenare prinest navyseni vykonu/efektiity. Je to sice vareni z vody, ale mozne to je.
Ja uz moc na PC nehraji, takze mne moc nebere ani Raytracing jako takovy.
Jinak Je pravda, ze ten tweet typu "poor volta" byl hloupy, hlavne kdyz si clovek srovna, s cim pak AMD ve forme Vegy prislo.
Obecne se ma tak nejak zato, ze Graficka divize byla co se tyce financi dost oskubana. Udajne to mel byt i duvod Koduriho k odchodu. Jak znamo bez dostatecneho kryti penez pro projekty, se nedaji moc ocekavat zazraky.
Podle mne tohle AMD vi, a mozna ji i odchod Koduriho a spol (a tim i 'poor volta') prospel, kdo vi.
Uvidime co Navi, jestli aspon trochu spravi pachut Veky a dnes uz obstarozniho Polarisku. A pak pristi rok.. (jako kazdy rok :)) )
"RTX není o tom aby to běželo lépe, ale aby to vypadalo lépe."
Souhlasim, take si ve hrach vypinam třeba Hairworks efekty, ikdyz to s nima vypada lepe, ale chci aby to především lepe běželo,tak to proste vypnu, hlavne abych mel 60FPS.
S RTX je to stejne, na RTX2060 to uzivatele radeji vypnou, protože sice super, ze to vypada lepe, ale většinou každý chce, aby to lepe běželo.
"Puvodne se od dx12 ocekavalo hlavne optimalizovani vyuziti vice jader."
A presne takto to take funguje. Nic nepokulhava. DX12 hry opravdu umi lepe využívat vice jader nez když to bezi jen pod DX10/11. Musí se ale jednat o skutečnou nativni DX12 hru. Pokud byla hra vyvijena pod DX11 a narychlo se ke konci vývoje prida podpora DX12, tak to dopadnout nutne nemusi. DX12 totiž integruje ruzne nastroje vcetne AI a fyziky, které se před DX12 musely resit individualne. Ta integrace sama o sobe udela lepsi optimalizaci pro beh na vice jadrech modernich procesoru.
Právě že RTX není JEN implementace DXR. Je to jeho nástavba, stejně jako ty Game Works jsou násstavbou DX a třeba pro ty HFTS je dokonce potřeba HW podpora.
Tady jde vidět skvělý NVIDIA marketing. Hernímu raytracingu lidi říkají RTX, přitom RTX je proprietární (a jistě patříčně opatentovaná) záležitost NV.
AMD asi nebude chtít platit za patenty/licence na RTX a budou se snažit o vlastní implementaci a tím nemyslím o implementaci DXR, která je jen otázka driveru, ale právě něčím navíc v podobě nějakých extra featur, které DXR posunou výše, tak jak to dělá třeba NVIDIA s tím RTX.
AMD fans by měli být první kdo mají na AMD kartách chtít DXR. Hodně se prsili a utahovali si z konkurence, že nemá plnou podporu DX12 (tzn. všechny volitelné features), a DXR je právě jedna taková featura DX12. Navíc stejnou příměrou by měli AMD ukamenovat, protože pro DXR nemají HW implementaci a mohou to pustit jen na úrovni SW, tedy driveru, přesně jako bylo v případě Maxwelu a Async Compute, který ve finále řadil ty async požadavky do standardní fronty.
jen pro úvodní ceny bych raději používal USD, ceny v € nebo Kč jsou ovlivněné kurzem vůči USD a také, v případě EU DPH, které je v různých zemích EU různé, ceny v USD jsou vždy bez daně a to i když si to člověk kupuje v US v krámě, oporti EU totiž cenu s daní (sales tax) nemají ve zvyku uvádět (a pokud tak malým písmem jako jsou u nás naopak cenu bez daně).
Lidi mají leckdy tendenci srovnávat ceny v Kč v době kdy dolar stál 16 korun s cenami, kdy dolar stojí 22 korun a nadávají že ty ceny jdou nahoru, přitom originál USD cena může být dokonce nižší.
Také v případě srovnání s historickými cenami není od věci počítat i inflaci. On i ten dělník v číně už chce výrazně víc peněz než které bral před 10, 15 lety.
Marketing musí být, kdyby firmy "byly zticha", tak v dnešní době zapadnou a zkrachujou. Sice si fandíme, že jsme logický a racionální a jsme úplně nad těma tanečkama a blbostma, ale v celkovým měřítku celého lidstva/zákaznictva to na nás působí, takže kdo si nezaplatí ramena a neudělá PR/virál/etc, tak pro nás neexistuje.
Jasne rozumim. Ja teda hraju hry dost, proto me veci kolem grafickych karet zajimaji.
Finance u amd jsou globalni problem, samozrejme je to ale i odraz uspesnych/neuspesnych vyrobku firmy. Za nedostatek financi, si kazda firma muze sama. Spatnymi vyrobky, ktere nejdou na odbyt, nebo spatnym planovanim. Kouknete na Apple jak byl v haji. A kde je dnes (jasne, houpe se jako kazdy, ale byl na tom mizerne a jak je dneska uspesny). A co NV? Mladsi firma nez amd, taky nejak zacinali a dnes se jim dari vice nez slusne (pres 80% trhu). Taky meli problemy, ale asi udelali v minulosti lepsi rozhodnuti nez gpu divize amd, aby se z toho dostali.
Za nedostatek financi si firma muze sama. Pokud se podnikani nevyplaci, zabalim to a jdu delat neco jineho. Nebo podnik zachranim nejakym rozhodnutim. Tohle potkalo kazdou firmu, jenom amd z toho zatim neumi vybruslit tak dobre jako jini. Ale to se myslim meni. Lisa Su!
Ten rok 20/21 bude hodne zajimavej.
a protoze vykonnost obecnych vypocetnich jednotek soucasnych gpu v DXR zname (obecny RT funguje na soucasnych gpu uz dlouhe roky, samozrejme nonrealtime), a vime tedy ze vykon je prakticky nepouzitelny, vime take, ze pro skutecne DXR je nova architektura nezbytna.
pokusy o nahrazkove technologie tu byly tez a vykonostni penalizace se blizi DXR s neporovnatelne horsimi vysledky (HFTS, SVOGI).
To je prave ten nesmysl, co se snazi AMD weby rozsirovat - AMD nema lepsi implementaci DX12. AMD melo o hodne horsi implementaci DX11. Nvidia podle vsecho implementovala obdobu async compute uz v DX11, takze pro ni prechod na DX12 nema takovy prinos.
Situace je tedy naprosto opacna. Ukazuje to, jak je architektura AMD spatna. Nema uz zadny potencial. A to je duvod, proc musi AMD hnat svoje cipy na hranu maximalni spotreby/taktu. Jinde uz totiz zadne zlepseni nedokazou najit.
Jiste, souhlasim. Reklama a PR je dnes nutnost.
Ale to co predvedlo amd s "Poor Volta" byla hodne "macho" reklama jen do doby, nez se ukazali vysledky. Pak z toho byl trapas a streleni se do vlastni nohy. Pak uz to nebyla reklama, vratilo se jim to jako bumerang.
S reklamou problem nemam, tohle ale reklama moc nebyla ve finale XD
To neni o tom, marketing ano nebo ne. Tohle AMD jednoduse nevyslo, podobne jako dnes uz slavny vyras jejiho konkurenta "just works". :)
Je treba si uvedomit, ze tyhle kampane sleduji miliony lidi. Proto cim vagnejsi/kontroverznejsi vyrok, tim si kazdy pod tim predstavi to co rovna potrebuje a samozrejme to pak prijde jako bumerang zpatky.
U takovych kampani je jisty druh obezretnosti formulaci na miste.
Mě přijde, že to Poor Volta byla takovej mrňavej detail, že fakt nevím, proč na tom lidi tak lpí.
https://www.youtube.com/watch?v=9R8F-aN6W4g
Moc nějak "macho" mi to nepřijde, ani tam není nic o výkonu nebo tak, že by se to dalo brát jako machrování. Je tam spíš takovej ten motiv že Nvidia je "omezující" (zvedá ceny, technologie typu G-Sync jsou spojený s příplatkama, možná takovej ten náběh na kult značky, za kterou se platí, jako u Apple). Od toho se odvíjel ten marketing s "rebelií" a na tom jelo i to video. A to IMHO nebylo úplně mimo, taková ta potřeba alternativy bez těch zmíněnejch nešvarů tu je a AMD to snad bude tak i dál vést.
Si říkám jestli se kolem toho nevytvořila taková legenda, kdy si pod tím lidi představujou něco úplně jinýho, něž co to oprvadu bylo. No minimálně asi ten, kdo to vymyslel, nechtěl takovýhle konotace vytvořit. Ono asi taky ten člověk samozřejmě nevěděl nic o tom, jaký má to GPU parametry a výkon, dostal holt za úkol udělat takový poloumělecký video a šoupl tam tohle jako vtip.
No prostě se to IMHO příliš řeší.
"zpetna kompatibilita"
.. ja ti nevim, jestli tohle je zrovna nejlepsi argument. Podle teorie, by mela hra volat graficke API, ktere pak vola dal nejaky druh grafickych "primitiv". Tudiz i se zmenou architektury chipu, mohou upravit API tak (nebo vydat compatibility verzi), ktera by tohle mela umet provozovat i na nove architekture grafiky. Proto se ta API delaji, jinak by mohli volat primo funkce grafiky a kazdy engine si to pak bude mastit po svem a delat vlastni low level knihovny.
Jestli jsou ty konzole u toho low level API nejak podstatneji zavisle i na nejakych nestandardnich call funkcich, nebo josu ta API velmi specificky psane na miru danemu HW, nevim. Mozna pak by kompatibilita architektury davala asi smysl.
vidím, že někteří si to opravdu představujete jako hurvínek válku :-) To tam můžou dát klidně nvidia čip a bude pro vývojáře hračka, protože API volají jen funkce grafiky . LoL
Vy asi nechápete, že mezi API a čipem samotným je ještě jedna softwarová mezivrstva, které se říká ovladače a díky které ty vámi výše jmenované API vůbec mohou s čipem komunikovat...
každá změna v architektuře je velký zásah právě do takové softwarové vrstvy
No dobre, vam asi ta reklama nevadila. Me uz ano. Vzpomnel jsem si na jiny PR kousek. Buldozer valcujici intel logo (a opet vsichni vime jak to dopadlo). Ono si to amd neda s tim postuchovanimkonkurentu pokoj a pritom samo nema NIC!
Ja tomu uveril. Bulldozer byl na seznamu v alze. Protoze se ale klasicky od amd vse opozdi a taky opozdilo, poridil jsem i7 2600K a pretocil ho na 5,150ghz. Udelal jsem tehdy dobre? Sakra ze jo, nez smradlavej zravej pomalej Bulldozer. Hlavne ze byla kampan i s klipama jak drti Intel!
A pak "Poor Volta"
Co prijde zas?
Pardon, ale takhle se nechova dospela firma. Takhle se chova AMD a Hjuuundaj (co v reklamach kope do skodovky, taky nic moc).
Takze se omlouvam, ale ja reklamu od amd resim. Malem jsem nalitl a tak si proste davam pozor.
Pozn. momentalne ficim na Ryzen 1700 protoze proti CPU od AMD nemam nic. Vedeli ze BD byl pruser, drzeli hubu a krok a makali. A dodali dobry produkt i bez zesmesnovani (predcasneho) konkurenta.
GPU divize se chlubi predcasne a dela akorat marketingove skody.
Jeste jednou uvidim takovy typ PR na amd produkt a odsoudim je na dusevni chudaky.
Sorry jako.
ale DX12 a Vulkan/Mantle přece jsou grafická api, které volají funkce grafiky na nízké úrovni, tzn že to api nemá žádnou velkou logiku (resp. nemusí se použít) a vývojář si to může napsat na míru své potřebě a volat přímo GPU. Podobně je tomu i ta konzola SONY má dvě grafická API, jedno low a druhé high level. Pokud by se zásadně změnila architektura čipu, tak vývojáři používající high level API budou fajn, protože kompatibilitu zajistí přímo SONY interními změnami v API (tedy to co na PC dělá driver grafiky), pokud ale vývojář používá low level api, může se dostat do problémů pokud nová architektura takové volání neumožní nebo se může chovat nevyzpytatelně.
Nicméně zpětnou kompatibilitu bych jako důvod neviděl. Sony určitě vypsalo na dodavatele čipů pro konzole soutěž, chtěli nějaké parametry, nějakou cenu a to evidentně dokázalo nejlépe nabídnout AMD, případně jako jediné.
"Vy asi nechápete, že mezi API a čipem samotným je ještě jedna softwarová mezivrstva, které se říká ovladače a díky které ty vámi výše jmenované API vůbec mohou fungovat…"
.. Mne osobne tda nic neunika. To ze existuje obecne API, ktere pak vola "dalsi API" konkretniho SW (v tomto pripade driver grafiky) je uplne bezne a normalni. Takhle funguje vetsina SW systemu.
Nicmene k veci. Chces tim komentarem rict, ze graficky engine vola funkce toho driveru, misto aby volal API DX12 nebo OpenGL?
Unika mi pointa tveho prispevku...
Tak narozdil od tebe, co tady akorat mele pantem o tom, jako to ostatni nevedi, jsem popsal obecne, jak SW API funguji a napsal jsem , ze jelikoz nejsem vyvojar her, tak to mozna muze byt i trochu jinak.
Od tebe tady na konci krome velkohubych prohlaseni o tom, jak to vis lepe nez ostatni neprislo nic...takze uroven tvych informaci nula a s polu s tim arogantnim tonem, muzes jit s takovymi prispevky, vis kam.. :)
Jenže obecný RT je kvalitativně něco úplně jiného, než DXR nebo RTX. Několikrát jsem na toto (zdá se neúspěšně) v souvislosti s RTX upozorňoval, tudíž argumentovat pomalostí standardního RT není úplně korektní.
Tvé vývody o nutnosti nové architektury tedy nejsou obecně platné. A zrovna GCN, které bylo vždy koncipováno spíše na výpočetní stránku, bych předem neodepisoval.
kamo, to je Ampere. Ten nas tu nezajima (asi moc lidi s teslama nehraje).
https://www.cnews.cz/nvidia-7nm-gpu-geforce-jsou-daleko-12nm-proces-staci
@tombomino
Mezivirstva - driver - je snad otázka PC, kde není jasně dané jaký HW je za voláním API. Pokud mám ale jasně daný HW, tak tu mezivrstvu nepotřebuji. Příklad 8bit počítače nebo právě ty konzole, ty mají tu grafiku jednotnou, takže není třeba driver a API může volat přímo GPU tak jako by dělal ten driver - tím i odpoadají HW nároky na provoz driveru = vyšší efektivita.
Nicméně právě u low level API je možnost aby vývojář volal featury toho konkrétního HW. To je právě výhoda těhle API, umožní psát kód na míru HW a používat efektivně jejich možností.
Jako programátor vím že potřebuju zavolat funkci A, B a C GPU abych dosáhl toho co chci. Když použiju high level API, zavolám něco jako CALL_A_B_C a to API pak provolá ty funkce. Low level API pak bude CALL_A, CALL_B, CALL_C. Pokud ale vím že jiný vendor grafiky by pro tu samou věc uvítal víc volání v pořadí A, C a B, tak při použití high level API budu stále volat CALL_A_B_C protože CALL_A_C_B to api nemá, v low level ale mužu zavolat CALL_A, CALL_C, CALL_B a dosáhnu lepší efektivity pro daný HW.
pokud se tedy změní architektura GPU v konzoli a používám high level API, tak se to v API může interně přepsat BC na ACB a pro mě jako programátora se nic nemění. Pokud jsem ale psal pomocí low level API, tak ten kód, aby byl efektivní (nebo aby vůbec fungoval) musím přepsat sám protože to low level API řeší jednotlivá volání tak jak je po něm žádám
přečetl jsem poctivě a pozorně vše a nemám potřebu cokoli na svém předchozím postu měnit.
Raytracing, coby matematický algoritmus je celkem jednoznačně dán a představu mám víceméně dobrou - raytracingem jsem se kdysi v mládí zabýval.
Takže argumentace, že obecný (tedy na kvalitu zobrazení zaměřený) RT je pomalý, ergo pro DXR/RTX a podobné aproximativní metody RT je nutná HW podpora, je dle mého názoru naprosto chybná.
Ostatně to demo od Cryteku co běhalo na V56 to svým způsobem taky ozřejmuje.
S jfb v podstatě souhlasím, princip/algoritmus RT je celkem primitivní, avšak výpočetně náročný, zejména proto, že je v něm rekurze. Z principu je taky masivně paralelizovatelný, takže nevidím žádný zásadní důvod mít na RT v GPU podporu "specializovaných" jednotek.
del42sa: ano, k tomu jsem směřoval. AMD se vydalo kvůli koupi ATi (2006?) a následně uvedlo průserovou architekturu Bulldozeru, což vedlo k podseknutí příjmů, rozkotání grafických týmů vyvíjejících budoucí GPU a "udržovacímu módu" v grafické divizi.
Na rozdíl od tebe si nemyslím, že GCN je úplně špatně. Má rysy, které se ukazují jako velmi dobré (dlouhodobá výkonnost, přiravenost na budoucí standardy), ale taky samozřejmě špatné, jako je vyšší spotřeba, nebo limity ve škálování. Tak dlouhý lifespan architektury má za následek taky to, že i dnes se dají celkem dobře použít GCN1.0 karty jako HD7970 (resp. R9 280X) či novější - což je dobře pro zákazníka, ale ne úplně dobře pro výrobce, který pak má problémy s inovačním cyklem a poptávkou. Na druhou stranu je pak trochu jednodušší podpora v ovladačích.