Hlavní navigace

Odpověď na názor

Odpovídáte na názor k článku První hra používající ray tracing na GeForce RTX vyšla. DXR ale snižuje výkon o 40–60 %. Názory mohou přidávat pouze registrovaní uživatelé.

  • Tento text je již více než dva měsíce starý. Chcete-li na něj reagovat v diskusi, pravděpodobně vám již nikdo neodpoví.
  • 16. 11. 2018 7:36

    tynyt

    Tak tomu říkám brutální damage control koženozelené fronty ????

    Když bylo už před uvedením jasné, že RT je jen vějička, která nebude mít praktické využití, plácali tady zelení věrozvěsti pohádky o tom, jak to bude fungovat, navzdory dřívějším (a realistickým) prohlášením několika vývojářských týmů, že reálné bude spíše cca 60fps ve FHD pro nejvyšší model RTX karet. A kdo nenaskočil do hypetrainu o super výkonu RTX karet v RT, byl prohlášen za AMD fanatika. Dnes jsme se posunuli a čekáme na "doladění výkonu" - navzdory tomu, že nvidia "úzce spolupracovala" s DICE na vývoji BFV a samotnou hru kvůli téhle nesmyslné patálii o měsíc odložili. Připomínám, že BFV je evoluce frostbite enginu, který tu je už roky (a je použit nejen v hrách série BF, ale jedná se o "kmenový" engine EA, na kterém běhá vícero herních titulů), tudíž kecy o "ladění výkonu" jdou téměř výlučně za hypem jménem RT.
    Nakonec jsme se dočkali výsledků, které mají k reálnému raytracingu asi stejně daleko jako klasická metoda vykreslování, jde stále o nedokonalou aproximaci a simulaci raytracingu, navíc omezenou na některé objekty a vlastnosti materiálů. To vše za cenu extrémních HW požadavků, ceny a komplexnosti pro vývojáře.

    Pokud někdo naivně čeká, že se to zázračně zlepší alespoň o desítky procent, tak se mýlí. Pokud někdo čeká, že to další generace posune na použitelnou míru alespoň v hiendu, tak se mýlí taky. Pokud někdo čeká realistické scény, alespoň na úrovni raytracingu z dob 16-bitů (tj. cca 25 let zpět), tak se mýlí rovněž. Raytracing (ten pravý, ničím neoje*aný) je totiž matematická úloha, jejíž výpočetní náročnost roste s velikostí a složitostí scény geometrickou řadou. A na to nebude stačit ani přechod na 7nm. Na to bude třeba (pokud se to vůbec uchytí) zásadní změna designu grafických čipů, způsobu, jakým fungují. Rozhodně nebude stačit přidat do GPU pár modulů, nazvat je "tensor cores" a myslet si, že je hotovo.