Tak mi to pripadá, že verzia DLSS 2.1 (ktorá nevyžaduje vytrénovanie na superpočítači), je odpoveďou nVidie na spoločné úsilie AMD, Microsoft-u a zrejme aj Sony v podobe chystaného "FidelityFX Super Resolution" (skrátene FSR), ktorý mieri presne tam kam DLSS 2.1 . A my môžeme len dúfať, že FSR bude fungovať podobne dobre ako DLSS 2.0/2.1 a že sa z neho stane opäť štandard ako je tomu u "FreeSync" s ktorého vznikol štandart "VESA - Adaptive-Sync" a ako sa to stalo u "Mantle" z ktorého vychádza "Vulkan" (síce pozmenený aby fungoval aj na iných ako AMD čipoch) a ktorý donútil Microsoft vydať tiež low level API "DirectX 12". Budem rád ak opäť vyhrá "otvorená technológia" pre všetkých, nad uzavretou technológiou jednej firmy.
Každá technologie přinášející nějaký ten výkon navíc je vítaná.
A k otevřeným standardům, třeba paradoxně FreeSync nedodržuje Adaptive Sync standard už proto že nevyžaduje využítí display portu člověk fakticky neví co kupuje protože není FreeSync jako FreeSync, třeba jen se dozvědět v jakém rozsahu na daném monitoru FreeSync funguje je téměř nemožné, v běžných specifikacích to uváděné obvykle nebývá a může se lišit monitor od monitoru.
FidelityFX Super Resolution pokud implementován pomocí DirectML bude proti DLSS trpět, aktuálně AMD nemá čím to akcelerovat. Naproti tomu NVIDIA kdykoli může DirectML použít a má k dispozici akceleraci s tensor jádry. Otázkou je jaká bude výsledná kvalita.
AI akcelerovaná speciálním HW je cesta správným směrem, běžně používané třeba v telefonech nebo noteboocích, kde to pomáhá se zpracování fotek, stabilizací videa, filtrování nežádoucích zvuků z mikrofonu atd. Nemá smysl vše lámat hrubou výpočetní silou, když malý kousek specializovaného křemíku odvede více práce s daleko vyšší energetickou efektivitou.
Ake jednoduche. Staci vydat dostatocne vykonnu kartu na 4K. Co tak rovno na 8K alebo 16K? Skoda ze to doteraz nikoho v NV ani AMD nenapadlo. :-) Rekonstrukcia obrazu (nie obycajny upscaling, na ktory to niektori ludia zhadzuju) je cesta k vyssim rozliseniam. Nebudem mat problem hrat hry v akomkolvek rozliseni aj ked sa bude obraz realne renderovat v rozliseni nizsom. Ak nebudem vediet rozlisit vysledok od nativneho rozlisenia, nevidim v tom problem.
Presne som čakal narážku na to, že nemôže nVidia reagovať na niečo, čo ešte nevyšlo....no môže, pretože už dávno nVidia vie, že čo AMD a spol. chystá (v hrubých kontúrach isto), len to doteraz nemá vo finálnej fáze pre PC a konzoly PS5 a XboX series X ...primitive shaders fungujú, ale až od RDNA architektúry....Koduri-ho VEGA to nakoniec nevedela, lebo to bolo až veľmi komplikovane implementované a stálo by to neakceptovateľné prostriedky, aby to fungovalo.
Tú narážku na pána z dvojitým "D" si si mohol odpustiť, lebo je to taký istý egzot ako pán "OBR", to nič nemení na tom, že v istých veciach, môžu mať obaja títo páni pravdu (aj keď každý v iných), ale interpretujú to dosť nešťastným spôsobom.
https://en.wikipedia.org/wiki/RDNA_(microarchitecture) --info k primitive shaders
K freesync monitorom len toľko, že je na to "dosť hrubý" zoznam https://www.amd.com/en/products/freesync-monitors
K DLSS a Tensor jednotkám... uvidíme až to AMD implementuje...momentálne mi to pripadá tak, že sa možno AMD stráni vytvárať špeciálne jednotky na AI, lebo zrejme to zaberie väčšiu plochu ako rozšíriť už existujúce jednotky, aj keď to má istý dopad na výkon. Budeme múdrejší neskôr, ale netvrdím, že nemáš pravdu...každá "sranda" niečo stojí.
Nechápete smysl příspěvku. Už několik let se tu plácáme s 1440p. Když už přijde nějaká výkonnější karta, tak tam nasadí nesmyslnou cenu (RTX 3090 / RX 6900XT) a pak přijde hra, jako Cyberpunk 2077 (optimalizační odpad) a i nejvýkonnější kartu to položí na lopatky. A kupte si kartu za 50+k a pak hrajte v 1440p+upscaling. To raději zůstanu u svoji RX 5700XT za 12k a taky můžu většinu her hrát v 1440p, jenom s míň fps a bez upscalu, ale stále nad 60fps. Takže se mi prostě neoplatí dělat upgrade. Možná, kdybych byl nějaký velký hráč, tak ještě přivřu oči, ale jelikož zahraju tak 2 hry ročně, tak by to znamenalo, že si zahraju tak 3-4 hry, než karta začne být zastaralá a výkonnostně nedostatečná. To kdysi neexistovalo, koupili jste si High-end za 13k a hráli i 4 roky. Btw tu RX 5700XT jsem koupil jako přechodnou kartu za mojí dosluhující GTX 1070, která na 1440p@120hz už neměla výkon s očekáváním, že se dočkám nějaké 4K karty do 20k. V chytrém upscalingu taky nevidím problém, ale kvalita nikdy nemůže být, jako nativní rozlišení a proto to nechci používat, resp. připlácet tolik peněz za to, abych stále hrál v 1440p, ale s upscalingem. 8k nebo 16k zatím není vůbec rozšířené rozlišení, takže tolik výkonu není potřeba, i když by se hodil, protože by to znamenalo dost výkonu na 4k@120hz (aspoň 60fps)
Nechcete jít dělat CEO do AMD nebo NVIDIE? "Chytrý" jste na to dost. Nebo možná jít šéfovat do těch sw firem které dělají stále větší a větší srákory místo toho aby hry pořádně optimalizovali aby vymáčkli z hw co nejvíce.
Mimochodem, kdyby například OS a programy na Androidu zůstali na úrovni před několika roky a místo honění většího a většího výkonu se šlo na energetickou účinnost, tak dnes máme mobily které vydrží na nabití stejně jak například Nokia E52. Ale to se dělají stále větší omalovánky, další čuribrky přidávají, ...
A to samé je i ve Windows (tam se dost věcí dá naštěstí celkem jednoduše vypnout) a u her to samé. Tam naopak vedení firem tlačí místo optimalizací tam nahamtat celou řadu nesmyslů, jen ať se to dobře prodává těm troubům co za to ochotně zaplatí.
Neviem, ale práve v článku z odstavca " Nvidia oznámila, že technologie DLSS 2.0 (respektive teď již 2.1) je teď dostupná jako plugin pro Unreal Engine 4. Přesněji by mělo jít už o DLSS 2.1, které mezitím vyšlo (s režimem Ultra Performance, který provádí 3× zvětšení pro hraní na 8K monitorech)." som nadobudol dojem, že DLSS 2.0 potrebuje trénovanie na SuperComputeroch a DLSS 2.1 už nie a môže byť aj v podobe pluginu pre UnrealEngine 4.26 a novší.
A v popise na stránke unrealengine sa nespomína konkrétna verzie iba je uvedené 1440p > 8K, takže aj ten plugin musí byť DLSS 2.1 (samozrejme obsahuje predchádzajúce vlastnosti čo malo DLSS 2.0 plus pridáva nové)
https://www.unrealengine.com/marketplace/en-US/product/nvidia-dlss
Tak jinak. RTX 3080 má výkon dvou mých RX 5700XT. RX 5700XT mě stála 12000,- za jednu z nej edic. Takže aby mi koupě dávala ekonomický smysl, musela by stát do 20k, ale ejhle vona stojí 35k. Optimalizace je věc jedna, ale poměr cena/výkon je věc druhá. Koupě musí mít smysl a 35+k jsem naposled utratil za OLED monitor, protože tam ta vysoká cena má opodstatnění, zatímco upgrade na RTX 3080/RX 6900 XT smysl nemá
Jak DLSS 2.0 tak DLSS 2.1 se vytrénovalo někde na superpočítači Nvidie.
Rozdíl je mezi nimi a DLSS 1.0. To se jseště muselo trénovat na každou hru zvlášť, DLSS 2.x už se trénuje genericky a pak už má fungovat pro všechny hry. Ten jednou natrénovaný model mohou vývojáři hry začlenin manuálně, nebo teď pomocí toho pluginu v enginu Unreal.