AMD RSR taky neni špatný, Radeon™ Super Resolution (RSR) je funkce upscaling v ovladači.
RX6500XT hraní ve 4K přes RSR.
https://www.youtube.com/watch?v=ggzEu14rv54
S mojí RX6600XT bych si troufnul hrát KDC přes RSR v ve 4K.
DLSS 2.0 vznik březen 2020 (34 měsíců) to dotáhlo na 250 to je růst 7 za měsíc
FSR vznik březen 2022 (10 měsíců) to dotáhlo na 110 to je růst 11 za měsíc
Vědět tak jak si to stálo DLSS v 10 měsíci vzniku. Tak by to bylo ještě méně lichotivé srovnání pro DLSS. Prostě sázka i na konzole se AMD asi vyplatila a zřejmě bude i zabijákem další "úspěšné" technologie os zelených DLSS.
tak pri filmoch je ine. tam to zvysovanie fps vyzera ako telenovela (soap opera effect). je to kvoli tomu, ze bezne filmy su 24fps a ludia si na to zvykli a hocico ine vyzera neprirodzene, aj ked pre oko/mogoz je plynulejsi pohyb prijemnejsi (hlavne v dynamickych scenach.... napr. skuste si zapnut dopocet snimkov napr. pri sportovych prenosoch, futbal/hokej).
ale pri hrani hier, kde je bezne minimalne 60fps je to praveze ziadane.
a ak sa kvoli tomu nevyskytuje nejaky ghosting, tak je zvysenie fps super.
Když budeš chtít hrát hru, která podporuje jen DLSS, tak je ti prd platný, že dalších milion her podporuje FSR.
Navíc je to celé trochu jinak. NVidia má své programátory, kteří u blockbusterů často na konci vývoje vypomáhají s odladěním hry a NVidia tam DLSS právě tímto přístupem protlačí. AMD v tomto není schopno s NVidií soupeřit. Ale jak píšeš, výhodou jsou konzole, kde to mohou implementovat vývojáři hry už v průběhu vývoje sami a navíc je ta implementace jednodušší.
Časem se asi víc rozšíří FSR kvůli té jednoduchosti a univerzálnosti, zatímco DLSS prostě bude tam, kde se hrou NVidia bude vypomáhat, což budou jen AAA tituly, ty si to mohou dovolit. Nehledě na to, že DLSS 3.0 je bullshit. NVidia si svou technologii nakonec sama pohřbí.
Akorát že půlka z toho je teprve Upcoming a FSR 2.x využívá funkce, které jsou v těch hrách implementované kvůli DLSS 2.x, že. Dokonce do té míry, že občas jenom stačí přehodit knihovnu pro DLSS za knihovnu pro FSR a funguje to.
Takže ano, do hry, ve které už funguje DLSS, se to dá dostat rychleji.
Jinak řečeno bez toho, že v těch hrách už bylo DLSS 2.x, by si mohli fans o 55 titulech s FSR 2.x za deset měsíců nechat jenom zdát.
Jinak řečeno ještě dlouho potrvá, než počet titulů s FSR 2.x překoná počet titulů s DLSS 2.x.
Zabils, no, zabijáku.
No srovnávat to s TV je jaksi jiná buchta. TV si do buferu může natáhnout i několik snímků a tak zná kam se obraz posunuje a může vkládat dopočítané mezi snímky. I kdyby šlo o přímý přenos sportovního pořadu, tak díky této technologii dojde k zpoždění třeba o půl sekundy, což je zanedbatelné, protože se jedná pasivní sledování obrazu bez interakce. U hry v DLSS3 to funguje podobně, ale má to o proti TV svá negativa, protože u hry se počítá s interakcí ve hře. Vysvětlím názorně , nebrat doslovně. Jestli GK potřebuje bez DLSS3 3 jednotky času mezi vygenerovaným snímkem 1 a snímkem 2, Tak s DLSS3 se tento čas nezkrátí, ale díky vykreslení vloženého snímku se ještě zvětší na 4 časové jednotky. Proč? Protože driver musí pozdržet zobrazení snímku 2 který je sice již hotový, ale musí počkat než se vykreslí mezi snímek jako snímek 3. Tak že DLSS3 vyhazuje snímky na monitor v pořadí 1-3-2. Obraz vypadá plynule, ale mohou vznikat artefakty či kolize objektů, ale hlavně dojde k zpoždění. Samozřejmě NV stejně tak AMD mají technologii na snížení tohoto zpoždění. DLSS3 způsobilo, že, technologie k snížení lagů, která měla snížit lagy ve hře aby se zlepšilo hraní o proti stavu kdy použita není, je v případě DLSS3 použita k tomu, aby eliminovala zvětšení lagů o proti situaci kdy DLSS3 a ani technologie lagů požita není.
Ano je trochu jinak konkrétně Váš výrok „Když budeš chtít hrát hru, která podporuje jen DLSS, tak je ti prd platný, že dalších milion her podporuje FSR.“ je jinak. Jak je uvedeno v článku „FSR 2.x se dá s určitými kompromisy vnutit do her, které používají DLSS 2.x“.
Nvidia toho moc neprotlačí stejně jak ukazuje historie jejího protlačování. Fůra her je jak na konzoli tak na PC a proto bude mnohem jednodušší a efektivnější se naučit používat FSR pro obě platformy a DLSS poslat k šípku.
Naposeldy čo som čital o použití PhysX v AAA hre boli vlasy v Zaklínač 3. G-Sync ktorý tu podaktorí označovali ako technológiu ktorá zmení herný svet má na alze 29 monitorv proti 437 pre FreeSync. Za pár rokov bude na tom DLSS podobne, ale to tu už bude mať nVidia ďalšiu revolučnú uzavretú technológiu, ktorá sa bude tešiť na budúci nazáujem :)
Ty jsi rozesranej úplně všude, redaktor pctuningu, troll diitu a cnews.
Všude obhajuješ Nvidii.
Taky jsem se rozesral na pctuning, abych mínusoval tvoje a Obrovo sračky.
Největší mínusák na pctuningu tady komentuje, že ti stojí za to, dělat si všude ostudu.
Měl by si skončit jako redaktor, jsi starej, zaujatej, Nvidia fans.
V TV je celý obraz jedna velká bitmapa, kde musíš dopočítat celý mezi snímek. Ve hře jsou v paměti uložené objekty a můžeš je teda rozškatulkovat a dopočítat mezi snímek každému objektu zvlášť.
To zkracuje dobu zpoždění. S TV se to moc srovnávat nedá.
Zbytek máš správně, může to mimo jiné způsobit kolize objektů.
Ste niektori taky hrrr na odrovnanie DLSS a vobec vas nezaujima kvalita vystupu. Pokial prejde konecne aj AMD na AI riesenie, ktore bude celkovo porovnatelne s tym, co ponuka DLSS, tak kludne. Ale nechapem preco chcete nieco za kazdych okolnosti len preto, ze to ide vsade. Ale vidim, ze si moze AMD zbuchat hocico a hned to bude pre niekoho "alternativa". Nie je to prvy krat. V minulosti stacilo aj to, ze iba o niecom rozpravali. Ale co uz.
To je radost. A pritom PhysXu je skoda, ale asi to uz zvladaju v pohode aj nativne herne engine-y takze uz preneho nebolo miesta. Takze to sa da. A porovnavat cisto iba cislami Freesync vs GSync je dost povrchne. Spytam sa takto. Kolko z tych Freesync monitorov napriklad podporuje adaptivnu synchronizaciu od 30 Hz do hornej hranice monitora? Poviem ti, ze budes rad ak to bude od 40 a je otazka kolko ich je do hornej hranice. Co sa tyka adaptivnej synchronizacie, tak GSync je high-end ako RTX 4090 a Freesync je nieco ako odpoved AMD na RTX 4080. Neprekonava najlepsie na trhu, ale je aspon lacnejsie a hlavne dostacujuce. Ale kto chce to najlepsie, tak nema na vyber. Aj ked aj GSync ma svoju nevyhodu. Nechcel by som mat monitor s aktivnym chladenim. No a DLSS je opat kvalitativne lepsie riesenie ako FSR. Ale o kvalitu ti zrejme nejde. Hlavne ze NV pride o vyhodu, aby si mal radost. :-)
To jsi to úplně popletl.
V Zaklínačovi 3 byla na vlasy použita technologie NVIDIA HairWorks, pokud teda to člověk hrál na GeForce. Nemá to nic společného s PhysX a navíc to byl gimmick, který žral neskutečně výkonu, takže to každej vypínal.
PhysX byla navíc dobrá věc, škoda, že to NVidia zabila.
DLSS 2.0 je také o dost lepší než FSR 2, ale tady to NVidia podle mého názoru zabila nesmyslem DLSS 3.0. Bude to propagovat namísto toho předchozího řešení, přitom je to horší. FSR má výhodu univerzálnosti, takže to nakonec vyhraje přesto, že je objektivně horší.
Prosím, prosím, pokud někdo chce o něčem mluvit, zjistěte si nejdřív o čem mluvíte...
https://www.pcgamingwiki.com/wiki/List_of_games_that_support_Nvidia_PhysX
To že se o tom nepíše v každé recenzi her, neznamená že se to nepoužívá.
Tak to ale DLSS 3 nedělá. Pracuje na úrovni bitmapy, až výsledných pixelů.
Jak DLSS 3, tak televize dostává snímky ve formě bitmapy a v těch bitmapách si "slepě" hledají pohybové informace porovnáním po sobě jdoucích snímků.
Rozdíl je v tom, že DLSS 3 má jako pomoc dodatečný zdroj informace o pohybu - pohybové vektory ze hry, což je hodně užitečné. To televize nemají, nebo aspoň ne v takové míře. Můžou zase přebírat informaci o pohybových vektorech z enkódovaného videa (protože všechny reálně používané distribuční formáty mají v rámci komprese pohybovou kompenzaci), ale ty budou o dost méně užitečné než vektory ze hry.
DLSS 3 může dělat to, že se pro určitou část pixelů rozhoduje mezi tím, kterým pohybovým vektorům věřit (těm ze hry, nebo těm z vlastní analýzy pixelů), nebo které věci třeba řešit tak, že se interpolace ignoruje... Ale nějaké škatulkování na objekty a počítání zvlášť tam v DLSS 3 není, pořád to pracuje až na úrovni pixelů snímku.
Vůbec mne nezajímá kvalita výstupu? Tak to jste z mého příspěvku nabyl špatný dojem. To co ze mne hovoří je minulost co rozhodla podobné případy. Doby kdy jsem viděl jenom kvalitu technologie je už dávno pryč a proto ji nepřeceňuji.
Obecně je jeden prvek který rozhoduje a to jsou peníze. Když už nechcete vidět ten hloupě opakovaný přístup Nvidie k vlastním technologiím kdy si neuvědomují, že nemají sílu prosadit standard a neustále svůj produkt hloupě nechávají umřít. Zkuste si uvědomit kolik ušetří vývojář když bude moci použít jednu technologii na PC i konzoli.
Jsem zvědav kdy si ti zelení tupci uvědomí, že i mnohem větší společnosti dávají svoje technologie k dispozici ostatním. A zadarmo.
Zbytečně poukazujete na jeden detail ve kterém se netrefil. Obecně ale má pravdu. Ukazuje tady celou šňůru technologií kterí Nvidie pohřbila svoji vlastní hloupostí. V dnešní době kdy DLSS má konkurenční ekvivalent nic nenasvědčuje tomu, že se nebude historie opakovat. BOHUŽEL.
To není nic proti těmto technologiím jejich ztráty mi je líto ale je to namířeno proti managmentu Nvidie kterí se jako oni pověstní blbci pálí o stejní kamna ne jen dvakrát. Tupý management co nechápe technologie ani trh na kterém tak dlouho jejich technologie vystupují.
Já jsme žádnou radost nezaznamenal. Zaznamenal jsem hlavně jednom dlouhou šnůru technologických mrtvolek a vyhozených peněz které Nvidia propálila na jejich vývoji. Víte mít někoho opravdu rád také znamená si uvědomit jeho chyby a když mu je vytknete tak to není o radosti ale o tom pomoci tomu druhému aby si ty chyby uvědomil. Nekritické obdiv nebo pochlebování Nvidii nepomůže.
Nejlepší vyhrávají ale být nejlepší neznamená jenom pár technických parametrů (o kterých píšete) ale je to i výroba a hlavně cena a trh (zákazníci).
NVIDIA nezabila PhysX. V rokoch ked sa pouzival, tak nebola lepsia moznost na real-time fyziku, ktoru bolo mozne akcelerovat na GPU (Havok ponukal iba naskriptovanu fyziku a podporu GPU akceleracie nemal). Dnes uz aj CPU maju dost vysoky vykon a herne engine-y maju svoje vlastne riesenia. Takze skor by som povedal, ze bol PhysX vytlaceny.
Inak neviem v com vidis DLSS3 ako horsie riesenie? Ved to je DLSS2 + Frame generation+ Reflex. Takze si mozes v hrach s DLSS3 vybrat ci chces aj Frame generation alebo iba DLSS2. Obe sa teda budu casom zlepsovat.
https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/
Bylo by dobré, si o tom přečíst.
Kolik je poměr NVidia x AMD na Steamu? 90 ku 10?
Takže se nediv, že NVidia věří, že jsou to právě její proprietární technologie jak NVidia HairWorks, NVidia PhysX, DLSS, RTX, ..., které jim k tomuto skvělému výsledku pomohly.
AMD by nejprve měla urvat víc procent herního trhu než je začneš chvalořečit a NVidii pohřbívat.
Ale to neboli vyhodene peniaze. A nie je to ani o nekritickom pohlade na NV. Ide o to, ze ci uz PhysX, tak aj GSync a teraz aj DLSS su technologie, ktore pri svojom prvom nasadeni nemali konkurenciu a ani po prichode konkurencie neboli prekonane co sa tyka kvality. Teda az na PhysX, ktory konkurenciu nemal, ale bol vytlaceny inym sposobom. Ide o to, ze GSync aj DLSS ponuka nieco navyse. BTW je otazne, ci by tu Freesync a FSR boli keby NV nevyvinula aktivitu v tomto smere. Nieco ako ked AMD cez Mantle urychlila vyvoj novych geafickych API. Takze za vyhodene peniaze by som nepovazoval ani jednu z tychto technologii. A co mi vadi je, ze AMD ani pri jednej z nich nedodala kvaIitativne aspon rovnake riesenie. V takom pripade by mi to bolo jedno. Inak sam mam 2 monitori s podporou Freesync a som s nimi spokojny. Ale viem, ze s GSync by som mal viac. Rozhodla cena.
Kazdy monitor s GSync je lepsi v podpore adaptivnej synchronizacie ako vacsina Freesync monitorov, pretoze ju podporuje aj pri nizsich frekvenciach. No a s DLSS je obraz stabilnejsi. Je to o principe na akom funguje. Zatial neviem o lepsom sposobe ako zrekonstruovat obraz, nez je pouzitie AI algoritmov. FSR nema zle vysledky a je pouzitelne, ale celkovou kvalitou na DLSS nedosahuje.
Ale byly to vyhození peníze. Sám to potvrzujete tím co píšete ("PhysX, tak aj GSync a teraz aj DLSS su technologie, ktore pri svojom prvom nasadeni NEMALI konkurenciu " je to minulost) kdyby tyto technologie Nvidia nevyvinula tak se nic nestalo protože AMD vyvinulo obecně lepší ekvivalenty těchto technologií. Peníze promrhané na jejich vývoj mohli užít smysluplněji.
Je to nepodstatné poměr karet na Steamu. To je vývojáři vcelku jedno. On se soustředí na celý trh. Na to že má trh ne jen na Steamu ale i na dalších klientech ale hlavně i na konzolích. Hlavně ho oslovuje to že jedním nástrojem můlže vyvinout hru pro konzoli i PC. Do toho Nvidia neinvestovala a tam ji AMD doběhlo a proto z dobrých Nvidia technologií dělá jenom nepodstatné vlastnosti jednu po druhé.
"jedním nástrojem může vyvinout hru pro konzoli i PC"
Architektura PC a obou konzolí je podobná. Hru vyvineš úplně stejně a zkompiluješ na jednotlivé platformy. Co říkají vývojáři, že větší práce je s certifikací na PS než-li se samotným vytvořením PS portu hry.
Navíc, ty vychytávky pro NVidia karty obvykle nejsou povinné, hra se dá hrát i na AMD grafice a navíc za ně NVidia buď zaplatí nebo s nima pomůže. Proto je najdeme především u AAA titulů. Tvrzení, že to NVidii nefunguje, by bylo relevantní, kdyby neměla 90% podíl na trhu hráčských samostatných grafik.
"kdyby tyto technologie Nvidia nevyvinula tak se nic nestalo protože AMD vyvinulo obecně lepší ekvivalenty těchto technologií. Peníze promrhané na jejich vývoj mohli užít smysluplněji."
Podle me je tohle pekna blbost, protoze kdyby neprislo DLSS, tak neprijde ani FSR, protoze tohle prislo jako reakce na DLSS.
Dalsi perla jsou ty "Obecne lepsi ekvivalenty" - kdo nezavisle urcuje, ze je to lepsi, ty? :-)
Ano, konzole, velke to zaklinadlo, aby ty prodeje dedikovanych grafik nevypadaly tak blbe. Chtelo by to se ale podivat, jak dlouho trva adopce techto technologii z PC na konzole. To uz pak tak vesele neni.
Na druhou stranu proti konzolim nic nemam, mlademu jsem poridil novou PS5...herni pocitac je dnes podle me zbytecne drahy luxus. Pokud jej clovek samozrejme nevyuziva i k jinym vecem. :-)
Havok již nějakou dobu počítá i na GPU, takže nic nebrání použití jejich fyziky, tedy skoro nic...
Pro představu, poslední cena za Havok fyzikální engine co jsem našel, tak je komerční licence $25,000 ...
Oficiálně mají na stránkách formulář s tím že jednají s každým individuálně, takže je možné že není po každém tahle cena vyžadována a na nekomerční užití je poskytnut zdarma, popřípadě je zahrnuta do licence za herní engine, tuším že Unity...
PhysX od Nvidia je vždy zdarma a mají velice dobré zázemí pro developery, nehledě na to, že maličký rozdíl je v tom, že Nvidia PhysX je veden jako open source... :D
Problém bude v tom, že tyhle informace se moc mezi hráči neřeší, není důvod pro koncového zákazníka znát věci "pod pokličkou", jen mě vždy udivuje, jak každý má svoji pravdu proč to či ono, ale nezjistí si nejdřív pravdu, přímo "u zdroje". :)
Obecne lepsi v zmysle akoze nevadi, ze su menej kvalitne, ale ze maju sirsi zaber (ze idu aj na inych GPU ako tie od AMD)? Pre mna to neznamena, ze je su lepsie. Vzdy som uprednostnoval viac tie (ako ich volate) technicke parametre. A ako pise aj leppard, bol by tu Freesync, ak by NV neprisla s GSync, bolo by tu FSR, ak by NV neprisla s DLSS? Vsetko su to odpovede AMD na to, co urobila NV. Preco y to mali byt vynodend peniaze. A to, ze si tymto NV uz dlhsie obdobie udrziava naskok po SW stranke, im za to vynueslo pomaly 90% desktopoveho trhu. Naozaj su to vyhodene peniaze?
Podla mba casom prrjde aj AMD na AI a tym padom by sa kvalita vystupu mohla vyrovnat. Potom mi uz nebude vadit ak sa DLSS nebude pouzivat ak bude mat nahradu kvality na rovnakej urovni. A ci ide o rozmazavatko, na DLSS Quality ziadne rozmazanie obrazu nevnimam. A to ani ked je zakladne rozlisenie 2K a teda quality renderuje vo FHD. FSR je slusne pri zakladnom 4K rozliseni a urovni Quality, ale v nizsich rozliseniach uz viac straca aj tu.
Domněnky nejsou fakta!
... To není pravda, nic jako "jen GPU PhysX" neexistuje, jediné co, tak dříve to byla Ageia, samostatná HW výpočetní karta, ale to bylo ještě před akvizicí Nvidia...
Nvidia PhysX API je jen jeden, je to open source.
Adam to píše správně, ale Ty sis to vyložil po svém... :D
To že to není v nastavení ON-OFF je docela logické, když na fyzice staví zbytek v engine, jako by sis chtěl v autě dát volitelně motor, zbytek Ti bude bez něj k ničemu...
-kdysi se používala PhysX jen na výpočet ambient věcí, bez kterých se dalo obejít a herní fyzika byla oddělená, teď je tohle zakomponované pod jiné nastavení, ale fyzikální engine jede vždy.
Je to jen API a u jiných grafik se používá nativně CPU, u Nvidia grafik lze v ovladači nastavit "CPU / některá z GPU", nastavuje se na úrovni ovladače, ne spuštěného software...
Prosím, zjisti si o čem píšeš, ať nepíšeš nepravdu...
https://www.nvidia.com/en-gb/geforce/technologies/physx/faq/
leppard 18.12.2022 at 20:53
A co Vás vede zaslepenému k názoru že nikdo jiný než Nvidia není schopen vyvinout podobnou technologii. Podotýkám že i Intel který je s grafikami na štíru něco podobného vymyslel. Tady jste vedle jak ta jedle.
To co je obecně lepší rozhoduje trh. Ten trh který technologicky lepší věci již tolikrát poslal na hřbitov.
mareknr 19.12.2022 at 8:38
Obecně lepší je celá komplex vlastností kterí hrají roli v tom než si něco koupíte. Jsou tam technické parametry ale i cena, dostupnost, servis, kompatibilita, ... Právě tyto vlastnosti jsou ty co rozhodli o tom že Nvidia udělala horší produkt než s čím přišla konkurence.
To co si myslíte Vy nebo leppard to je nepodstatné. Podstatné je to co si myslí většina lidí tedy trh. Tato většina poslala technologie Nvidie na hřbitov a proto to jsou vyhozené peníze.
Tak sa potom nechapeme. To, co pises viem a chapem to tak isto. Co sa tyka open source, tak som to naposledy sledoval este kym vysiel PhysX SDK 4 a chapal som to tak, ze ako open source bola vydana iba vetva, ktora fyziku akceleruje na CPU. Aj podla aktualneho clanku na phoronix to tak vidim:
https://www.phoronix.com/news/NVIDIA-PhysX-51-Open-Source
Pise sa tam to co si pamatam aj z minulosti:
"Since NVIDIA's acquisition, PhysX has been focused on GPU acceleration and for the once-proprietary SDK, more than a half-decade ago NVIDIA began open-sourcing it as far as the SDK and CPU paths are concerned."
Pise sa tam teda o "as far as the SDK and CPU paths are concerned."
Co sa tyka nastaveni PhysX tak tie on/off byvaly u nadstavby PhysX tykajuce sa akceleracie na GPU. Tie boli volitelne. Nemusis bat, ze by som si myslel, ze by sa mohla "vypinat" CPU vetva, ktora sa pouziva na akceleraciu fyziky v hre. To je hovadina. Sam som pouzival po vymene starsiu GPU na akceleraciu fyziky a viem, ze sa na to nastavovala grafika v ovladacoch (alebo kludne aj CPU). Ale aktualne pokial viem, tak GPU vetva PhysXu sa nepouziva a v hrach uz teda nie je cez PhysX fyzika akcelerovana cez GPU. Pamatam si, ze niektore features bolo mozne akcelerovatblen cez CPU, niektore len cez GPU a niektore aj, aj.
leppard 18.12.2022 at 20:59
To není zaklínadlo ale realita před kterou zavíráte oči. Je to realita trhu výroby chipů a vývoje programů. Neochota se domluvit na standardech je problém a stupidní přístup Nvidie a umírání jejich technologií je neefektivita.
Konzole nemusím jsou pro mne ne standardem a brzdou vývoje her. Bohužel s nimi musíme žít.
Nepredhazujte mi neco, co jsem nenapsal. Sam jen blabolite s danou premisou, ze AMD je vzdy lepsi. Nicmene s vami to nema cenu, jak tak koukam, ve vasem svete bude AMD vzdy to lepsi, takze zbytecne s vami ztracet cas. :-)
S tim druhy odstavcem souhlasim, proto ma jeden skoro 90% trhu s dedikovanymi grafikami, nicmene AMD to neni. Ale jak jsem psal, s timto souhlasim. :-)
Přímo v popisu NVIDIA PhysX SDK 5 píší:
"
The NVIDIA PhysX SDK is a scalable multi-platform physics solution supporting a wide range of devices, from smartphones to high-end multicore CPUs and GPUs. PhysX is already integrated into some of the most popular game engines, including Unreal Engine, and Unity3D.
"
S tím „as far as the SDK and CPU paths are concerned.“, se jednalo právě o to, že se CPU část v SDK uvolnila jako open source a GPU část není open source, nejsou zdrojové kódy a nemůže to člověk kompilovat sám, jen "hotová věc", pro koncového uživatele se nic nemění.
Zkusím Ti to vysvětlit tak, že se jedná o "mezivrstvu", která je optimalizována pro využití vice vláken (optimální minimum je tuším 32 vláken), ale samozřejmě CPU jich má jen "pár", takže se snáze zahltí a ubírá se tím výkon potřebný k přípravě na vykreslení scény, atd... :)
Sečteno, podtrženo: Primární je počítat na GPU, vždy, od prvního uvedení, až po současnost.
Takže pro GPU od Nvidia platí co je v ovladači, pro ostatní se počítá na CPU.
Pro počítání se dříve používala PhysX jen a pouze na ty "vizuální zkrášlovadla" -matně si vzpomínám že jednou z prvních věcí byla simulace látky, ragdolls a celkove jen vizuální stranka (soft body dynamics), takže se dala celkově vypnout na slabších počítačích, nebo tam, kde dělala problémy (Mirror's Edge, atd.), tím ON-OFF, ale to je docela už historie.
Když tak mrkni sem, tady máš i vypsané co se děje na CPU a co na GPU, jestli Tě to zajímá přesněji, jde o to co se implementuje do té či oné hry...
https://developer.nvidia.com/physx-sdk
Ono to je cele o tom, co sa vyvojari rozhodnu naimplementovat do hry. A pokual viem, tak teraz sa uz cez GPU akcelerovane feature cez PhysX nepouzivaju, ale PhysX sa pouziva aj ked "iba" akcelerovany cez CPU. Kazdopafne dakujem za info. Aspon som si po par rokoch zasa osviezil info o PhysX a som rad, ze heho vyvoj stale pokracuje a ze sa pouziva v hrach.
Není vůbec zač.
Přesně tak, stejně jako s FSR nebo DLSS, vše je o tom, co se vývojář rozhodne implementovat...
Někdy je to o financích, někdy o tom že je člověk zvyklý už na něco a nebo i o tom, že zjistí co se jak složitě implementuje a raději použije to jednoduší, co má slušně napsanou dokumentaci a popsané api a celkově se s tím slušněji dělá, pokud tedy má vůbec na výběr... :)
Já se strašně dlouho zastával fyziky Havok, že až se prosadí do DX, tak to bude TOP, na jakémkoliv CPU a bez omezeni, ale ve výsledku, to není tak slavné jak se na první pohled může zdát a ty omezení tam jsou, jako u všeho...
Dedekhribb, “Konzole nemusím jsou pro mne ne standardem a brzdou vývoje her. Bohužel s nimi musíme žít.”
Zamyslel jsi se někdy nad tím, že právě konzolové porty jsou efektivnější a ždímají z HW maximum? Že u konzolové hry musí vývojář přemýšlet nejen o optimalizaci kódu, ale celkové hry? Že to je platforma, která občas nutí lidi přemýšlet a nepublikovat softwarový odpad?
Doporučuji třeba video od Warhorse Studios: https://www.youtube.com/watch?v=oux1p0R7Fm0. pokud nechceš koukat celé, tak 36:36.