vazne? tak karta na nic rozumnyho nema potrebnej hardware. to je jedoduchy. proto se taky mluvi o ML a ne o DL
Olsan by si mel rozhodne nastudovat rozdil mezi machine learning (ML) a deep learning (neural networks). tyhle trapasy jsou stale castejsi :D machine learning je zalozenej na matematickym modelovani. deep learning na neuralnich sitich. radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks. kvalita a velikost site v tomhle pripade znamena kvalitu vystupu. bez dedikovanejch jednotek musis pouzivat cast shader units, ktery ale pak nevyuzivas pro rasterizaci, logicky. cim vetsi sit (lepsi kvalita), tim vic shader units pouzijes pro jeji vyhodnocovani a tim horsi je tvuj rasterizacni vykon. AMD ma tak docela problem, protoze na kvalitu DLSS 2.0 nedosahnou. a pokud se budou chtit priblizit, zacnou ztracet rasterizacni vykon, coz snizi vykonostni prinos toho celyho supersamplingu jako celku - diminishing returns
proto nam lisa zavesila pod nos spis hovinko. neco na tom smrdi :)