Jezis to jsou zase vymluvy.
Jpeg do GPU pameti fakt neulozis. Textury se zpracovavaji v DDS formatu. Jsou tam presne definovany kompresni formaty a ta komprese je jinyho charakteru (de facto jde o raw data, u kterych definujes, o ktery slozky ti nevadi prijit). Duvod je jednoduchy - bylo by tezce neefektivni dekomprimovat data nejakou slozitou kontextualni kompresi az pri samplovani. Pristup k datum textur musi byt super-rychly. V jakem formatu se ta data fyzicky ukladaji v pameti GPU je "implementation-specific", paklize ta implementace dodrzi format zminene nahore.
Precist si o tom muzes tady:
https://docs.microsoft.com/en-us/windows/desktop/direct3d11/texture-block-compression-in-direct3d-11
A protoze jsou ty formaty jasne definovane, neni duvod, proc by se na ne nedala aplikovat lossless komprese primo v GPU.
Tady mas seznam texture formatu v D3D11/12:
https://docs.microsoft.com/en-us/windows/desktop/api/dxgiformat/ne-dxgiformat-dxgi_format
Pak si napis jednoduchej D3D progam na ulozeni nejakych raw texture dat a pak compressed texture dat na Turingu a pouzij tohle API, aby jsi zjistit, kolik zabiras pameti pred/po nacteni, versus raw velikost dat:
https://docs.microsoft.com/en-us/windows/desktop/api/dxgi1_4/ns-dxgi1_4-dxgi_query_video_memory_info
Tady mas knihovnu, ktera ti ten tvuj jpeg prevede do DDS:
https://github.com/Microsoft/DirectXTex
Hezky si to zmer a pak nam tu o tom neco povez. Diky tomu tu snad zas nebudes fabulovat nejaky absurdni teorie, ktery primo odporujou dokumentaci, jako jsi to predved s DLSS. Treba nam dodas nejaky logicky vysvetleni, proc by ta lossless komprese nemela byt (v rozporu s tim whitepaperem) aplikovatelna i na textury.