Je škoda, že došlo k absenci PCI e 5.0
Sice je ta propustnost zbytečně velk a zbytečná, ale mohli to tam dát když už mají AM5 desky PCIe5.
Co se boostu týče, tak to podle mě půjde ještě tak o 100-250MHz nahoru reálně. Známe AMD. Představuje nižší než je realita.
3GHz budou podle mě spíš nějaké OC 3x8pin verze a připravovaná 7950XTX nebo jak se bude jmenovat, která bude hnaná na krev a bude konkurovat 4090(Ti?)
Jak všichni pomlouvali Nvidii za absenci PCIe 5.0
....a teď AMD xD xD
Co se týká frekvencí, prý jde o nějaký problém v čipu, stejný problém jako před 17 lety u Radeonu X1800,
Spekuluje se že by časem mohl vyjít refresh generace který těch 3GHz už dosáhne
AMD nejspíš nechce jít za každou cenu na vyšší spotřebu, nejspíš by těch 3GHz ten čip dosáhl, ale za stejné spotřeby jako má Nvidie a se stejně velkým chladičem
Vždy je něco za něco. Samozřejmě jen spekuluji, ale v případě základních desek s plnou podporou PCIe-5 jsme se dostali na dost vysoké ceny základních desek, pravděpodobně právě kvůli plnohodnotné podpoře PCIe-5. Je možné, že při návrhu GPU této generace se počítalo, že tato technologie bude levnější, než je.
Z toho mi vychází, že podpora nebyla udělána právě s ohledem na konovou cenu GPU, kde by třeba významně ovlivnila konečnou cenu GPU se skoro neměřitelným užitkem.
Je to spekulace, ale dává mi to logiku.
:D
Ale je fakt že dnes jak grafiky tak CPU stejně boostí podle sebe, podle aktuálních podmínek atp. Otázkou je kolik to reálně přináší výkonu, to škálování může, nemusí a většinou ani nebývá lineární, Třeba Ryzeny 6000 v laptopech, do 25-30W to má super výkon proti konkurenci, u 35W jsou na tom stejně ale když se tomu dá 40-50-60 nebo i více W tak Intel AMDčku vymete rybník protože s vyšším příkonem škáluje. Ano v laptopu vxyšší spotřeba obvykle není potřeba, ale stroje s 40-60W limity napájení nejsou ultrabooky kde se hledí na výdrž baterie ale pracovní stanice kde baterie s trochou nadsázky funguje jen jako UPSka.
Nemyslel jsem to tak, že je to určitě nepravda, tím jsem chtěl říct, že to byla domněnka nebo přání, která se neopírá o žádný pramen (ta část "prý jde o nějaký problém v čipu, stejný problém jako před 17 lety u Radeonu X1800"*), tudíž by to byla spekulace a nezáleží na tom, jestli se to potvrdí nebo ne. Spekulace klidně nakonec může odpovídat pravdě.
(Občas se to tu řešívá ten rozdíl, když lidem vadí, že píšeme o únicích a neoficiálních tvrzeních, a označují to nepřesně za spekulace).
* Edit: Ale teď koukám, že v tom jsem se spletl a není to jasná spekulace, ale pochází to z tohohle zdroje: https://twitter.com/XpeaGPU/status/1589075249337085952 Ne že by to byl zdrovna nejlepší zdroj, takže zatím bych to moc nebral v úvahu. Edit 2: a zdroj #2, už asi lepší? - https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/post-2272729
Tyhle tvrzení můžou, nebo nemusí mít pravdu, samozřejmě, ale už se bavíme o jiném typu nejistoty. Tak to beru zpět.
To máš pravdu, ty Intelí AL laptopy jsou takové hlučné a horké pomalé desktopy s hodinovou UPS. Ale asi jsem vážně Intel nepochopil, proč bych měl toto chtít do laptopu. Holt honba za pomyslným prvenstvím jim nedá a evidentně marketingové ego utrpělo také.
Ke článku, osobně se domnívám, že 3GHz už jsou tyto čipy tak vysoko, že razantně utrpí spotřeba, proto ty informace o 2,5GHz. Třeba se mýlím a budu příjemně překvapen, i když 250+W monstra nejsou nic pro mě.
Přechroupá CPU?
Myslím si že tohle není jediný případ kdy CPU nechroupá a ani nedutá.
Both GPUDirect RDMA and GPUDirect Storage avoid extra copies through a bounce buffer in the CPU’s memory and enable a direct memory access (DMA) engine near the NIC or storage to move data on a direct path into or out of GPU memory, all without burdening the CPU or GPU (Figure 1).
https://developer.nvidia.com/blog/gpudirect-storage/
Přesně tak, jak někde měli LTT video, blind test, 3 PCčka. SATA SSD, 3.0 NVMe, 4.0 NvMe, nechali na tom lidi dělat běžné věci, hrát a nějaká náročnější kreativita a nikdo nebyl schopný říct kde je jaký disk, někteří dokonce sestavu se SATA diskem označili za nejrychlejší... Jaký rozdíl pak bude v 5.0 disku proti 4.0 který už tak nikdo ani nepozná
Samo pokud někdo bude mít zdroj dat ke kopírování a objem dat který to urychlí, tak samozřejmě fajn, ale mě nelimituje většinou ani ta SATA a i podřadné NVMe je pro mě overkill :)
Většina MB s B450 pokud osadíš 2 m2 disky přejdou u grafiky na 8X.Ale ono v reálu se rozdíl pozná jenom u highend a paradoxně u lowendu kde bude grafika trpět nedostatkem VRAM.
https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-performance/
Dedekhribb, těch testů, které dokazují malý výkonový přínos PCIe 4 oproti 3 je na Internetu poměrně dost. Mezi 5 a 4 už rozdíl není. Tedy pro GPU to význam nemá. Větší význam má PCIe 5 pro NVMe, které ale také ještě nejsou mainstream.
Ad slot pro grafiku - já to chápu tak, že AM5 tu s námi bude cca 3 generace CPU a do té doby se situace ohledně GPU a PCIe 5 zřejmě změní, proto ta podpora PCIe 5 v rámci MB a CPU už teď.
Jan, jenže to je problém trochu jinde. Grafika má uvedeno např. PCIe 4.0 x 16, MB uvádí kdejaké připojení PCIe. Co je ale u MB pod čarou a malým písmem je právě to snížení linek při použití např. NVMe PCIe 5.0. To je malinko podpásovka. Ale aby to nebylo tak jednoduché, tak existují CPU (AMD APU), které jsou schopny tyto linky ještě pokrátit díky iGPU.
Tzn. je třeba nekupovat šitózní čipsety (a MB), když vím, že chci stavět super rychlé monstrum (pokud pořizuji top grafiku, tak ji nebudu párovat s low MB, CPU, RAM a storage).
Jan Olšan
Já jsem to myslel jinak. Nedokážeme změřit ono konkrétní číslo.
Jakože spěrnice PCIe 4 x16 má jednosměrně 32 GB/s .
Jakého čísla dokáže v maximálním využití podat ta která grafika? Je to 30? 40? 15?
Tak jak u NVMe disků. Tam víme, že gen 3 nemůžou jít přes 4GB/s, protože spěrnice PCIe 3 x4 zvládne jen ty 4GB/s.
Čili jaká je ona rychlost grafických karet?
To o těch grafikách s 8 linkama jsem přesně psal. Jakmile dojde na toto "ořezání", tak tam už má smysl mít tu rychlejší sběrnici.
"Mezi 5 a 4 už rozdíl není."
To nemůžeme úplně vědět. Z toho, že RTX 4090 už má ten 2-3% rozdíl mezi PCIe 4.0 ×8 a ×16, by mohlo vyplývat, že už by tam třeba procento mohlo být i mezi PCIe 4.0 ×16 a PCIe 5.0 ×16.
Ale je možné, že prostě těm firmám vycházelo ekonomičtější dát tam levnější Gen4 PHY a ušetřit třeba milimetr plochy, který se pomyslně mohl "přesunout" na konto plochy výpočetních jednotek.