Qualcomm právě oznámil, že v příštím roce uvede na trh čip AI200 a v roce 2027 pak AI250. Tyto akcelerátory jsou navržené speciálně pro umělou inteligenci v datových centrech, kde se zaměřují na inference, tedy na provozování již hotových AI modelů. Firma, která se dosud soustředila hlavně na čipy pro mobily a bezdrátové sítě, teď míří do oblasti, kde vládne Nvidia s více než 90% podílem. Akcie Qualcommu po oznámení vyskočily o 11%.
Durga Malladi, generální manažer Qualcommu pro datová centra a edge computing, vysvětlil, že čipy vycházejí z technologie Hexagon NPU, kterou firma už úspěšně nasadila v chytrých telefonech. "Nejdřív jsme se osvědčili v jiných oblastech a pak to bylo snadné posunout do datových center," řekl Malladi na tiskové konferenci. Qualcomm nabízí tyto čipy v plně vybavených rackových systémech s kapalinovým chlazením, kde může být až 72 jednotek pracujících jako jeden počítač. Každý takový rack spotřebuje 160 kilowattů energie, což je srovnatelné s některými systémy od Nvidia.

Výhody v paměti a spotřebě
Jedna z hlavních předností čipů AI200 a AI250 je jejich podpora pro 768 gigabajtů paměti LPDDR na jednu kartu, což překonává nabídky od Nvidia i AMD. Tato vysoká kapacita umožňuje zpracovávat obrovské AI modely efektivněji, s nižší spotřebou energie a celkovými náklady na provoz. Qualcomm tvrdí, že jejich řešení přináší až 10násobně vyšší šířku pásma oproti stávajícím alternativám, což zrychluje inference pro velké jazykové modely.
Firma se zaměřuje na inference spíš než na trénink modelů, kde dominuje Nvidia. Například OpenAI, které používá Nvidia GPU pro trénink svých GPT modelů v ChatGPT, nedávno oznámilo plány na nákup čipů od AMD a možný podíl v této firmě. Qualcomm vidí příležitost právě v tom, že inference tvoří velkou část provozu v cloudu, a nabízí své čipy jako levnější a úspornější variantu. Malladi dodal, že Qualcomm prodává čipy i samostatně, takže klienti jako hyperscalers – velké cloudové služby – si mohou navrhnout vlastní racky. Dokonce naznačil, že i Nvidia nebo AMD by mohli kupovat některé komponenty od Qualcommu, například jejich CPU.

Tržní odhady
Qualcomm už má zajištěného zákazníka v podobě saúdskoarabské firmy Humain s níž v květnu uzavřel partnerství. Humain se zavázal nasadit systémy Qualcomm v datových centrech až do kapacity 200 megawattů. To znamená masivní nasazení v regionu, kde roste poptávka po AI infrastruktuře.
Podle odhadu McKinsey se do datových center investuje do roku 2030 celkem 6,7 bilionu dolarů (přibližně 157 bilionů Kč), přičemž většina půjde na systémy s AI čipy. Nvidia má tržní kapitalizaci přes 4,5 bilionu dolarů (asi 106 bilionů Kč), díky prodejům GPU, ale konkurence roste. Kromě AMD vyvíjejí vlastní AI akcelerátory i Google, Amazon a Microsoft pro své cloudové služby. Qualcomm se snaží ukousnout podíl tím, že nabízí flexibilní řešení, kde si zákazníci mohou "míchat a kombinovat" komponenty podle potřeby.
Budoucnost v datových centrech
AI200 a AI250 jsou navržené pro rack-scale nasazení, což znamená, že celý serverový rack funguje jako jednotný systém. Qualcomm neprozradil ceny čipů, karet ani celých racků, ani přesný počet NPU v jednom racku. Nicméně zdůrazňuje výhody v oblasti spotřeby energie a nový přístup ke správě paměti, což by mělo snížit celkové náklady pro provozovatele cloudů.
Tento tah Qualcomm přináší čerstvý vítr do trhu, kde se teď soustředí největší technologické firmy. S rostoucí poptávkou po AI se očekává, že takové inovace pomohou rozšířit dostupnost pokročilých modelů pro širší použití.
Zdroje: qualcomm.com a cnbc.com
