Muskova společnost xAI uzavřela s americkým ministerstvem obrany smlouvu, která umožňuje nasazení chatbota Grok v utajovaných vojenských systémech. Jde o systémy, kde probíhají nejcitlivější zpravodajské analýzy, vývoj zbraní a plánování bojových operací. Zprávu jako první potvrdil Axios s odvoláním na zdroje z obrany.
Anthropic ze hry ven
Až do tohoto momentu měl v utajovaných systémech Pentagonu monopol jediný AI model. Model Claude od Anthropicu byl jedinou umělou inteligencí, která měla přístup k nejcitlivějším operacím americké armády. Nasazení Claudu probíhalo mimo jiné skrze partnerství s firmou Palantir Technologies a model se zapojil i do reálných vojenských akcí, například při operaci zaměřené na venezuelského prezidenta Madura.
Jenže pak přišel spor. Pentagon požadoval, aby Anthropic zpřístupnil Claud pro takzvaný standard "all lawful purposes", tedy pro všechny zákonné účely bez dalších omezení. Anthropic odmítl. Firma trvala na tom, že Claude nesmí sloužit k masovému sledování občanů ani k vývoji plně autonomních zbraní. Tohle byl pro Pentagon nepřijatelný postoj.
xAI naproti tomu souhlasila bez váhání. Smlouva je podepsaná, i když samotná firma odmítla jakýkoliv komentář.
Anthropic dostal ultimátum
Ministr obrany Hegseth si pozval Amodeiho na osobní schůzku přímo do Pentagonu. Zdroje blízké jednání ji popsaly jako napjatou. Hegseth měl Amodeimu předložit jasné ultimátum: buď Anthropic odstraní bezpečnostní zábrany Claudu, nebo Pentagon firmu označí za "rizikového dodavatelského řetězce". To by pro Anthropic znamenalo vážné obchodní i reputační důsledky.
Paradoxně sami obranní úředníci přiznali, že nahradit Clauda v utajovaných systémech by bylo technicky velmi složité. Claude je do vojenské infrastruktury hluboce zabudovaný. Přesto Pentagon tlačí dál. Smí vůbec armáda nasazovat AI bez jakýchkoliv etických zábran? Tato otázka visí ve vzduchu a odpověď na ni bude mít dalekosáhlé důsledky.
Google, OpenAI a Grok na stejné vlně
V neklasifikovaných vojenských systémech už Grok, Google Gemini i ChatGPT od OpenAI fungují. Teď se všichni tři ženou za přístupem do té citlivější části. Pentagon urychlil jednání s Googlem i OpenAI jako záložní plán pro případ, že vztah s Anthropicem definitivně skončí.
Podle New York Times byl Google blízko uzavření dohody pro klasifikované nasazení Gemini. Obranní úředníci to ale zpochybnili a tvrdili, že jednání s oběma firmami probíhají paralelně. OpenAI dostala od Pentagonu naléhavý signál k obnovení rozhovorů, ale zdroje potvrdily, že dohoda "není blízko" kvůli složitým otázkám, které je třeba vyřešit. Podmínka je přitom stejná pro všechny: souhlas se standardem "all lawful purposes".
Rizika AI v armádě
Experti varují, že nasazení AI v bojových podmínkách bez dostatečných zábran přináší vážná rizika. Organizace Diplo, která se věnuje digitální diplomacii, upozorňuje na dva hlavní problémy.
Prvním je takzvané "black-box" rozhodování, kdy AI systém dospěje k závěru, aniž by kdokoliv dokázal vysvětlit, jak k němu došel. V situaci, kde jde o život nebo smrt, je to děsivá představa. Druhým problémem je zaujatost algoritmů. Vojenské AI systémy se trénují na datech ze sledovacích kamer, biometrických databází a vzorců chování, které mohou být zkresleny rasovým, náboženským nebo geografickým profilováním.
Kongresmanka Sara Jacobsová veřejně zkritizovala celý postup a upozornila na nebezpečí, které přináší nasazení AI bez regulace a dohledu v prostředí, kde jsou sázky nejvyšší.
