Anthropic, tvůrce chatbota Claude, spolupracoval s americkým ministerstvem obrany (DOD) na využití svých AI modelů pro vojenské účely. Jenže jednání se zasekla na dvou konkrétních bodech. Anthropic odmítlo, aby jeho technologie sloužila k masovému sledování amerických občanů a k plně autonomním zbraňovým systémům bez lidského dohledu nad rozhodnutím o střelbě. Šéf Pentagonu Pete Hegseth trval na tom, že armáda musí mít přístup k AI pro "jakýkoliv zákonný účel" a nechce být omezována soukromou firmou.
Dario Amodei, generální ředitel Anthropic, neustoupil. A Pentagon reagoval způsobem, který nikdo nečekal.
Označení, které se normálně používá pro nepřátele státu
Koncem února Pentagon označil Anthropic za "riziko v dodavatelském řetězci" (supply-chain risk). Tohle označení se běžně používá pro zahraniční nepřátele, jako je Čína nebo Rusko. Nikdy předtím ho nedostala americká technologická firma. Důsledky byly okamžité a brutální.
Každá firma nebo agentura, která pracuje s Pentagonem, musela certifikovat, že nepoužívá modely Anthropic. Generální správa služeb (GSA) zrušila Anthropicu smlouvu "OneGov", čímž přestaly být služby Claude dostupné pro všechny tři složky federální vlády. Prezident Trump navíc nařídil všem federálním agenturám, aby okamžitě přestaly technologie Anthropic používat.
Hegseth a Trump označili Amodeiho a jeho firmu za "woke" a "radikální" kvůli jejich postoji k bezpečnosti AI. Amodei to odmítl jako politicky motivovaný útok.
Anthropic to žene k soudu
1. března 2026 Anthropic podalo dvě žaloby najednou – jednu u federálního soudu v San Francisku a druhou u odvolacího soudu v D.C. Firma označila kroky ministerstva obrany za "bezprecedentní a nezákonné".
Žaloba v San Francisku argumentuje porušením prvního dodatku americké ústavy. "Ústava nedovoluje vládě využívat svou obrovskou moc k trestání firmy za její chráněný projev," stojí v dokumentu. Tím chráněným projevem jsou přesvědčení Anthropicu o omezeních vlastních AI systémů a otázkách bezpečnosti umělé inteligence.
Žaloba dále tvrdí, že DOD nepostupoval podle zákonných procedur. Zákon totiž vyžaduje, aby agentura provedla hodnocení rizik, informovala dotčenou firmu, umožnila jí odpovědět, vydala písemné rozhodnutí z hlediska národní bezpečnosti a informovala Kongres a to vše ještě před vyloučením dodavatele. Pentagon prý žádný z těchto kroků řádně neprovedl.
Druhá žaloba u odvolacího soudu v D.C. pak napadá samotné rozhodnutí o označení jako nezákonné, odvetné a nesprávně provedené podle federálního práva o veřejných zakázkách. Anthropic zároveň požádalo soud o okamžité pozastavení označení po dobu soudního řízení, aby mohlo dál spolupracovat s vojenskými dodavateli.
5 miliard dolarů v ohrožení
Finanční ředitel Anthropicu Krishna Rao ve svém soudním prohlášení varoval, že stovky milionů dolarů v očekávaných příjmech spojených s prací pro Pentagon jsou v ohrožení jen v letošním roce. Pokud vláda uspěje v odrazování firem od spolupráce s Anthropicem obecně, mohla by firma přijít až o 5 miliard dolarů v tržbách – což je přibližně celkový příjem firmy od roku 2023, kdy začala komerčně provozovat svou AI technologii.
Obchodní ředitel Paul Smith popsal, jak tlak vlády způsobuje, že obchodní partneři projevují "hlubokou nedůvěru a rostoucí strach ze spojení s Anthropicem". Někteří zákazníci pozastavili jednání nebo požadují únikové klauzule ve smlouvách. Jiní zrušili schůzky úplně. Velcí poskytovatelé cloudových služeb jako Amazon a Microsoft zatím oznámili, že budou Claude zákazníkům bez vazeb na Pentagon nadále nabízet.
Rivalové přicházejí na pomoc
A tady přichází ta nejzajímavější část. Pár hodin po podání žalob se u soudu objevil dokument, který nikdo nečekal. Více než 30 zaměstnanců OpenAI a Google DeepMind podalo amicus brief. Přeloženo z latiny to zo znamená právní podání od stran, které nejsou přímými účastníky sporu, ale mají k věci odborné znalosti.
Mezi signatáři byl Jeff Dean, hlavní vědec Google DeepMind a vedoucí projektu Gemini. Dále výzkumníci z Google DeepMind Zhengdong Wang, Alexander Matt Turner a Noah Siegel, a z OpenAI Gabriel Wu, Pamela Mishkin a Roman Novak. Všichni podepsali v osobní kapacitě a nepředstavují oficiální stanoviska svých firem.
Zaměstnanci se v dokumentu představili slovy: "Jsme inženýři, výzkumníci, vědci a další odborníci zaměstnaní v amerických laboratořích umělé inteligence na frontové linii. Stavíme, trénujeme a studujeme rozsáhlé AI systémy."
Jejich brief přináší tři hlavní argumenty. Za prvé, označení Anthropicu za riziko v dodavatelském řetězci bylo nevhodným a svévolným zneužitím moci se závažnými důsledky pro celý obor. Za druhé, technické obavy za "červenými čarami" Anthropicu jsou legitimní a vědeckou komunitou široce uznávané. Za třetí, rizika obou sporných případů použití jsou hluboká.
"Pokud bude tento pokus potrestat jednu z předních amerických AI firem pokračovat, bude mít nepochybně důsledky pro průmyslovou a vědeckou konkurenceschopnost Spojených států v oblasti umělé inteligence a daleko za ní," stojí v dokumentu. "A ochladí otevřenou diskusi v našem oboru o rizicích a přínosech dnešních AI systémů."
Obavy z autonomních zbraní a masového sledování
Zaměstnanci v brifu vysvětlují, proč jsou obavy Anthropicu vědecky opodstatněné. Nejlepší dostupné AI systémy nedokáží bezpečně ani spolehlivě zvládat plně autonomní smrtící cílení. Autonomní zbraňové systémy v současné podobě nedokáží spolehlivě rozlišit bojovníky od civilistů, nemohou vysvětlit svá rozhodnutí o cílení a nemohou být zapojeny do lidských struktur odpovědnosti.
Co se týče masového sledování, brief varuje, že AI-umožněné masové domácí sledování by proměnilo roztříštěný datový svět, který již obklopuje americký život, v jednotný nástroj pro sledování celé populace v reálném čase. Samotné vědomí, že taková schopnost existuje, vytváří tlumivý efekt na demokratickou účast.
OpenAI nahradilo Anthropic
Příběh má ještě jeden pikantní rozměr. Pentagon podepsal smlouvu s OpenAI prakticky ve stejnou chvíli, kdy označil Anthropic za riziko – a to smlouvu bez omezení pro "jakýkoliv zákonný účel". Mnozí zaměstnanci OpenAI tento krok veřejně kritizovali jako oportunistický.
Generální ředitel OpenAI Sam Altman se přesto veřejně vyjádřil, že vymáhání označení Anthropicu za riziko v dodavatelském řetězci "by bylo velmi špatné pro náš průmysl a naši zemi" a označil rozhodnutí Pentagonu za "velmi špatné". Přesto jeho firma smlouvu podepsala a to je paradox, který v Silicon Valley nikdo nepřehlédl.
Zaměstnanci, kteří podepsali amicus brief, v dokumentu poznamenávají, že Pentagon mohl jednoduše zrušit smlouvu s Anthropicem a koupit služby jiné přední AI firmy. Místo toho "bezohledně využil pravomoci v oblasti národní bezpečnosti určené k ochraně procesu zadávání zakázek před zásahy zahraničních nepřátel".
Soud rozhodne o budoucnosti AI v armádě
Případ míří k prvnímu slyšení v San Francisku. Anthropic žádá o dočasný soudní příkaz, který by mu umožnil pokračovat ve spolupráci s vojenskými dodavateli po dobu soudního řízení.
Výsledek tohoto sporu přesahuje osud jedné firmy. Jde o to, zda soukromé AI firmy mohou stanovovat etické hranice pro použití svých technologií, nebo zda vláda může tyto hranice vynucovat silou. Jde o to, zda označení "riziko v dodavatelském řetězci" může být použito jako politická zbraň proti vlastním firmám. A jde o to, kdo vlastně rozhoduje o tom, jak bude umělá inteligence nasazena v nejcitlivějších oblastech – od bojišť po sledování vlastních občanů.
Mluvčí Anthropicu to shrnul slovy: "Hledání soudního přezkumu nemění náš dlouhodobý závazek využívat AI k ochraně naší národní bezpečnosti, ale je to nezbytný krok k ochraně našeho podnikání, našich zákazníků a našich partnerů."
Zdroje: wired.com a theinformation.com
