Blog /
AI /
Americký soud zamítl žádost Anthropicu o vyloučení ze ze seznamu bezpečnostní hrozby

Americký soud zamítl žádost Anthropicu o vyloučení ze ze seznamu bezpečnostní hrozby

Ondřej Barták
Ondřej Barták
podnikatel a programátor
10. 4. 2026
4 minut čtení
Poslechněte si článek
Audio verze článku
Americký soud zamítl žádost Anthropicu o vyloučení ze ze seznamu bezpečnostní hrozby

Ještě před rokem byl Anthropic miláčkem americké armády. Firma jako první nasadila své modely napříč utajovanými sítěmi ministerstva obrany a podepsala smlouvu za 200 milionů dolarů. Jenže poté přišel spor s Pentagonem a Anthropic se ocitl na černé listině. Federální odvolací soud ve Washingtonu D.C. odmítl žádost Anthropicu o dočasné pozastavení tzv. supply-chain risk označení, které firmě udělil Pentagonem. Tříčlenný senát soudců rozhodl, že rovnováha zájmů mluví ve prospěch vlády, ne technologické firmy.

Spor s Pentagonem a cesta k soudu

Spor má kořeny v jednoduché, leč zásadní neohodě. Pentagon chtěl od Anthropicu naprostou volnost v použití AI modelu Claude "pro veškeré zákonné účely". Anthropic to odmítl a stanovil dvě červené linie: Claude nesmí sloužit k masovému sledování amerických občanů a nesmí pohánět plně autonomní smrtící zbraně.

Ministr obrany Pete Hegseth to vzal jako vzpouru a koncem února 2026 označil Anthropic na sociální síti X za riziko pro zásobovací řetězec národní bezpečnosti. Prezident Trump vzápětí nařídil všem federálním agenturám, aby okamžitě přestaly používat technologie Anthropicu s tím, že agentury jako ministerstvo obrany dostanou šestiměsíční přechodné období.

Anthropic se bránil tím, že jde o čistou odvetu za jeho postoj k bezpečnosti umělé inteligence. Firma podala dvě žaloby u dvou různých soudů, protože Pentagon uplatnil dvě různá právní označení na základě odlišných zákonů.

 

 

Zatímco washingtonský odvolací soud žádost o pozastavení zamítl, federální soud v Kalifornii šel opačnou cestou. Soudkyně Rita Lin vydala 26. března předběžné soudní opatření, které zabrání vládě vymáhat zákaz používání Clauda mimo Pentagon. Výsledkem jsou dvě protichůdná rozhodnutí platná současně:

  • Anthropic nesmí uzavírat nové smlouvy s ministerstvem obrany
  • Dodavatelé Pentagonu musejí potvrdit, že Claude při práci pro armádu nepoužívají
  • Ostatní vládní agentury však Anthropic nadále využívat mohou
  • Sám Pentagon bude produkty Anthropicu ještě dál šest měsíců používat

Důsledky rozhodnutí soudu pro Anthropic

Tříčlenný senát odvolacího soudu nebyl bezcitný. Uznal, že Anthropic "s největší pravděpodobností utrpí určitou nenapravitelnou újmu", ale označil jeho zájmy za primárně finanční. Firma přitom tvrdila, že označení jí může způsobit ztráty v řádu miliard dolarů. Soudci také odmítli argument o omezení svobody projevu. Napsali, že Anthropic neprokázal, že by jeho vyjadřování bylo v průběhu sporu skutečně omezeno.

Na druhou stranu soud udělil Anthropicu jednu důležitou věc: urychlené projednání. Ústní argumentace je naplánována na 19. května. "Sme vděčni, že soud uznal nutnost rychlého řešení, a jsme přesvědčeni, že soudy nakonec potvrdí protiprávnost těchto označení," uvedl mluvčí Anthropicu.

Úřadující ministr spravedlnosti Todd Blanche to přijal jako vítězství. Na X napsal: "Vojenská pravomoc a operační kontrola patří vrchnímu veliteli a ministerstvu války, ne technologické firmě."

 

 

Spor nabral osobní rozměr poté, co média zveřejnila interní dopis šéfa Anthropicu Daria Amodeiho. V textu o 1600 slovech Amodei obvinil Pentagon z toho, že firmu trestá proto, že "nedal Trumpovi diktátorský hold", zatímco OpenAI a jeho prezident Greg Brockman Trumpovi na kampaň přispěli.

Amodei sice za "tón" dopisu později omluvil, ale politické poselství bylo jasné. A OpenAI? Ten nezaváhal. Jakmile se Pentagon s Anthropicem rozešel, firma Sama Altmana okamžitě nabídla vládě náhradní AI služby.

Ironie celé věci je, že právě Anthropic byl ten, kdo se snažil bezpečnostní obavy řešit odpovědně. Soudci ale odvolacího soudu dali přednost jinému argumentu: americká armáda vede aktivní vojenský konflikt s Íránem a přerušení vztahu s klíčovým dodavatelem AI technologií v takový moment představuje nepřiměřené riziko.

"Na jedné straně stojí relativně omezené finanční riziko pro jednu soukromou firmu. Na druhé straně je soudní zasahování do toho, jak a skrze koho ministerstvo války zajišťuje vitální AI technologie během aktivního vojenského konfliktu," napsali soudci ve svém rozhodnutí.

Označení supply-chain risk bylo historicky vyhrazeno pro zahraniční protivníky jako čínský Huawei. Anthropic je první americká firma, která ho dostala.

Zdroje: foxnews.com, thehill.com, reuters.com a cnbc.com

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Meta odhalila nový AI model Muse Spark. Stálo čekání za to? Meta odhalila nový AI model Muse Spark. Stálo čekání za to?
Meta konečně představila Muse Spark, svůj první velký model umělé inteligence od doby, kdy Mark Zuckerberg přetvořil celou strategii firmy a vsadil...
4 min čtení
10. 4. 2026
Proč je GLM-5.1 jiný než všechny ostatní AI modely pro programátory? Proč je GLM-5.1 jiný než všechny ostatní AI modely pro programátory?
Každý, kdo někdy pracoval s AI na složitějších úkolech, zná ten moment frustrace. Model chvíli jede, vypadá to nadějně, a pak se zasekne. Prostě pře...
5 min čtení
9. 4. 2026
AI odhaluje tajemný život pralesa v Amazonii, který ani vědci nevidí AI odhaluje tajemný život pralesa v Amazonii, který ani vědci nevidí
Stovky kilometrů od nejbližšího města, hluboko v peruánské Amazonii, se malá skupinka vědců prodírá hustým podrostem. Nesou s sebou drony, biakustic...
5 min čtení
9. 4. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.