Když USA a Izrael zahájily začátkem března masivní vojenskou operaci proti Íránu, svět sledoval s otevřenou pusou čísla, která z toho vzešla. Téměř 900 úderů za prvních 12 hodin. Přes 1 000 zasažených cílů během jediného dne. Taková rychlost a takový rozsah by ještě před pár lety byly prostě nemyslitelné. Co se změnilo? Odpověď je jednoduchá: umělá inteligence.
Claude jde do války
Jméno Claude většina lidí zná jako název chatbota od americké firmy Anthropic. Jenže tohle není jen nástroj na psaní e-mailů nebo shrnutí dokumentů. Claude byl nasazen napříč americkým ministerstvem obrany a dalšími bezpečnostními složkami, aby urychlil plánování vojenských operací.
Anthropic uzavřel smlouvu s Pentagonem už v roce 2024. Cílem bylo, jak firma tehdy oznámila, "dramaticky zlepšit zpravodajskou analýzu a podpořit rozhodovací procesy." Claude se stal součástí systému vyvinutého ve spolupráci s kontroverzní technologickou firmou Palantir, která dlouhodobě dodává analytické nástroje americké armádě.
Systém zpracovává obrovské množství dat najednou. Záběry z dronů, odposlechy telekomunikací, zpravodajské informace od lidských zdrojů. Vše se slévá dohromady a AI z toho vytváří seznam doporučených cílů, navrhuje vhodné zbraně, bere v úvahu zásoby munice i výkonnost konkrétních zbraňových systémů při podobných útocích v minulosti. A co je možná nejpikantnější detail: systém také automaticky vyhodnocuje právní opodstatnění každého úderu.
Rychlejší než lidské myšlení
Craig Jones, odborník na tzv. "kill chains" z Newcastleské univerzity, to popsal velmi výstižně: "Stroj dělá doporučení, co zasáhnout, a to je v některých ohledech rychlejší než lidské myšlení. Máte rychlost a rozsah zároveň. Útoky probíhají souběžně s ničením schopnosti režimu reagovat. V historických válkách by tohle trvalo dny nebo týdny. Teď to děláte všechno najednou."
Odborníci tento jev nazývají "decision compression", tedy stlačení rozhodovacího procesu. Plánování, které dříve zabralo dny, se smrskne na minuty nebo sekundy. Zní to jako výhoda. A z čistě vojenského hlediska možná je. Jenže tady přichází ta nepříjemná otázka: co se stane s lidskou kontrolou nad válkou, když stroj přemýšlí rychleji než člověk?
David Leslie, profesor etiky a technologií na Queen Mary University of London, varuje před fenoménem, který nazývá "kognitivní přenesení odpovědnosti". Lidé, kteří mají formálně schvalovat úder, se mohou cítit odpojeni od jeho důsledků, protože veškerou intelektuální práci za ně odvedl stroj. Prostě kliknou na "schválit" a jdou dál. Jenže na druhém konci toho kliku jsou životy.
Otázka školy v jižním Íránu
V sobotu zasáhla raketa školu v jižním Íránu. Zahynulo 165 lidí, z toho mnoho dětí. Budova se nacházela v blízkosti vojenských kasáren. OSN označila útok za "závažné porušení humanitárního práva." Americká armáda oznámila, že případ prošetřuje.
Nikdo zatím veřejně neřekl, zda tento cíl doporučila umělá inteligence. Ale právě tady leží jádro celého problému. Pokud AI navrhuje cíle a lidé je schvalují pod časovým tlakem, kdo nese odpovědnost za chybu? Voják, který kliknul? Programátor, který napsal algoritmus? Firma, která ho prodala armádě?
Anthropic ven, OpenAI dovnitř
Příběh má ještě jeden pikantní rozměr. Jen několik dní před zahájením íránské operace se rozšířily zprávy, že Trumpova administrativa hodlá Anthropic z vládních systémů vyřadit. Důvod? Firma odmítla povolit použití Claudu pro plně autonomní zbraně nebo pro sledování amerických občanů. Jenže vyřazení chvíli trvá. Claude byl stále aktivní, když rakety začaly padat. A mezitím? OpenAI rychle podepsala vlastní smlouvu s Pentagonem pro vojenské využití svých modelů. Trh s AI pro armádu prostě nezůstane prázdný ani minutu.
Prerana Joshi z britského obranného institutu RUSI to shrnul slovy: "Nasazení AI se rozšiřuje. Probíhá napříč obrannými složkami zemí, v logistice, výcviku, správě rozhodnutí, údržbě. Je to způsob, jak syntetizovat data mnohem rychleji, a to je pro rozhodovací procesy užitečné."
Užitečné. Slovo, které zní nevinně. Ale za ním se skrývá svět, kde stroje navrhují, kdo zemře, a lidé mají stále méně času se nad tím zamyslet.
Írán a jeho AI
Írán se v roce 2025 chlubil, že také využívá umělou inteligenci ve svých raketových systémech. Realita je ale jiná. Mezinárodní sankce íránský technologický rozvoj výrazně brzdí. Íránský AI program je ve srovnání s americkými nebo čínskými kapacitami zanedbatelný. V tomto konfliktu šlo o střet dvou světů: jednoho vyzbrojeného nejmodernějšími algoritmy a druhého, který se snaží dohnat desetiletí zpoždění.
Co přijde dál?
Íránský konflikt ukázal, že válka se mění způsobem, který ještě před dekádou patřil do filmů. AI zkracuje čas mezi identifikací cíle a akcí. Rozhodnutí, která dříve procházela vrstvami velení, analýz a právních posudků, se dnes dějí v tempu, které lidský mozek nestačí sledovat. A to je možná ta nejdůležitější věc, kterou si z celé situace odnést. Nejde jen o to, zda AI dělá chyby. Jde o to, zda vůbec ještě máme čas si všimnout, že chybu udělala, dřív než je pozdě ji napravit.
Válka vždy přinášela nové technologie. Střelný prach, letadla, atomová bomba. Pokaždé jsme si říkali, že tohle je jiné. Tentokrát to ale opravdu jiné je. Protože poprvé v historii stroj přemýšlí rychleji než velitel, který ho nasadil.
Zdroje: responsiblestatecraft.org a bloomberg.com
