Umělá inteligence se rychle stává klíčovou součástí rozhodování v národní bezpečnosti. Armády po celém světě ji už používají k prohlížení satelitních snímků, hodnocení sil protivníka a navrhování, kdy, kde a jak nasadit síly. Tyto systémy slibují změnu v tom, jak státy reagují na hrozby. Zároveň ale ohrožují odstrašování, které dlouho tvoří základ bezpečnostní strategie například Spojených států.
Účinné odstrašování závisí na tom, že země dokáže věrohodně ukázat schopnost a ochotu způsobit protivníkovi nepřijatelné škody. Umělá inteligence posiluje některé základy této věrohodnosti. Lepší zpravodajství, rychlejší hodnocení a konzistentnější rozhodnutí mohou posílit odstrašování tím, že jasněji sdělí protivníkům obranné schopnosti země i její odhodlání je použít. Protivníci ale mohou umělou inteligenci zneužít k podkopání těchto cílů: mohou otrávit trénovací data modelů, na které se země spoléhají, a tak změnit jejich výstupy, nebo spustit operace ovlivňování s podporou umělé inteligence, aby ovlivnili chování klíčových úředníků. V krizi s vysokými sázkami by takové manipulace mohly omezit schopnost státu udržet věrohodné odstrašování a zkreslit nebo dokonce paralyzovat rozhodování jeho vůdců.
Scénář krize s Čínou a Tchaj-wanem
Představme si krizi, ve které Čína uvalila rozsáhlé hospodářské sankce na Tchaj-wan a zahájila velká vojenská cvičení kolem ostrova. Američtí obranní úředníci se obracejí k systémům s umělou inteligencí, aby pomohly formulovat odpověď Spojených států – aniž by tušili, že čínské informační operace tyto systémy už zkazily otrávením jejich trénovacích dat a základních vstupů. Modely tak přeceňují skutečné schopnosti Číny a podceňují připravenost Spojených států, což vede ke zkreslenému hodnocení, které nakonec odradí americkou mobilizaci. Současně čínské kampaně ovlivňování, posílené náhlými záplavami falešného obsahu vytvořeného umělou inteligencí na platformách jako Facebook a TikTok, potlačují podporu americké veřejnosti pro zásah. Bez schopnosti správně interpretovat zpravodajství a odhadnout náladu veřejnosti mohou američtí vůdci usoudit, že rozhodný zásah je příliš riskantní.
Čína, která cítí příležitost, teď spustí úplnou blokádu Tchaj-wanu a zahájí útoky drony. Zároveň zaplaví ostrov deepfakes amerických úředníků, kteří vyjadřují ochotu vzdát se Tchaj-wanu, vymyšlenými průzkumy ukazujícími pokles podpory v USA a fámami o americkém opuštění. V tomto scénáři by věrohodné signály ze Spojených států, naznačující sklon k odpovědi, mohly Čínu odradit od eskalace – a pravděpodobně by byly sledovány, kdyby američtí úředníci nebyli odrazeni otrávenými systémy umělé inteligence a zkreslenou náladou veřejnosti. Místo posílení odstrašování umělá inteligence podkopala americkou věrohodnost a otevřela dveře čínské agresi.
Odstrašování v éře umělé inteligence
Aby odstrašování fungovalo, protivník musí věřit, že obránce je schopen způsobit vážné náklady a je odhodlaný to udělat, pokud bude napaden. Některé prvky vojenské síly jsou viditelné, ale jiné – jako určité schopnosti zbraní, úrovně připravenosti a kapacity mobilizace – je těžší odhadnout zvenčí. Odhodlání je ještě neprůhlednější: jen vůdci země obvykle přesně vědí, jak ochotní jsou vést válku. Odstrašování proto závisí na tom, jak efektivně země dokáže věrohodně signalizovat své schopnosti i ochotu jednat.
Jak se systémy umělé inteligence stávají stále důležitějšími pro rozhodování vůdců, mohou dát informační válce novou sílu v nátlaku a konfliktu. Aby posílili odstrašování v éře umělé inteligence, musí tvůrci politik, plánovači obrany a zpravodajské agentury počítat s tím, jak lze modely umělé inteligence zneužít jako zbraň, a zajistit, aby digitální obrana proti těmto hrozbám držela tempo. Výsledek budoucích krizí na tom může záviset.
(Autoři: Brett V. Benson je docentem politologie a asijských studií na Vanderbilt University. Brett J. Goldstein je zvláštním poradcem kancléře pro národní bezpečnost a strategické iniciativy a výzkumným profesorem na inženýrské škole Vanderbilt University.)
