Vyjádření Anthropicu k americkému AI plánu
America’s AI Action Plan, vydaný Bílým domem 23. července 2025, je komplexní federální strategie s více než 90 konkrétními politickými kroky, které mají zajistit globální vedení USA v oblasti umělé inteligence (AI). Plán je postaven na třech hlavních pilířích: zrychlení inovací v AI, budování americké AI infrastruktury a vedení v mezinárodní AI diplomacii a bezpečnosti. Zaměřuje se na odstranění regulačních překážek, podporu otevřených modelů AI, rozšíření přístupu k AI zdrojům pro soukromý sektor a akademickou sféru, urychlení výstavby datových center a polovodičových továren, vytváření pracovních míst a ochranu před riziky, jako je zneužití AI. Mezi klíčové principy patří posílení amerických pracovníků, objektivita a svoboda projevu v AI modelech, a obrana proti rizikům, včetně vyloučení požadavků na diverzitu, inkluzi a změnu klimatu z federálních standardů AI.
Zrychlení AI infrastruktury
Bílý dům nedávno zveřejnil plán nazvaný "Winning the Race: America’s AI Action Plan", který se zaměřuje na udržení americké výhody v rozvoji AI. Společnost Anthropic tento plán vítá, protože klade důraz na urychlení výstavby AI infrastruktury a federální adopce, stejně jako na posílení testování bezpečnosti a koordinace bezpečnostních opatření. Mnohé doporučení v plánu odrážejí odpověď Anthropicu na dřívější žádost o informace od Úřadu pro vědu a technologii (OSTP) z března 2025.
Anthropic oceňuje závazek administrativy zjednodušit povolování datových center a energie, aby se vyřešily potřeby AI v oblasti energie. Jak Anthropic uvedla ve své odpovědi OSTP a na summitu Pennsylvania Energy and Innovation Summit, bez dostatečné domácí energetické kapacity by američtí vývojáři AI mohli být nuceni přesunout operace do zahraničí, což by mohlo vystavit citlivé technologie cizím protivníkům. Nedávno zveřejněná zpráva Anthropic "Build AI in America" podrobně popisuje kroky, které může administrativě podniknout k urychlení výstavby národní AI infrastruktury, a Anthropic se těší na spolupráci s administrativou na rozšíření domácí energetické kapacity.
Plán také navrhuje zvýšit adopci AI ve federální vládě, což zahrnuje úkoly pro Úřad pro management a rozpočet (OMB) řešit omezení zdrojů, omezení nákupů a programové překážky. Dále spouští žádost o informace (RFI) k identifikaci federálních regulací, které brání inovacím v AI, s koordinací reformních snah OMB. Aktualizace standardů federálních nákupů má odstranit bariéry, které brání agenturám nasazovat systémy AI, a podporovat adopci AI v obraně a národní bezpečnosti prostřednictvím spolupráce veřejného a soukromého sektoru.
Demokratizace výhod AI
Anthropic se shoduje s důrazem plánu na zajištění široké účasti a prospěchu z pokračujícího vývoje a nasazení AI. Pokračování pilotního programu Národního zdroje pro výzkum AI (NAIRR) zajišťuje, že studenti a výzkumníci po celé zemi mohou přispívat k pokroku na hranicích AI. Anthropic dlouhodobě podporuje NAIRR a je hrdý na své partnerství s pilotním programem. Důraz plánu na rychlé rekvalifikační programy pro vysídlené pracovníky a předučňovské programy v AI uznává chyby předchozích technologických přechodů a ukazuje závazek přinášet výhody AI všem Američanům.
Tyto návrhy doplňují snahy Anthropicu porozumět, jak AI transformuje ekonomiku. Ekonomický index a program Ekonomické budoucnosti mají poskytnout výzkumníkům a tvůrcům politik data a nástroje potřebné k zajištění, že ekonomické výhody AI budou široce sdíleny a rizika vhodně řízena.
Podpora bezpečného vývoje AI
Mocné systémy AI budou vyvinuty v příštích letech, a důraz plánu na obranu proti zneužití mocných modelů AI a přípravu na budoucí rizika spojená s AI je vhodný. Anthropic oceňuje prioritu administrativy podporovat výzkum v oblasti interpretovatelnosti AI, systémů kontroly AI a odolnosti proti útokům. Jsou to důležité linie výzkumu, které musí být podporovány, aby pomohly řešit mocné systémy AI.
Anthropic je rád, že plán potvrzuje důležitou práci Centra pro standardy a inovace AI (CAISI) Národního institutu pro standardy a technologie při hodnocení hraničních modelů pro otázky národní bezpečnosti, a těší se na pokračující úzkou spolupráci s nimi. Anthropic doporučuje administrativě pokračovat v investicích do CAISI. Jak bylo uvedeno v odpovědi Anthropic, pokročilé systémy AI ukazují znepokojivé zlepšení v schopnostech relevantních pro vývoj biologických zbraní. CAISI hraje vedoucí roli ve vývoji testovacích a hodnotících schopností k řešení těchto rizik, a Anthropic doporučuje soustředit tyto snahy na nejunikátnější a akutní rizika národní bezpečnosti, která mohou systémy AI představovat.
Potřeba národního standardu
Kromě testování Anthropic věří, že základní požadavky na transparentnost vývoje AI, jako je veřejné hlášení o bezpečnostním testování a hodnocení schopností, jsou nezbytné pro zodpovědný vývoj AI. Vedoucí vývojáři modelů AI by měli být drženi základních a veřejně ověřitelných standardů pro hodnocení a řízení katastrofických rizik jejich systémů. Navržený rámec Anthropicu pro transparentnost hraničních modelů se zaměřuje na tato rizika. Anthropic by rád viděl, že zpráva udělá více v této oblasti.
Vedoucí laboratoře, včetně Anthropic, OpenAI a Google DeepMind, již implementovaly dobrovolné bezpečnostní rámce, což ukazuje, že zodpovědný vývoj a inovace mohou koexistovat. S uvedením Claude Opus 4 Anthropic proaktivně aktivovala ochrany ASL-3, aby zabránila zneužití pro vývoj chemických, biologických, radiologických a jaderných (CBRN) zbraní. Tento preventivní krok ukazuje, že robustní bezpečnostní ochrany nejenže nezpomalují inovace, ale pomáhají budovat lepší a spolehlivější systémy.
Anthropic sdílí obavy administrativy ohledně příliš předpisujících regulačních přístupů, které vytvářejí nesourodý a zatěžující patchwork zákonů. Ideálně by tyto požadavky na transparentnost měly přijít od vlády formou jediného národního standardu. Nicméně v souladu s vyjádřeným přesvědčením Anthropic, že desetileté moratorium na státní zákony o AI je příliš tupý nástroj, Anthropic nadále oponuje návrhům zaměřeným na zabránění státům přijímat opatření k ochraně svých občanů před potenciálními škodami způsobenými mocnými systémy AI, pokud federální vláda nezasáhne.
Udržení silných exportních kontrol
Plán uvádí, že "odmítnutí přístupu našim zahraničním protivníkům k [pokročilému AI výpočtu] . . . je otázkou jak geostrategické soutěže, tak národní bezpečnosti." Anthropic s tím silně souhlasí. Proto je Anthropic znepokojen nedávným obratem administrativy ohledně exportu čipů Nvidia H20 do Číny.
Vývoj AI byl definován škálovacími zákony: inteligence a schopnost systému je definována škálou jeho výpočtu, energie a datových vstupů během tréninku. Zatímco tyto škálovací zákony nadále platí, nejnovější a nejschopnější modely uvažování ukázaly, že schopnost AI škáluje s množstvím výpočtu dostupného systému pracujícímu na daném úkolu, nebo "inference". Množství výpočtu dostupného během inference je omezeno šířkou paměti čipu. Zatímco surová výpočetní síla H20 je překonána čipy vyrobenými Huawei, jak nedávno svědčili ministr obchodu Lutnick a náměstek Kesslera, Huawei nadále bojuje s objemem výroby a žádný domácí čínský čip se nevyrovná šířce paměti H20.
V důsledku toho H20 poskytuje unikátní a kritické výpočetní schopnosti, které by jinak nebyly dostupné čínským firmám, a kompenzuje jinak velký nedostatek AI čipů v Číně. Povolení exportu H20 do Číny by promarnilo příležitost rozšířit americkou dominanci v AI právě v okamžiku, kdy začíná nová fáze soutěže. Navíc exporty amerických AI čipů neodvrátí Čínskou komunistickou stranu od jejího hledání sebezajištění v AI stacku.
Proto Anthropic silně doporučuje administrativě udržet kontroly nad čipem H20. Tyto kontroly jsou v souladu s exportními kontrolami doporučenými v Akčním plánu a jsou nezbytné pro zajištění a rozšíření amerického vedení v AI.
Pohled do budoucnosti
Shoda mezi mnoha doporučeními Anthropicu a AI Akčním plánem ukazuje sdílené porozumění transformačnímu potenciálu AI a naléhavým krokům potřebným k udržení amerického vedení. Anthropic se těší na spolupráci s administrativou při implementaci těchto iniciativ, zatímco zajišťuje vhodnou pozornost katastrofickým rizikům a udržení silných exportních kontrol. Společně můžeme zajistit, že mocné systémy AI budou vyvinuty bezpečně v Americe, americkými společnostmi, odrážejícími americké hodnoty a zájmy.
