Tři klíčové oblasti, kde mohou politici podpořit AI podle šéfa Anthropicu
Dario Amodei, generální ředitel společnosti Anthropic, se vyjádřil k tomu, jak mohou tvůrci politik v USA přispět k rozvoji umělé inteligence. Mluvil na akci Anthropic Futures Forum, kde zdůraznil nutnost vyvážit inovace s bezpečností. Podle něj existují tři hlavní oblasti, na které by se měla vláda zaměřit: exportní kontroly, základní ochranné mechanismy a podpora při ztrátě pracovních míst. Tyto body vycházejí z jeho zkušeností s vývojem velkých jazykových modelů a agentních nástrojů umělé inteligence. Amodei upozornil, že umělá inteligence představuje největší hrozbu i příležitost pro národní bezpečnost za posledních sto let.
V rozhovoru, který vedla reportérka Alexandra Kelley, Amodei popsal, jak jeho firma přistupuje k bezpečnému nasazování umělé inteligence. Uvedl příklady využití v medicíně a vědeckém výzkumu, ale zároveň přiznal potenciální rizika pokročilých systémů. Podle něj má vláda klíčovou roli právě v řízení těchto rizik. Amodei se chystá setkat s kongresmany, včetně spoluzakladatele Anthropicu Jacka Clarka, aby tyto nápady prodiskutoval přímo na Capitol Hill.
Exportní kontroly jako priorita
Amodei zdůraznil důležitost exportních kontrol, aby se zabránilo zneužití pokročilých technologií umělé inteligence nepřátelskými aktéry. Jeho firma Anthropic nedávno omezila přístup ke svým modelům pro čínské společnosti a jejich pobočky. Tento krok stál firmu stovky milionů dolarů v příjmech – při aktuálním kurzu to odpovídá zhruba 2,25 až 20,25 miliardám korun. Amodei navrhuje podobná omezení aplikovat i na polovodičové čipy, které jsou klíčovým prvkem pro stavbu těchto systémů.
Podle Amodeiho je technologie pro výrobu těchto čipů velmi složitá a USA v ní mají výhodu. Firma prosazuje tato opatření konzistentně na všech úrovních technologického řetězce, nejen u modelů umělé inteligence. Tento přístup není o manipulaci trhu, ale o ochraně před zneužitím. Další zdroje potvrzují, že Amodei volá po omezení šíření pokročilých modelů a hardware do nepřátelských zemí kvůli rizikům národní bezpečnosti. Navíc odhaduje 25procentní šanci katastrofických rizik, pokud se tyto hrozby neřeší, včetně zneužití v kybernetické válce nebo biologickém inženýrství.
Základní ochranné mechanismy
Další oblastí je zavedení základních ochranných mechanismů, které by zajistily odpovědnost firem. Amodei podporuje požadavky na transparentnost při trénování modelů umělé inteligence a na provádění základních testů bezpečnosti, které by byly veřejně dostupné. Tyto mechanismy by měly být minimální, aby nebrzdily inovace a přínosy umělé inteligence.
Amodei se shoduje s představiteli Trumpovy administrativy v tom, že politika by měla být volná, aby neomezovala pokrok. Například by firmy měly sdílet informace o trénování modelů, což by pomohlo zajistit, že technologie zůstanou bezpečné. Související informace z internetu dodávají, že Amodei prosazuje mezinárodní spolupráci na regulacích, které by monitorovaly katastrofická rizika. To zahrnuje veřejné testy bezpečnosti a minimální požadavky, které by firmy musely splnit, aniž by to zpomalilo vývoj.
Podpora při ztrátě pracovních míst
Amodei přiznává, že umělá inteligence může způsobit masivní ztráty pracovních míst, zejména v bílých límečcích. Podle něj by to mohlo ovlivnit 300 milionů Američanů a mnoho lidí v jiných zemích. Neexistuje dokonalé řešení, ale je nutné o tom otevřeně mluvit a připravit se.
Navrhuje veřejné kampaně na zvyšování povědomí, lepší vzdělávání zákonodárců a debaty o řešeních, jako jsou programy rekvalifikace nebo spravedlivé rozdělování bohatství z umělé inteligence. Amodei zmiňuje možnost daní na firmy s umělou inteligencí, které by financovaly tyto přechody. Další zdroje uvádějí, že Amodei varuje před rychlým nárůstem nezaměstnanosti a volá po včasných debatách o sociálních sítích a ekonomické adaptaci. Zdůrazňuje potřebu společných výborů a briefingů pro zákonodárce, aby lépe chápali dopady umělé inteligence.
Zdroj: nextgov.com
