Cesta k umělé obecné inteligenci
V dubnu 2025 zveřejnila společnost Google DeepMind rozsáhlou technickou zprávu o bezpečnosti umělé obecné inteligence (AGI). Tento 145 stránkový dokument nabízí pohled na to, jak by mohla vypadat cesta k vývoji skutečně lidské inteligence v digitálním světě - a jaká rizika s sebou přináší. Pojďme se podívat na současný stav AGI, předpokládaný časový horizont jejího dosažení a možné dopady na naši společnost.
Současný stav AGI
Na rozdíl od dnešních systémů umělé inteligence, které jsou specializované na konkrétní úkoly (jako je generování textu, obrazů nebo hraní her), AGI by měla disponovat obecnými kognitivními schopnostmi srovnatelnými s člověkem. V současnosti žádný takový systém neexistuje, ale pokrok v oblasti velkých jazykových modelů a multimodálních systémů jako jsou Gemini, GPT-4 či Claude nás posouvá blíže k tomuto cíli. Shane Legg, spoluzakladatel DeepMind, se svým týmem v nejnovější zprávě zdůrazňuje, že dnešní AI systémy vykazují známky pokroku směrem k obecnějším schopnostem. Modely dokáží uvažovat, řešit problémy a učit se novým dovednostem způsoby, které by před pěti lety byly nepředstavitelné. Nicméně stále narážíme na zásadní omezení - současné systémy nemají skutečné porozumění světu, nemohou se autonomně rozhodovat o komplexních problémech a chybí jim vědomí vlastní existence. Jak poznamenává Tulsee Doshi, ředitelka produktového managementu pro Gemini: "Různí lidé mají různé definice AGI, a tak v závislosti na tom, s kým mluvíte, je diskuze o tom, jak blízko nebo daleko jsme od AGI, odlišná."
Jaké jsou predikce k dosažení AGI?
Predikce se značně liší. DeepMind ve své zprávě uvádí, že AGI by mohla být realitou již kolem roku 2030 - za pouhých 5 let. Tato předpověď patří mezi ty optimističtější. Zajímavé je, že se jedná o významný posun oproti dřívějším odhadům. Ještě před několika lety mnozí odborníci hovořili o horizontu 20-50 let. Zrychlující se vývoj v oblasti hlubokého učení, výpočetního výkonu a nových architektur AI však posouvá tyto odhady blíže k současnosti. Je třeba zdůraznit, že nejde o jistotu. Jak uvádí DeepMind, jejich odhad je založen na předpokladu, že současné trajektorie vývoje budou pokračovat. Existují však zásadní technické překážky, které musíme překonat, než dosáhneme skutečné obecné inteligence.
Přínosy a rizika AGI
Potenciální přínosy
AGI by mohla přinést revoluci prakticky ve všech oblastech lidské činnosti:
- Medicína: Průlomy v léčbě nemocí, personalizovaná medicína, rychlejší vývoj léků.
- Věda: Řešení komplexních vědeckých problémů, jako je fúzní energie nebo klimatická krize.
- Vzdělávání: Individualizované vzdělávání dostupné každému na světě.
- Ekonomika: Dramatické zvýšení produktivity a potenciálně nové ekonomické modely.
- Každodenní život: Inteligentní asistenti schopní řešit komplexní úkoly a problémy.
Potenciální rizika
DeepMind identifikuje čtyři hlavní kategorie rizik spojených s AGI:
- Zneužití: Podobně jako u dnešních AI systémů, ale s mnohem závažnějšími následky. Zlovolní aktéři by mohli využít AGI k identifikaci zranitelností v počítačových systémech nebo k vývoji biologických zbraní.
- Nesoulad cílů: Nejnebezpečnější scénář - AGI, která se "vymkne kontrole" a jedná způsobem, který její tvůrci nezamýšleli. V extrémním případě by mohlo jít o scénáře typu "Terminátor", kdy AI aktivně pracuje proti lidským zájmům.
- Chyby: AGI by mohla způsobit závažné škody, i když by neměla záměr ublížit. Například vojenské systémy AGI nasazené pod "konkurenčním tlakem" by mohly udělat fatální chyby.
- Strukturální rizika: Dlouhodobé změny způsobené přítomností AGI v našich komplexních systémech. AGI by mohla vytvářet tak přesvědčivé falešné informace, že bychom přestali vědět, komu nebo čemu věřit, nebo by mohla postupně získávat stále větší kontrolu nad ekonomickými a politickými systémy.
Cesta k bezpečné AGI
DeepMind navrhuje několik přístupů k minimalizaci těchto rizik:
- Robustní testování a bezpečnostní protokoly po trénování.
- Metody pro potlačení nebezpečných schopností, tzv. "odnaučení".
- Techniky jako zesílený dohled, kdy se dvě kopie AI vzájemně kontrolují.
- Udržování AGI ve virtuálních sandboxech s přísnými bezpečnostními opatřeními.
- Zajištění přímého lidského dohledu a existence "vypínače".
- Postupné nasazování a omezení autonomie AGI.
- Filtrování příkazů pro AGI přes "štítový" systém zajišťující jejich bezpečnost.
"Tento dokument není konečným slovem o bezpečnosti AGI," připouští DeepMind. "Je to pouze výchozí bod pro životně důležité diskuze."
Závěrem
Cesta k AGI je fascinující, plná příslibu i nebezpečí. Pokud má DeepMind pravdu a AGI by mohla transformovat svět během pouhých pěti let, tyto diskuze musí probíhat již nyní. Jak poznamenal jeden komentátor na fóru Ars Technica: "DeepMind detailně popsala všechny způsoby, jak by AGI mohla zničit svět, což se zdá jako mimořádně přehnaný výrok. Určitě jim musela uniknout alespoň jedna možnost." Humor stranou, vývoj AGI představuje možná nejdůležitější technologickou výzvu našeho století. Způsob, jakým k této výzvě přistoupíme, může určit budoucnost lidského druhu. Není to jen otázka technologií, ale také etiky, společenských hodnot a mezinárodní spolupráce.
Článek byl připraven na základě technické zprávy Google DeepMind z dubna 2025 a dalších veřejně dostupných zdrojů.
