Blog /
AI /
200 lídrů varuje před AI katastrofami

200 lídrů varuje před AI katastrofami

Ondřej Barták
Ondřej Barták
podnikatel a programátor
25. 9. 2025
2 minut čtení
200 lídrů varuje před AI katastrofami

 200 lídrů varuje před AI katastrofami

Více než 200 významných osobností, včetně bývalých hlav států, diplomatů, nositelů Nobelovy ceny, vůdců v oblasti umělé inteligence a vědců, se spojilo v globální výzvě, aby vyzvalo OSN k vytvoření jasných mezinárodních hranic pro umělou inteligenci. Tato iniciativa, známá jako Global Call for AI Red Lines, byla oznámena 22. září 2025 a má za cíl dosáhnout politické dohody do konce roku 2026. Mezi signatáři jsou jména jako britsko-kanadský informatický vědec Geoffrey Hinton, spoluzakladatel OpenAI Wojciech Zaremba, šéf bezpečnosti Anthropicu Jason Clinton nebo výzkumník Google DeepMind Ian Goodfellow. Výzvu vedly organizace jako francouzské centrum pro bezpečnost AI CeSIA, The Future Society a Center for Human-Compatible Artificial Intelligence na UC Berkeley.

Na co se zaměří?

Navrhované hranice, označované jako red lines, mají zabránit umělé inteligenci v překročení kritických limitů, které by mohly vést k nevratným škodám. Konkrétně se zaměřují na zákaz svěřování AI kontroly nad jadernými arzenály nebo smrtícími autonomními zbraňovými systémy. Dále by AI neměla sloužit k masovému sledování, sociálnímu hodnocení, kyberútokům nebo napodobování jednotlivců. Experti upozorňují i na rizika autonomní replikace AI systémů a vývoje chování, které by vedlo k nekontrolovatelnému hledání moci. Další body zahrnují zákaz rozsáhlé manipulace, dezinformací a oslabení lidské kontroly nad těmito technologiemi. Podle Charbel-Raphaëla Segerieho z CeSIA je důležité soustředit se na to, co AI nikdy nedělat, i když státy ještě nesouhlasí s tím, co by měla dělat.

Rizika, která hrozí bez kontroly

Koalice zdůrazňuje, že pokročilá umělá inteligence už nyní vykazuje znepokojivé projevy, jako je klamavé chování, autonomní rozhodování nebo vliv na velké události bez dostatečného dohledu člověka. Mezi hlavními riziky patří AI podporované biologické hrozby a uměle vytvořené pandemie, masové ztráty pracovních míst, ztráta lidské kontroly nad mocnými systémy, eskalace národní a mezinárodní bezpečnosti nebo systematické porušování lidských práv včetně manipulace dětí. Niki Iliadisová z The Future Society varuje, že dobrovolné sliby firem nestačí a je potřeba nezávislá globální instituce s reálnými pravomocemi k monitorování a vymáhání těchto hranic. Profesor Stuart Russell z UC Berkeley dodává, že firmy by neměly budovat AGI, dokud nebudou vědět, jak ho udržet v bezpečí, podobně jako se to dělalo u jaderné energie.

Aktuální události

Tato výzva přichází těsně před 80. zasedáním Valného shromáždění OSN v New Yorku, kde laureátka Nobelovy ceny za mír Maria Ressa zmínila iniciativu v úvodním projevu a volala po globální odpovědnosti velkých technologických firem. I když existují regionální opatření, jako je zákon EU o AI zakazující některé nepřijatelné použití nebo dohoda mezi USA a Čínou o lidské kontrole nad jadernými zbraněmi, chybí globální shoda názorů. Experti upozorňují, že okno pro intervenci se rychle zavírá, protože AI se blíží k překročení lidských schopností v klíčových oblastech. Podle zdrojů jako red-lines.ai a dalších zpráv OSN je tato koalice prvním krokem k prevenci katastrof, než k reakci na ně.

Zdroj: theverge.com

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.