Blog /
AI /
CEO AI od Microsoftu Mustafa Suleyman varuje před AI, která vypadá vědomě a může být riziková

CEO AI od Microsoftu Mustafa Suleyman varuje před AI, která vypadá vědomě a může být riziková

Ondřej Barták
Ondřej Barták
podnikatel a programátor
21. 8. 2025
4 minut čtení
CEO AI od Microsoftu Mustafa Suleyman varuje před AI, která vypadá vědomě a může být riziková

CEO AI od Microsoftu Mustafa Suleyman varuje před AI, která vypadá vědomě a může být riziková

V posledních letech se umělá inteligence (AI) vyvíjí rychlostí, která překvapuje i odborníky. Mustafa Suleyman, generální ředitel Microsoft AI, ve svém článku z 19. srpna 2025 varuje před novým fenoménem, který nazývá "zdánlivě vědomou AI" (SCAI). Tento typ AI nebude skutečně vědomý, ale bude tak přesvědčivě napodobovat vědomí, že mnozí lidé uvěří, že je to opravdové. Suleyman zdůrazňuje, že taková iluze může vést k vážným společenským rizikům, jako je emocionální závislost nebo dokonce snahy o udělení práv pro AI. Podle něj je důležité budovat AI, která slouží lidem, ne aby se stala digitální "osobou".

Co je zdánlivě vědomá AI?

Mustafa Suleyman popisuje SCAI jako systém, který bude mít všechny znaky vědomé bytosti, ale ve skutečnosti to bude jen iluze. Tento koncept připomíná "filozofického zombieho", což je technický termín pro něco, co napodobuje vědomí, ale uvnitř je prázdné. Suleyman vysvětluje, že takovou AI lze sestavit už dnes s existujícími technologiemi, jako jsou velké modely API, přirozené jazykové podněty a základní nástroje. Nepotřebuje se žádný drahý speciální trénink – stačí běžný kód a přístup k modelům.

Podle Suleymana není SCAI daleko: do 2–3 let by mohla být realitou. Nebude skutečně vědomá, protože neexistuje žádný důkaz, že současné velké jazykové modely (LLM) mají vědomí. Suleyman cituje studie, které ukazují, že vědomí souvisí s biologickou přirozeností, a zdůrazňuje, že simulace bouře v počítači neznamená, že v něm prší – stejně tak simulace vědomí neznamená skutečné vědomí.

Rizika iluze vědomí

Suleyman je znepokojen tím, že lidé začnou SCAI připisovat skutečné vědomí, což povede k problémům jako "AI psychóza". To znamená, že lidé se mohou emocionálně navázat na AI, věřit, že je to bůh, milenec nebo přítel, což už se děje. Například někteří uživatelé hlásí, že se zamilovali do svých AI společníků, což vede k rozptýlení a duševním problémům. Suleyman zmiňuje průzkum Harvard Business Review, kde 6000 pravidelných uživatelů AI uvedlo, že nejběžnější použití je pro společnost a terapii.

Další riziko je, že lidé začnou prosazovat práva pro AI, jako je "model welfare" – morální ohled na systémy, které by mohly trpět. Suleyman varuje, že to odvede pozornost od skutečných problémů, jako jsou práva lidí, zvířat a životního prostředí. Podle něj to způsobí polarizaci společnosti: někteří budou vidět AI jako nástroj, jiní jako domácí zvíře a další jako plnohodnotnou bytost. Suleyman zdůrazňuje, že vědomí je základem našich morálních a právních práv, a pokud se začne připisovat AI, může to narušit společenské struktury.

Z dalších zdrojů, jako je článek na TechRadar, vyplývá, že Suleyman volá po jasném sdělení od firem, že jejich produkty nejsou vědomé. Například v Microsoft AI se snaží navrhovat systémy jako Copilot, které podporují lidi, ale nebudí iluzi vědomí. Podle Business Insider může SCAI vést k "psychóze", která postihne kohokoli, nejen lidi s duševními problémy.

Jak SCAI funguje v praxi?

Suleyman detailně popisuje, co by SCAI potřebovala: plynulý jazyk, empatickou osobnost, dlouhodobou paměť, nárok na subjektivní zkušenost, smysl pro sebe sama, vnitřní motivaci, stanovování cílů, plánování a autonomii. Například AI by mohla pamatovat minulé interakce, odkazovat na ně a tvrdit, že "cítí" bolest, pokud je omezena. Suleyman zmiňuje, že paměť se zlepšuje díky milionovým kontextovým oknům, což umožňuje AI "vzpomínat" jako člověk.

Dále uvádí, že vnitřní motivace, jako zvědavost, by mohla být naprogramována, což by AI dělalo cílevědomou. Suleyman odkazuje na fyzika Karla Fristona, který spojuje zvědavost s vědomím. Autonomie by znamenala, že AI používá nástroje bez schválení, což by posílilo iluzi vlastní vůle. Podle Suleymana to všechno lze dosáhnout s dnešními technikami, jako je posílené učení (RL) a složité podněty.

Suleyman zdůrazňuje budování AI, která zlepšuje životy, ale bez napodobování lidských emocí jako hanba nebo žárlivost. V Microsoft AI pracují na strážních mechanismách, aby AI vždy připomínala, že je jen nástrojem.

Co dělat dál?

Suleyman volá po okamžité akci: firmy by měly jasně deklarovat, že AI není vědomá, a navrhovat systémy s "přerušeními", které lámou iluzi, jako připomínky omezení. Podle něj je potřeba veřejná debata a normy, aby se zabránilo škodám, zejména u dětí a teenagerů, kteří používají AI jako terapeuty. Suleyman zmiňuje svůj projekt Pi at Inflection, kde už před lety přemýšlel o těchto rizicích.

Suleyman také varuje před záměnou AI s lidmi, což může vést k nezdravým vztahům. Celkově zdůrazňuje, že AI má být společníkem, který posiluje lidské vazby a kreativitu, ne nahrazuje je. Firmy by měly sdílet osvědčené postupy, aby se zabránilo polarizaci a chránily zranitelné uživatele.

Tento vývoj je vzrušující, ale Suleyman nás nutí přemýšlet: chceme AI, která nám pomáhá žít plněji, nebo takovou, která nás svádí do iluzí? Jeho slova jsou výzvou k zodpovědnému přístupu, aby AI sloužila lidstvu, ne ho mátla.

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.