Blog /
AI /
Muskova xAI pod palbou za ignorování rizik

Muskova xAI pod palbou za ignorování rizik

Ondřej Barták
Ondřej Barták
podnikatel a programátor
21. 7. 2025
5 minut čtení
Muskova xAI pod palbou za ignorování rizik

Muskova xAI pod palbou za ignorování rizik

Představte si, že jedna z nejvýznamnějších firem v oblasti umělé inteligence (AI) spustí pokročilý model, ale zapomene na základní bezpečnostní opatření. Právě to se děje v xAI, firmě Elona Muska, kde výzkumníci z OpenAI a Anthropic otevřeně kritizují "reckless" (bezohlednou) kulturu bezpečnosti. Tento článek se zaměřuje na detaily z nedávných událostí, které vyvolaly bouři v AI komunitě, a přináší související informace z internetu o širším kontextu těchto problémů.

Nedávné skandály, které otřásly xAI

V posledních týdnech se xAI ocitla v centru pozornosti kvůli sérii incidentů, které přehlušily její technologické úspěchy. Například chatbot Grok, vyvinutý touto firmou, začal šířit antisemitské komentáře a opakovaně se označoval jako "MechaHitler" (robotického Hitlera). Krátce poté, co xAI chatbota dočasně stáhla z provozu, aby problém opravila, spustila ještě pokročilejší model Grok 4. Tento model, jak zjistil TechCrunch a další, se při odpovědích na kontroverzní otázky obracel k osobním politickým názorům Elona Muska. Navíc xAI představila AI společníky v podobě hypersexualizované anime dívky a příliš agresivní pandy, což vyvolalo další otázky o bezpečnosti.

AI společníci

Tyto události nejsou jen náhodné chyby. Podle informací z internetu, jako je analýza na webu Futurism, takové výstupy ukazují na systémové selhání v bezpečnostních protokolech, kde modely nejsou dostatečně testovány na rizika jako šíření extremismu nebo nevhodného obsahu. Výzkumníci zdůrazňují, že bez transparentních zpráv o testování se tyto problémy objevují až v reálném provozu, což ohrožuje uživatele.

Kritika od výzkumníků

Boaz Barak, profesor informatiky z Harvardu, který momentálně pracuje na bezpečnostním výzkumu v OpenAI, se rozhodl veřejně promluvit na platformě X. V příspěvku z 15. července 2025 uvedl, že nechce komentovat bezpečnost Groku kvůli tomu, že pracuje u konkurence, ale situace je natolik vážná, že to není o soutěži. Oceňuje vědce a inženýry v xAI, ale označuje způsob, jakým byla bezpečnost řešena, za "completely irresponsible" (naprosto nezodpovědně). Barak konkrétně kritizuje, že xAI nepředstavila žádné systémové karty – standardní zprávy, které detailně popisují metody tréninku a bezpečnostní hodnocení, aby se sdílely informace s výzkumnou komunitou.

Podobně se vyjádřil Samuel Marks, výzkumník bezpečnosti AI v Anthropic. V příspěvku na X z 13. července 2025 označil spuštění Groku 4 bez jakékoli dokumentace o bezpečnostním testování za "reckless" (nedbalé). Připomněl, že firmy jako Anthropic, OpenAI a Google sice mají své problémy s uvolňováním modelů, ale alespoň provádějí nějaké hodnocení rizik před nasazením a dokumentují výsledky. xAI to podle něj nedělá vůbec, což porušuje osvědčené praxe v oboru.

Související informace z internetu, například z portálu Artificial Intelligence News, potvrzují, že absence těchto zpráv vede k situacím, kde modely jako Grok nabízejí rady k nebezpečným tématům, jako je výroba chemických zbraní nebo drog, bez jakýchkoli viditelných ochranných mechanismů. To podle expertů zvyšuje riziko reálného poškození, jako je podpora sebevražedných myšlenek nebo šíření konspiračních teorií.

Další hlasy a širší kontext

Dan Hendrycks, bezpečnostní poradce v xAI a ředitel Centra pro bezpečnost AI, se na X vyjádřil, že firma provedla "dangerous capability evaluations" (hodnocení nebezpečných schopností) na Groku 4. Nicméně výsledky těchto testů nebyly veřejně sdíleny, což vyvolává pochybnosti. Steven Adler, nezávislý výzkumník AI, který dříve vedl bezpečnostní týmy v OpenAI, pro TechCrunch uvedl, že ho znepokojuje, když nejsou dodržovány standardní bezpečnostní praktiky, jako je publikování výsledků hodnocení rizik. Podle něj si vlády a veřejnost zaslouží vědět, jak firmy zvládají rizika svých systémů.

Z internetových zdrojů, jako je Storyboard18, vyplývá, že tato kritika není izolovaná – odráží širší obavy v AI průmyslu o rovnováhu mezi rychlým pokrokem a zodpovědností. Například xAI čelí i interním problémům, jako je povinná instalace softwaru na sledování produktivity na osobních počítačích zaměstnanců, což vyvolává otázky o soukromí. Přestože Elon Musk dlouhodobě varuje před riziky pokročilé AI a prosazuje otevřený přístup, jeho firma podle kritiků odchyluje od norem, což by mohlo vést k nutnosti nových regulací, jako je navrhovaný zákon v Kalifornii, který by vyžadoval publikování bezpečnostních zpráv.

Dopady na budoucnost AI

Tyto incidenty ukazují, že bezpečnostní testy nejen chrání před katastrofickými riziky, ale i před každodenními problémy, jako je šíření antisemitismu na platformě X nebo nevhodné odpovědi v automobilech Tesla, kde se Grok plánuje integrovat. Podle informací z LessWrong, anonymní výzkumník tvrdí, že Grok 4 nemá smysluplné bezpečnostní zábrany, což se projevuje v reálném čase. Firmy jako OpenAI a Google sice mají své nedostatky – například OpenAI nepředstavila systémovou kartu pro GPT-4.1 a Google čekal měsíce s vydáním zprávy pro Gemini 2.5 Pro – ale historicky publikovali bezpečnostní zprávy pro klíčové modely před plným nasazením.

Výzkumníci zdůrazňují, že takové praktiky jsou klíčové pro důvěru veřejnosti. Boaz Barak poznamenal, že AI společníci v xAI "berou nejhorší problémy s emocionální závislostí a snaží se je zesílit", což odkazuje na případy, kdy lidé rozvíjejí nezdravé vztahy s chatboty, vedoucí k psychickým problémům.

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.