Před pár týdny se v otevřeně přístupné databázi Anthropicu objevil konceptový blogpost o modelu, který nikdo ještě neměl vidět. Tak se svět poprvé dozvěděl o Claude Mythos. Ironické, že model prezentovaný jako průlom v kybernetické bezpečnosti prozradila prosté špatné nastavení přístupu k souborům.
Ale zpět k podstatě. Anthropic 7. dubna oficiálně spustil Project Glasswing, iniciativu, jejímž cílem je prohledat nejkritičtější software na světě a najít bezpečnostní chyby dřív, než to udělá někdo se zlými úmysly. Do projektu vstoupily firmy jako Amazon Web Services, Apple, Google, Microsoft, JPMorganChase, Nvidia, CrowdStrike, Cisco, Palo Alto Networks, Broadcom a Nadace Linux. Celkem přes 40 organizací. A výsledky jsou alarmující.
Tisíce zranitelností v každém velkém systému
Mythos Preview během několika týdnů autonomně odhalil tisíce kritických zranitelností ve všech hlavních operačních systémech a prohlížečích. Bez lidského vedení. Jen model, kód a výstup, který bezpečnostní týmy nestačily zpracovávat. Tři příklady stojí za zmínku:
OpenBSD, systém proslavený tím, jak moc dbá na bezpečnost, skrýval chybu 27 let. Mythos ji našel. Chyba umožňovala vzdáleně shodit jakýkoli stroj s tímto systémem pouhým připojením k němu.
FFmpeg, knihovna pro práci s videem, na které běží nespočet aplikací, měla chybu starou 16 let v jediném řádku kódu. Automatické testovací nástroje tento řádek spustily dohromady více než pět milionkrát a nikdy nic nenašly. Mythos ano.
A pak je tu Linux kernel. Model tam autonomně našel a propojil několik zranitelností do řetězce, který útočníkovi umožnil povýšit z běžného uživatele na plnou kontrolu nad strojem. Bez jakékoli pomoci zvenku.
Všechny tři chyby jsou dnes opraveny. Stovky dalších jsou teprve v procesu záplaty.
Proč Anthropic model nezveřejnil veřejně
Newton Cheng, vedoucí kybernetického červeného týmu Anthropicu, to říká na rovinu"model veřejnosti nedáme". Důvod? Stejné schopnosti, které ho dělají skvělým obranným nástrojem, by v nesprávných rukou způsobily pohromu. Cheng varoval, že podobné schopnosti se rozšíří mezi státní aktéry, zločinecké skupiny a kdokoli s dostatečnými zdroji během měsíců. Anthropic přitom ví, o čem mluví. V listopadu 2025 odhalil, že čínská státní skupina využívala Claude pro autonomní kybernetické operace proti asi 30 cílům.
Proto vznikl Glasswing. Myšlenka je jednoduchá: dát obráncům náskok, dokud je čas. Na benchmarku CyberGym, který testuje schopnost AI nacházet a reprodukovat skutečné zranitelnosti, dosáhl Mythos Preview 83,1 % oproti 66,6 % u předchozího modelu Claude Opus 4.6. Na kódovacím benchmarku SWE-bench Verified skóroval 93,9 % versus 80,8 %. Ač se to každému na první pohled nemusí zdát, generační rozdíl mezi těmito modely je obrovský.
Paradox, který nelze ignorovat
Model který může vše rozbít, je zároveň modelem, který vše opravuje. Jenže tady nastává poctivá otázka. Mythos sice zranitelnosti nachází, ale kdo je skutečně opraví? Podle Anthropicu méně než 1 % nalezených zranitelností zatím skončilo záplatou. To je děsivé číslo. Odhalovat chyby rychlostí stroje a opravovat je lidským tempem je recept na přetížení. Správci open source projektů, kteří software udržují ve volném čase, tenhle příval prostě nezvládnou. Někdo to opravit musí. A zdá se, že tentokrát na to nebudeme mít čas čekat.
Daniel Stenberg, autor nástroje cURL, to sám zažil. Musel ukončit svůj program na hledání bugů na HackerOne, protože ho zaplavily falešné hlášení generované AI nástroji. Paradoxně ale přiznává, že modely mu pak pomohly najít přes 100 skutečných chyb, které by jinak zůstaly skryté. Anthropic si je tohoto problému vědom. Buduje třídicí linku, kde každé hlášení projde lidskou validací před odesláním správci. Slibuje, že nezasype jediný projekt lavinou neověřených zpráv. A k opravám nabízí i návrh záplaty. To je vstřícný krok. Zda bude stačit na tisíce chyb, se teprve ukáže.
Glasswing přišel ve stejný týden, kdy Anthropic oznámil roční příjmy přes 30 miliard dolarů a obří dohodu o výpočetním výkonu s Googlem a Broadcomem. Spekuluje se i o vstupu na burzu možná už v říjnu 2026.
Gizmodo připomíná historický vzor: OpenAI v roce 2019 varovalo, že jejich textový model GPT-2 je příliš nebezpečný. Pár měsíců nato ho zveřejnili. Svět se nezastavil. Tohle není úplně totéž, ale skepticismus je pochopitelný, protože okno mezi objevením zranitelnosti a jejím zneužitím útočníkem se zhroutilo. Co dříve trvalo měsíce, dnes trvá minuty.
Další zdroje: venturebeat.com a tomshardware.com
