OpenAI, společnost známá vývojem AI modelu ChatGPT, právě vypsala nabídku práce na pozici Head of Preparedness (vedoucí oddělení připravenosti). Tato role patří do týmu Safety Systems v San Franciscu a zaměřuje se na to, aby modely AI byly bezpečné a zodpovědné. Podle popisu práce má tento člověk vést strategii a provádění takzvaného Preparedness frameworku, což je rámec, který vysvětluje, jak OpenAI sleduje a připravuje se na nové schopnosti modelů, které by mohly způsobit vážné škody.
Tým Safety Systems buduje evaluace, ochrany a bezpečnostní rámce, aby modely fungovaly tak, jak mají v reálném světě. OpenAI už investovalo hodně do přípravy přes několik generací modelů, včetně základních evaluací schopností, modelů hrozeb a opatření proti nim. S rostoucími schopnostmi modelů se očekává, že se bezpečnostní standardy budou rozšiřovat.
Proč teď hledají nového šéfa?
Sam Altman, CEO OpenAI, osobně sdílel nabídku na sociální síti X 27. prosince 2025. Popsal roli jako "stresující" a zdůraznil, že modely AI začínají představovat skutečné výzvy, jako potenciální vliv na duševní zdraví uživatelů nebo schopnost modelů nacházet kritické zranitelnosti v počítačové bezpečnosti. Altman vyzval zájemce, kteří chtějí pomoci chránit kybernetickou bezpečnost, zajistit, že útočníci nemohou zneužít AI k újmě, a zvládnout rizika spojená s biologickými schopnostmi nebo systémy, které se samy zlepšují.
Tato nabídka přichází po změnách v týmu. V roce 2023 OpenAI oznámilo vytvoření týmu pro přípravu na katastrofická rizika, od phishingových útoků po spekulativní hrozby, například jaderné. Ale v roce 2024 byl předchozí šéf přípravy Aleksander Madry přeřazen na roli zaměřenou na uvažování AI. Další bezpečnostní manažeři odešli nebo změnili pozice. V dubnu 2025 OpenAI aktualizovalo svůj Preparedness Framework, kde uvedlo, že by mohlo upravit bezpečnostní požadavky, pokud konkurenční laboratoř vydá vysoce rizikový model bez podobných ochran.
Jaké jsou hlavní úkoly?
Head of Preparedness má vlastnit celou strategii přípravy OpenAI. To zahrnuje budování evaluací schopností, stanovení modelů hrozeb a koordinaci opatření proti nim, aby vytvořil koherentní a škálovatelný bezpečnostní proces. Konkrétně:
-
Vést vývoj evaluací pokročilých schopností, které mají být přesné, robustní a přizpůsobené rychlým cyklům produktů.
-
Dohled nad designem opatření proti rizikům v oblastech jako kybernetika nebo biologie, aby byly technicky solidní a efektivní.
-
Řídit interpretaci výsledků evaluací, které ovlivňují rozhodnutí o spuštění, politice a bezpečnostních případech.
-
Zdokonalovat rámec přípravy podle nových rizik, schopností nebo externích očekávání.
-
Spolupracovat s výzkumnými, inženýrskými, produktovými týmy, týmy pro monitorování politiky, governance a externími partnery, aby příprava byla integrována do reálného nasazení.
Rizika zahrnují kybernetické zneužití, kde modely pomáhají s hackingem s minimálním lidským vstupem, duševní zdraví, kde uživatelé diskutují vážné problémy v konverzacích s AI, a biologické hrozby. Altman varoval před rostoucí krizí podvodů s AI, kde se systémy používají k masovému napodobování lidí.
Kdo by se hodil?
Ideální kandidát má být motivován zajištěním bezpečného nasazení pokročilých AI systémů. Potřebuje hlubokou technickou expertizu strojového učení, bezpečnosti AI, evaluacích, bezpečnosti nebo souvisejících rizikových oblastech. Zkušenosti s designem nebo prováděním přísných evaluací složitých technických systémů jsou klíčové. Musí umět dělat jasná technická rozhodnutí pod nejistotou, komunikovat přesně a sjednotit různé zúčastněné kolem bezpečnostních rozhodnutí.
Další výhody: Zkušenosti s řízením technických týmů nebo křížovými iniciativami ve výzkumných prostředích, schopnost balancovat vědeckou hloubku s operačními realitami a rychle dodávat kvalitní práci. Výhodou je zkušenost s modelováním hrozeb, kybernetickou bezpečností, biologickou bezpečností, nesouladem nebo jinými riziky na hranici.
Plat je uveden jako 555 000 dolarů plus akciové opce, což při aktuálním kurzu odpovídá přibližně 12 765 000 Kč plus akciové opce.
