Blog /
AI /
Nová pozice v OpenAI: Boj proti hrozbám z pokročilých modelů

Nová pozice v OpenAI: Boj proti hrozbám z pokročilých modelů

Ondřej Barták
Ondřej Barták
podnikatel a programátor
6. 1. 2026
3 minut čtení
Nová pozice v OpenAI: Boj proti hrozbám z pokročilých modelů

OpenAI, společnost známá vývojem AI modelu ChatGPT, právě vypsala nabídku práce na pozici Head of Preparedness (vedoucí oddělení připravenosti). Tato role patří do týmu Safety Systems v San Franciscu a zaměřuje se na to, aby modely AI byly bezpečné a zodpovědné. Podle popisu práce má tento člověk vést strategii a provádění takzvaného Preparedness frameworku, což je rámec, který vysvětluje, jak OpenAI sleduje a připravuje se na nové schopnosti modelů, které by mohly způsobit vážné škody.

Tým Safety Systems buduje evaluace, ochrany a bezpečnostní rámce, aby modely fungovaly tak, jak mají v reálném světě. OpenAI už investovalo hodně do přípravy přes několik generací modelů, včetně základních evaluací schopností, modelů hrozeb a opatření proti nim. S rostoucími schopnostmi modelů se očekává, že se bezpečnostní standardy budou rozšiřovat.

Proč teď hledají nového šéfa?

Sam Altman, CEO OpenAI, osobně sdílel nabídku na sociální síti X 27. prosince 2025. Popsal roli jako "stresující" a zdůraznil, že modely AI začínají představovat skutečné výzvy, jako potenciální vliv na duševní zdraví uživatelů nebo schopnost modelů nacházet kritické zranitelnosti v počítačové bezpečnosti. Altman vyzval zájemce, kteří chtějí pomoci chránit kybernetickou bezpečnost, zajistit, že útočníci nemohou zneužít AI k újmě, a zvládnout rizika spojená s biologickými schopnostmi nebo systémy, které se samy zlepšují.

Tato nabídka přichází po změnách v týmu. V roce 2023 OpenAI oznámilo vytvoření týmu pro přípravu na katastrofická rizika, od phishingových útoků po spekulativní hrozby, například jaderné. Ale v roce 2024 byl předchozí šéf přípravy Aleksander Madry přeřazen na roli zaměřenou na uvažování AI. Další bezpečnostní manažeři odešli nebo změnili pozice. V dubnu 2025 OpenAI aktualizovalo svůj Preparedness Framework, kde uvedlo, že by mohlo upravit bezpečnostní požadavky, pokud konkurenční laboratoř vydá vysoce rizikový model bez podobných ochran.

Jaké jsou hlavní úkoly?

Head of Preparedness má vlastnit celou strategii přípravy OpenAI. To zahrnuje budování evaluací schopností, stanovení modelů hrozeb a koordinaci opatření proti nim, aby vytvořil koherentní a škálovatelný bezpečnostní proces. Konkrétně:

  • Vést vývoj evaluací pokročilých schopností, které mají být přesné, robustní a přizpůsobené rychlým cyklům produktů.

  • Dohled nad designem opatření proti rizikům v oblastech jako kybernetika nebo biologie, aby byly technicky solidní a efektivní.

  • Řídit interpretaci výsledků evaluací, které ovlivňují rozhodnutí o spuštění, politice a bezpečnostních případech.

  • Zdokonalovat rámec přípravy podle nových rizik, schopností nebo externích očekávání.

  • Spolupracovat s výzkumnými, inženýrskými, produktovými týmy, týmy pro monitorování politiky, governance a externími partnery, aby příprava byla integrována do reálného nasazení.

Rizika zahrnují kybernetické zneužití, kde modely pomáhají s hackingem s minimálním lidským vstupem, duševní zdraví, kde uživatelé diskutují vážné problémy v konverzacích s AI, a biologické hrozby. Altman varoval před rostoucí krizí podvodů s AI, kde se systémy používají k masovému napodobování lidí.

Kdo by se hodil?

Ideální kandidát má být motivován zajištěním bezpečného nasazení pokročilých AI systémů. Potřebuje hlubokou technickou expertizu strojového učení, bezpečnosti AI, evaluacích, bezpečnosti nebo souvisejících rizikových oblastech. Zkušenosti s designem nebo prováděním přísných evaluací složitých technických systémů jsou klíčové. Musí umět dělat jasná technická rozhodnutí pod nejistotou, komunikovat přesně a sjednotit různé zúčastněné kolem bezpečnostních rozhodnutí.

Další výhody: Zkušenosti s řízením technických týmů nebo křížovými iniciativami ve výzkumných prostředích, schopnost balancovat vědeckou hloubku s operačními realitami a rychle dodávat kvalitní práci. Výhodou je zkušenost s modelováním hrozeb, kybernetickou bezpečností, biologickou bezpečností, nesouladem nebo jinými riziky na hranici.

Plat je uveden jako 555 000 dolarů plus akciové opce, což při aktuálním kurzu odpovídá přibližně 12 765 000 Kč plus akciové opce.

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.