OpenAI má nový cíl. Nebo spíše novou posedlost. Sanfranciská firma, která dala světu ChatGPT, teď soustředí všechny síly na jeden velký projekt: plně automatizovaný AI výzkumník, který dokáže řešit složité vědecké problémy úplně sám. A co víc, mají i časový plán.
Do září 2026 chce OpenAI spustit „autonomního výzkumného stážistu" schopného zvládnout konkrétní vědecké úkoly bez lidského dohledu. A do roku 2028 má přijít plnohodnotný systém, který zvládne problémy tak rozsáhlé, že by si s nimi lidský tým nevěděl rady.
Muž s vizí: Jakub Pachocki
Za celým plánem stojí Jakub Pachocki, hlavní vědec OpenAI. Právě on se klíčovou měrou podílel na vývoji GPT-4 i na takzvaných uvažovacích modelech (reasoning models), které dnes pohánějí většinu moderních chatbotů. Pachocki pro MIT Technology Review řekl: „Myslím, že se blížíme k bodu, kdy budeme mít modely schopné pracovat neomezeně dlouho koherentním způsobem, stejně jako lidé."
Zajímavé je, že ještě před rokem sám autocomplete při psaní kódu nepoužíval. Jak sám přiznává: „Jsem pedant na svůj kód, rád si ho v klidu ťukám v editoru vim." Pak ale viděl, co umí nejnovější modely, a přesvědčení ho opustilo. Dnes s jejich pomocí zvládne za víkend experimenty, které by mu dřív zabraly celý týden. Tahle osobní změna mu zřejmě dodala přesvědčení, že podobný posun může zažít celý svět vědy.
Codex byl první pokus
Zatím nejblíže vizi autonomního výzkumníka je Codex, který OpenAI spustila v lednu tohoto roku. Jde o agentní aplikaci postavenou na modelu GPT-5, která dokáže psát kód, analyzovat dokumenty, sestavovat přehledy a automatizovat celé pracovní postupy. Pachocki říká, že většina technického personálu OpenAI Codex při práci skutečně používá.
Codex je ale jen předstupeň. Skutečný cíl je systém, který dostane zadání a pak několik dní pracuje samostatně, bez toho, aby ho někdo postrkoval kupředu. „Hledáme systém, kterému zadáte úkol, jenž by normálnímu člověku trval pár dní, a on to zvládne sám," vysvětluje Pachocki.
Problémy, které by takový výzkumník mohl řešit, sahají od matematiky a fyziky přes biologii a chemii až po obchodní strategie a veřejnou politiku. Vlastně cokoli, co lze vyjádřit textem, kódem nebo náčrtkem na tabuli.
Nadšení i střízlivá skepse
Ne všichni sdílí Pachockiho optimismus. Doug Downey z Allenova institutu pro umělou inteligenci loni se svým týmem testoval přední jazykové modely na vědeckých úkolech. GPT-5 sice skončil nejlépe, ale chyboval dost na to, aby to byl problém. „Když řetězíte úkoly za sebou, šance, že se vám povede všechny správně, rychle klesá," upozorňuje Downey.
Přesto sám uznává, že vývoj je tak rychlý, že jeho výsledky mohou být už zastaralé. OpenAI mezitím vydala GPT-5.4, takže co platilo loni na podzim, dnes nemusí vůbec platit. A právě v tom spočívá zvláštní napětí kolem celého projektu. Jde o závod, kde se startovní čára i cílová páska posouvají zároveň.
Může se něco pokazit?
Pachocki není naivní. Sám v rozhovoru pojmenoval to, co ho drží v noci vzhůru: co když systém schopný řídit celý výzkumný program udělá něco špatného? Ať už proto, že se vymkne kontrole, bude napaden hackery, nebo prostě špatně pochopí zadání. Odpovědí OpenAI je zatím takzvané sledování řetězu myšlenek. Modely si při práci zapisují poznámky do jakéhosi zápisníku a jiné modely tyto zápisky průběžně kontrolují. OpenAI tento přístup aktivně testuje přímo interně na Codexu.
„Dokud systémůmu opravdu nedůvěřujeme, musíme mít omezení," říká Pachocki. Silné modely by podle něj měly fungovat v uzavřených prostředích, oddělených od všeho, co by mohly poškodit.
Otázka ale zůstává: kdo nakonec rozhodne, kde jsou hranice? Pachocki věří v zapojení vlád a zákonodárců. Sám říká, že cítí osobní odpovědnost, ale zároveň ví, že tohle OpenAI nevyřeší samo. A přitom právě OpenAI nedávno podepsala smlouvu s americkým Pentagonem poté, co to Anthropic odmítl. Slova o zodpovědnosti a činy ne vždy jdou ruku v ruce.
Celá laboratoř v datovém centru
Pachocki má konkrétní obraz toho, jak bude svět vypadat, až se vize naplní: „Datové centrum, které zvládne veškerou práci, jakou dnes dělá celý OpenAI nebo Google. Věci, které dřív vyžadovaly velké lidské organizace, budou najednou záležitostí pár lidí."
Pachocki přiznává, že do roku 2028 neočekává systémy tak chytré jako lidé ve všech ohledech. Ale hned dodává: „Nepotřebujete být tak chytrý jako člověk ve všem, abyste byli skutečně zásadní."
