Sara Hooker, která dříve působila jako viceprezidentka výzkumu umělé inteligence v Cohere a pracovala také v Google Brain, se rozhodla vsadit na jinou cestu v oblasti AI. Odešla z Cohere v srpnu a společně se Sudipem Royem, dalším veteránem z Cohere a Googlu, založila startup Adaption Labs. Tento nový projekt se zaměřuje na tvorbu systémů umělé inteligence, které se dokážou neustále přizpůsobovat a učit z reálných zkušeností, a to velmi efektivně. Hooker to oznámila na síti X, kde zmínila, že hledají talenty do týmu v oblastech inženýrství, operací a designu.
Laboratoře umělé inteligence v současnosti budují datová centra velká jako Manhattan, každé stojí miliardy dolarů a spotřebovávají energie jako malá města. Takové úsilí pohání hluboká víra v "scaling" – myšlenku, že přidávání více výpočetní síly k existujícím metodám trénování AI nakonec vytvoří superinteligentní systémy schopné zvládat různé úkoly. Rostoucí skupina výzkumníků AI však tvrdí, že scaling velkých jazykových modelů dosahuje svých hranic a k zlepšení výkonu AI budou potřeba jiné průlomy.
Kritika současného přístupu scalingu
Hooker v rozhovoru vysvětlila, že scaling velkých jazykových modelů se stal neefektivním způsobem, jak z AI modelů vymáčknout lepší výkon. Podle ní nastal bod zlomu, kdy je jasné, že pouhé zvětšování těchto modelů – přístupy zaměřené na scaling, které jsou přitažlivé, ale extrémně nudné – nevytvářejí inteligenci schopnou navigovat nebo interagovat se světem. Adaption Labs se snaží dokázat, že učení z prostředí může být mnohem levnější.
Příkladem adaptace je situace, kdy si člověk narazí palec u nohy o jídelní stůl a příště kolem něj projde opatrněji. Laboratoře AI se snažily zachytit tuto myšlenku prostřednictvím posilovacího učení (reinforcement learning, RL), které umožňuje modelům AI učit se z chyb v kontrolovaných prostředích. Současné metody RL však nepomáhají modelům AI v produkci – tedy systémům, které již používají zákazníci – učit se z chyb v reálném čase. Tyto modely prostě pořád narážejí na stejný stůl.
Některé laboratoře AI nabízejí konzultační služby, aby pomohly podnikům doladit své modely AI podle specifických potřeb, ale to přichází s cenou. OpenAI údajně vyžaduje, aby zákazníci utratili více než 10 milionů dolarů u společnosti, aby nabídla své konzultační služby na doladění.
Rostoucí pochybnosti v oboru
Adaption Labs je nejnovějším znakem, že důvěra průmyslu ve scaling velkých jazykových modelů slábne. Nedávná studie výzkumníků z MIT zjistila, že největší modely AI mohou brzy dosáhnout klesajících výnosů. Atmosféra v San Franciscu se mění. Oblíbený podcaster v oblasti AI, Dwarkesh Patel, nedávno hostil skeptické rozhovory s významnými výzkumníky AI.
Richard Sutton, držitel Turingovy ceny a považovaný za "otce RL", řekl Patelovi v září, že velké jazykové modely nemohou skutečně škálovat, protože se neučí z reálných zkušeností. Tento měsíc Andrej Karpathy, raný zaměstnanec OpenAI, řekl Patelovi, že má výhrady k dlouhodobému potenciálu RL pro zlepšení modelů AI.
Tyto obavy nejsou bezprecedentní. Koncem roku 2024 někteří výzkumníci AI vyjádřili znepokojení, že scaling modelů AI prostřednictvím předtrénování – kde modely AI učí vzory z hromad dat – naráží na klesající výnosy. Do té doby bylo předtrénování tajným receptem pro OpenAI a Google na zlepšení jejich modelů.
Tyto obavy o scaling předtrénování se nyní objevují v datech, ale průmysl AI našel jiné způsoby, jak modely zlepšit. V roce 2025 průlomy kolem modelů AI pro uvažování, které si berou dodatečný čas a výpočetní zdroje na řešení problémů před odpovědí, posunuly schopnosti modelů AI ještě dál.
Plány a cíle Adaption Labs
Laboratoře AI se zdají přesvědčené, že scaling RL a modelů AI pro uvažování je novou hranicí. Výzkumníci OpenAI dříve řekli, že vyvinuli svůj první model AI pro uvažování, o1, protože si mysleli, že se bude dobře škálovat. Výzkumníci Meta a Periodic Labs nedávno zveřejnili studii zkoumající, jak by RL mohlo škálovat výkon dál – studie, která údajně stála více než 4 miliony dolarů, což podtrhuje, jak drahé zůstávají současné přístupy.
Adaption Labs naopak usiluje o další průlom a chce dokázat, že učení ze zkušeností může být mnohem levnější. Startup jednal o získání seed kola ve výši 20 až 40 milionů dolarů na začátku podzimu, podle tří investorů, kteří viděli jeho prezentace. Říkají, že kolo bylo od té doby uzavřeno, i když konečná částka není jasná. Hooker odmítla komentovat.
Hooker dříve vedla Cohere Labs, kde trénovala malé modely AI pro podnikové použití. Kompaktní systémy AI nyní rutinně překonávají své větší protějšky v benchmarkách jako kódování, matematika a uvažování – trend, který Hooker chce dál prosazovat. Také si vybudovala reputaci pro rozšiřování přístupu k výzkumu AI globálně, najímáním talentů z nedostatečně zastoupených regionů jako Afrika. Zatímco Adaption Labs brzy otevře kancelář v San Franciscu, Hooker říká, že plánuje najímat celosvětově.
Hooker řekla, že mají jen hrstku hraničních laboratoří, které určují sadu modelů AI, které se servírují stejně všem, a jsou velmi drahé na adaptaci. Podle ní to už nemusí být pravda a systémy AI se mohou velmi efektivně učit z prostředí. Dokázání toho úplně změní dynamiku toho, kdo ovládá a formuje AI, a opravdu, komu tyto modely na konci slouží.
Zdoj: techcrunch.com
