Umělá inteligence (AI) pracuje jako tým chytrých pomocníků, kteří spolupracují na složitých úkolech. Právě to umožňuje nová rodina modelů Nvidia Nemotron 3. Tato sada otevřených modelů přichází ve třech velikostech: Nano, Super a Ultra. Je navržená pro tvorbu specializovaných agentických systémů AI. Nvidia ji oznámila 15. prosince 2025 a zaměřuje se na vysokou efektivitu a přesnost, což pomáhá vývojářům budovat systémy, které zvládnou dlouhé kontexty a mnoho agentů najednou.
Rodina Nemotron 3 řeší problémy, jako je vysoká spotřeba výpočetního výkonu nebo ztráta souvislostí při dlouhých úkolech. Modely jsou otevřené, což znamená, že vývojáři mohou vidět do jejich fungování, upravovat je a nasazovat kdekoliv. Jensen Huang, zakladatel a CEO Nvidia, zdůraznil, že otevřená inovace je základem pokroku v AI. Modely podporují snahy o suverénní AI v Evropských zemích nebo Jižní Korei, kde firmy chtějí systémy přizpůsobené svým datům a pravidlům.
Co přináší Nemotron 3 Nano
Nemotron 3 Nano je první model z rodiny, který je k dispozici okamžitě. Má celkem 30 miliard parametrů, ale aktivuje jen až 3 miliardy najednou, což ho dělá ideálním pro úkoly jako ladění softwaru, souhrn obsahu nebo vyhledávání informací. Používá hybridní architekturu směsi expertů (MoE), která kombinuje vrstvy Mamba pro rychlé zpracování sekvencí a Transformer pro přesné uvažování. Tato kombinace zajišťuje až 4x vyšší propustnost tokenů než u předchozího Nemotron 2 Nano a snižuje generování uvažovacích tokenů až o 60 %.
Model zvládá kontext až 1 milion tokenů, což znamená, že si pamatuje obrovské množství informací bez ztráty souvislostí. Podle hodnocení od Artificial Analysis dosahuje nejvyšší přesnosti mezi podobně velkými modely, s indexem inteligence 52. Vývojáři ho mohou spustit na grafikách typu DGX Spark, H100 nebo B200. Nvidia poskytuje připravené návody pro inference enginy jako vLLM, SGLang nebo TRT-LLM, které umožňují rychlé nasazení.
Pokročilé technologie v Nemotron 3
Všechny modely Nemotron 3 využívají multi-prostředí posilovací učení (RL) přes otevřenou knihovnu NeMo Gym. Tato metoda trénuje model na sekvencích akcí v různých prostředích, což zlepšuje spolehlivost při vícekrokových úkolech, jako je volání nástrojů nebo psaní funkčního kódu. NeMo Gym je otevřené, takže vývojáři mohou vytvářet vlastní prostředí pro specifické oblasti.
Architektura hybridní MoE v Nemotron 3 prokládá vrstvy Mamba-2 a MoE s několika vrstvami self-attention, což maximalizuje rychlost inference při zachování přesnosti. Mamba vrstvy zpracovávají dlouhé závislosti s nízkou pamětí, zatímco Transformer vrstvy se starají o logické vztahy v úkolech jako matematika nebo plánování. MoE aktivuje jen podmnožinu expertů pro každý token, což snižuje latenci a zvyšuje propustnost, ideální pro systémy s mnoha agenty.
Pro dlouhé kontexty model podporuje 1 milion tokenů, což umožňuje práci s velkými databázemi kódu nebo dokumenty bez dělení na kousky. To zlepšuje faktickou přesnost v aplikacích jako retrieval-augmented generation (generování rozšířené o vyhledávání) nebo analýza compliance.
Co je v modelech Nemotron 3 Super a Ultra
Nemotron 3 Super a Ultra přijdou v první polovině 2026. Super má přibližně 100 miliard parametrů s až 10 miliardami aktivními na token, vhodný pro systémy s mnoha spolupracujícími agenty. Ultra má kolem 500 miliard parametrů s až 50 miliardami aktivními, určený pro složité úkoly jako hluboký výzkum.
Tyto modely přinášejí latentní MoE, kde experti pracují na sdílené latentní reprezentaci, což umožňuje 4x více expertů při stejných nákladech na inference. Dále multi-token prediction (předpovídání více tokenů) zvyšuje rychlost o 2,4 % během tréninku a umožňuje spekulativní dekódování. Trénování probíhá v NVFP4, 4bitovém formátu Nvidia, který snižuje paměťové nároky a urychluje proces na architektuře Blackwell, při zachování přesnosti.
Modely jsou trénované na 25 bilionech tokenů a Nvidia uvolňuje téměř 10 bilionů tokenů syntetického korpusu pro inspekci. Datové sady zahrnují 3 biliony tokenů pro pretrénink s bohatým pokrytím kódu a matematiky, 13 milionů vzorků pro post-trénink a sady pro RL. Nová sada Nemotron Agentic Safety Dataset obsahuje skoro 11 tisíc stop agentických workflow pro hodnocení bezpečnosti.
Otevřenost a podpora pro vývojáře
Nvidia uvolňuje váhy modelů pod Nvidia Open Model License, spolu s recepty na trénink v repozitáři Nemotron GitHub. To zahrnuje pretréninkové recepty, RL zarovnání a datové pipeline. Vývojáři mohou modely upravovat pro své potřeby, jako je doménově specifické úkoly.
Nemotron 3 Nano je dostupný na Hugging Face, Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter a Together AI. Podporují ho platformy jako Couchbase, DataRobot, H2O.ai, JFrog, Lambda, UiPath a brzy AWS, Google Cloud, CoreWeave, Crusoe, Microsoft Foundry, Nebius, Nscale a Yotta. Jako Nvidia NIM microservice zajišťuje bezpečné nasazení.
