Blog /
AI /
Čím déle chatujete s AI, tím horší odpovědi dostáváte. Jak to zastavit?

Čím déle chatujete s AI, tím horší odpovědi dostáváte. Jak to zastavit?

Ondřej Barták
Ondřej Barták
podnikatel a programátor
3. 3. 2026
4 minut čtení
Poslechněte si článek
Audio verze článku
Čím déle chatujete s AI, tím horší odpovědi dostáváte. Jak to zastavit?

    Znáte ten pocit? Začnete konverzaci s ChatGPT nebo Claudem, první odpovědi jsou skvělé, a pak se to někde po desáté zprávě začne sypat. Model opakuje chyby, ignoruje vaše pokyny, odpovědi se nafukují do nesmyslné délky. Říkáte si, jestli jste špatně napsali dotaz. Ale problém není ve vás. Výzkumníci tomu říkají "context rot", česky by se to dalo přeložit jako rozpad kontextu a je to jeden z nejzajímavějších a zároveň nejotravnějších jevů moderních jazykových modelů.

    Co je context rot a proč by vás to mělo zajímat

    Každý jazykový model pracuje s takzvaným kontextovým oknem (context window). Jde o jakousi krátkodobou paměť modelu, do které se vejde vše, co model v danou chvíli "vidí": váš dotaz, celá historie konverzace, systémové instrukce i výstupy nástrojů. Toto okno má pevnou velikost. Není nekonečné.

    A tady začíná problém. Čím více se okno plní, tím hůře model pracuje s informacemi uvnitř. Výzkum z roku 2023 (Liu et al.) jako první popsal jev nazvaný "Lost in the Middle": modely věnují pozornost hlavně začátku a konci vstupu, zatímco střed prostě přehlíží. Pozdější studie z roku 2025 (Veseli et al.) upřesnily, že jakmile je okno zaplněno z více než 50 %, model začne zapomínat nejstarší informace a drží se jen těch nejnovějších.

    Výsledek? Instrukce, které jste zadali na začátku konverzace, model postupně ignoruje. Přesně proto někdy modely přestane dodržovat pravidla, která jste mu nastavili.

    Čísla, která vás možná překvapí

    Výzkumný tým kolem Philippa Labana provedl rozsáhlý experiment: vzal standardní úlohy (generování kódu, SQL dotazy, matematické problémy) a místo toho, aby modelu předal vše najednou, rozdělil informace do série kratších zpráv, tak jak to děláme my v běžném chatu.

    Výsledky byly dost nepříjemné. Průměrný pokles výkonu dosáhl 39 % při rozložení informací do více zpráv oproti jedinému komplexnímu dotazu. Nespolehlivost se více než zdvojnásobila. A co je možná nejzajímavější: ani nejlepší modely jako GPT-4.1, Claude 3.7 Sonnet nebo Gemini 2.5 Pro nebyly imunní. Ztratily 30 až 40 % přesnosti, stejně jako mnohem menší modely. Ani takzvané "reasoning modely" (o3, DeepSeek-R1) si nevedly lépe.

    Nejnovější generace modelů od GPT-5 výše situaci mírně zlepšila, pokles se snížil z 39 na přibližně 33 %, ale problém zůstává. Laban navíc upozorňuje, že reálné ztráty mohou být ještě vyšší, protože testy používaly zjednodušené simulace uživatelů. Skuteční lidé, kteří v průběhu konverzace mění názor nebo přidávají nové požadavky, způsobují ještě strmější pád výkonu.

    Proč se to vlastně děje: čtyři hlavní viníci

    Výzkumníci identifikovali čtyři konkrétní příčiny, proč modely v delších konverzacích selhávají.

    Předčasné odpovědi. Model se pokusí odpovědět dřív, než má dostatek informací. Průměrné skóre při odpovědi v prvních 20 % konverzace bylo pouhých 31 %. Při odpovědi v posledních 20 % vyskočilo na 64 %. Model prostě hádá a pak se té chybné odpovědi drží.

    Nafukování odpovědí. Jak konverzace roste, odpovědi se prodlužují. Kód, který by měl mít 700 znaků, naroste třeba na dvojnásobek. Model přidává vrstvu předpokladů za vrstvou, aniž by ty předchozí chybné zahodil. Výsledek je zmatený, přeplněný a nepřesný.

    Ztráta středu. Informace uprostřed kontextového okna se prostě vytrácejí. Model si pamatuje začátek a konec, střed přeskakuje.

    Přílišná upovídanost. Čím delší odpověď, tím větší šance na chybu. Zvláště reasoning modely trpí tím, že generují dlouhé řetězce uvažování, ve kterých se samy ztratí.

    Co s tím můžete dělat hned teď?

    Nejjednodušší a nejúčinnější rada zní: začněte nový chat. Zní to triviálně, ale funguje to. Nový chat vymaže kontextové okno a model začíná s čistou pamětí. Konkrétně to znamená: začněte nový chat vždy, když přecházíte na jiné téma, když model udělá chybu a vy chcete, aby to zkusil znovu, nebo když konverzace přesáhne zhruba 15 zpráv. Před zahájením nového chatu požádejte model, ať shrne vše podstatné z dosavadní konverzace, a toto shrnutí použijte jako vstup do nové.

    Experti varují, že technická řešení jako snižování "teploty" generování nebo opakování instrukcí na konci každé zprávy problém neřeší. Nejspolehlivější metodou zůstává předat modelu všechny informace najednou v jednom komplexním dotazu, místo jejich postupného dávkování.

    Dočasný problém, nebo strukturální slabina?

    Část odborné komunity se domnívá, že jde o přechodnou bolest. Modely se zlepšují, kontextová okna rostou (Gemini 2.5 Pro zvládne přes milion tokenů), výzkumníci pracují na lepších mechanismech pozornosti, paměťových modulech i hybridních přístupech kombinujících jazykové modely s vyhledáváním v databázích. Jiní jsou skeptičtější. Problém totiž není jen v délce okna, ale v tom, jak modely s informacemi uvnitř pracují. Větší okno samo o sobě nezaručuje lepší výsledky, pokud model stále přehlíží střed a lpí na prvních dojmech.

    Pravda je někde uprostřed. Context rot je reálný, měřitelný a ovlivňuje každého, kdo AI používá denně. Ale dá se s ním pracovat. Stačí vědět, že existuje, a přizpůsobit tomu způsob, jakým s modely komunikujeme. Kratší konverzace, jasné dotazy, čerstvý start při každém novém úkolu. Tak jednoduché to je.

    Zdroje: prompthub.us a medium.com

    Kategorie: AI
    Líbil se vám tento článek?
    Objevte další zajímavé příspěvky na blogu
    Zpět na blog
    Editee Dashboard

    Tvořte 10x rychleji na pár kliknutí s editee AI

    Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

    Související příspěvky

    Konec nudných pracovních dnů? Lenovo AI Workmate skenuje, promítá a povídá si s vámi Konec nudných pracovních dnů? Lenovo AI Workmate skenuje, promítá a povídá si s vámi
    Na veletrhu MWC 2026 v Barceloně Lenovo ukázalo něco, co by ještě před pár lety vypadalo jako rekvizita ze sci-fi filmu. Dva konceptuální stolní AI...
    3 min čtení
    3. 3. 2026
    Anthropic žaluje Pentagon za označení "rizikového dodavatelského řetězce" Anthropic žaluje Pentagon za označení "rizikového dodavatelského řetězce"
    Byl pátek odpoledne, 28. února, a hodiny tikaly. Pentagon dal Anthropicu ultimátum: do 17:01 buď podepíšeš smlouvu, nebo přijdou následky. Anthropic...
    4 min čtení
    3. 3. 2026
    Nvidia chystá čip pro rychlejší AI a investuje 4 miliardy do fotoniky Nvidia chystá čip pro rychlejší AI a investuje 4 miliardy do fotoniky
    Nvidia dlouho vládla světu umělé inteligence jako nezpochybnitelný král. Její grafické procesory se staly zlatým standardem pro trénování AI modelů...
    3 min čtení
    3. 3. 2026
    Cestování

    USA

    Texas
    Podnikání Podnikání v USA
    Přihlaste se k odběru našeho newsletteru
    Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.