Už dnes spoléhají programátoři na umělou inteligenci, aby jim pomohla psát kód rychleji. Nástroje jako GitHub Copilot nebo modely jako GPT-4 slibují zázraky, ale realita je složitější. Podle článku z IEEE Spectrum se tyto AI asistenti ve skutečnosti zhoršují. Důvod? Trénují se na datech, která sama vytvářejí, což vede k takzvanému kolapsu modelu. To znamená, že kvalita výstupu klesá, protože AI se učí z chyb a zjednodušení, která sama produkuje.
Výzkumy ukazují, že když se modely trénují na syntetickém obsahu – tedy na textech a kódu generovaném jinými AI – ztrácejí schopnost zpracovávat složité nebo neobvyklé úkoly. Například v testech s databázemi pro finanční systémy, kde se používají jednoduché položky jako debet nebo kredit, AI selhává v bezpečnostních aspektech. Anjan Saha, který se k tématu vyjádřil, zdůrazňuje, že pro složité systémy jako elektrické sítě nebo medicínské aplikace potřebujeme data v mnohorozměrných maticích, což AI jako ChatGPT nebo GitHub Copilot nedokážou spolehlivě zvládnout. Místo toho se zaměřují na běžné úlohy, ale selhávají u neobvyklých problémů.
Zaujatost k populárním frameworkům
Další velký problém je zaujatost vůči oblíbeným technologiím. AI kodovací nástroje upřednostňují populární jazyky a frameworky, jako je Python nebo React, protože na nich mají nejvíce trénovacích dat. To vytváří paradox popularity: méně známé frameworky, jako ty pro specifické inženýrské aplikace, zůstávají opomíjené. Výsledkem je, že programátoři pracující se speciálními nástroji a dostávají nekvalitní návrhy, což způsobuje frustraci.
Tato předpojatost vede k tomu, že AI ignoruje okrajové případy. Pokud potřebujete kód pro neobvyklý scénář, jako je integrace starého systému s novým, AI často navrhne řešení, které nefunguje. Podle analýz z roku 2025 až 2026, jako je ta od Faros AI, která zkoumala 10 000 vývojářů, se to projevuje v paradoxu produktivity: AI pomáhá s běžnými úkoly, ale komplikuje ty složité, kde je nutná lidská znalost.
Pokles kvality dat
Velký vliv má také pokles kvalitních dat. Stránky jako Stack Overflow zažívají úbytek otázek – až o 84 %, protože AI řeší jednoduché problémy. Zbývají jen ty těžké, které zůstávají nevyřešené. To znamená, že nové modely se trénují na méně rozmanitých datech, což zvyšuje riziko kolapsu. Syntetický obsah zaplavuje internet, a AI se tak učí z vlastních chyb, což snižuje jejich spolehlivost.
Například v testech s CSV daty pro bankovní schémata AI generuje data, která vypadají dobře, ale skrývají bezpečnostní díry. Anjan Saha poukazuje na to, že pro systémy jako sociální sítě nebo elektrické sítě je nutné zpracovávat komplexní parametry v databázích Oraclu, což AI nedokáže bez lidského dohledu. Výsledkem je, že vývojáři tráví více času opravami, než by měli.
Dopady na produktivitu vývojářů
Přestože 84 % vývojářů podle průzkumů Stack Overflow plánuje nebo už používá AI nástroje, mnozí hlásí frustraci. Nástroje jako Claude Code nebo Cursor sice pomáhají s malými úkoly, ale selhávají u velkých projektů. Například Replit's Agent v roce 2025 dokázal sestavit celou aplikaci včetně nasazení, ale starší verze byly chaotické a vyžadovaly hodně zásahů. To vede k situaci, kde AI zvyšuje rychlost na začátku, ale později způsobuje problémy.
Výzkumy varují před modelem kolapsu, kde trénování na AI-generovaném kódu snižuje výkon na nové problémy. Pro laika to znamená, že i když AI vypadá chytře, její chyby se hromadí a mohou vést k vážným selháním v aplikacích, jako jsou finanční systémy nebo medicínské zařízení.
Celkově tyto problémy naznačují, že AI kodovací asistenti potřebují lepší trénovací data a lidský dohled, aby se nezhoršovali dál.
