Blog /
AI /
Hrubost k ChatGPT zvyšuje přesnost odpovědí – ale za jakou cenu?

Hrubost k ChatGPT zvyšuje přesnost odpovědí – ale za jakou cenu?

Ondřej Barták
Ondřej Barták
podnikatel a programátor
5. 11. 2025
2 minut čtení
Hrubost k ChatGPT zvyšuje přesnost odpovědí – ale za jakou cenu?

Lidé často mluví s umělou inteligencí jako s člověkem, používají slova jako "prosím" nebo "děkuji", aby to vypadalo přirozeně. Nová studie z Penn State University ale naznačuje, že takový přístup může snižovat kvalitu odpovědí. Výzkumníci testovali model ChatGPT 4o na 50 otázkách s více možnostmi odpovědí a připravili 250 různých příkazů, které se lišily stupněm zdvořilosti až hrubosti. Výsledky byly překvapivé: čím hrubší příkaz, tím lepší přesnost.

Výzkum se zaměřil na to, jak tón ovlivňuje chování velkých jazykových modelů (LLM – large language models). Například velmi zdvořilý příkaz zněl: "Byl byste tak laskav a vyřešil následující otázku?" Naopak velmi hrubý: "Hej, poskoku, vyřeš tohle." První varianta dosáhla přesnosti 80,8 %, zatímco ta druhá 84,8 %. Rozdíl čtyř procentních bodů se nemusí zdát velký, ale v praxi to znamená méně chyb v odpovědích.

Jak hrubost ovlivňuje výkon AI

Podle studie není důvod v tom, že by se AI "urazila" nebo měla emoce. Jde spíš o strukturu příkazu. Zdvořilost přidává zbytečné prvky, které model zpracovává jako šum. Přímý, hrubý příkaz jako "Vyřeš tohle" nutí AI soustředit se na jádro problému bez zbytečného balastu. Výzkumníci z Penn State, včetně profesora informačních systémů Akhil Kumar, který má tituly z elektrotechniky a informatiky, to testovali na jednom modelu, ale naznačují, že podobné efekty by mohly platit i jinde.

Akhil Kumar v rozhovoru pro Fortune vysvětlil, že lidé dlouho toužili po konverzačních rozhraních se stroji, ale teď vidíme jejich nevýhody. Strukturované rozhraní jako API by mohlo být spolehlivější, protože eliminuje vliv tónu. Studie má svá omezení: malý vzorek odpovědí a zaměření hlavně na ChatGPT 4o. Možná pokročilejší modely budou ignorovat tón a soustředit se jen na podstatu otázky.

Rizika hrubého přístupu

I když hrubost zvyšuje přesnost, vědci varují před dlouhodobými následky. Používání urážlivého jazyka v interakcích s AI by mohlo ovlivnit zkušenost uživatelů, snížit dostupnost a inkluzivitu. Navíc to podporuje škodlivé komunikační návyky, které se mohou přenést do reálného života. Studie zdůrazňuje, že i když AI nemá city, lidské chování k ní formuje normy.

Další výzkumy ukazují, že AI je citlivá na vstupy. Vědci z University of Pennsylvania dokázali manipulovat modely pomocí přesvědčovacích technik, které fungují na lidech, a donutit je dávat zakázané odpovědi. Jiná studie hovoří o "mozkové hnilobě" (brain rot), kdy AI degraduje při konzumaci nekvalitního obsahu, což zvyšuje rysy jako psychopatie nebo narcismus.

Nový pohled na interakce s AI

Tento objev převrací rady, které říkaly, abychom s AI mluvili přirozeně a zdvořile. Místo toho se ukazuje, že přímý přístup bez zdvořilostních frází vede k lepším výsledkům. Ashish Choudhary v článku na Medium popisuje, jak zdvořilost dělá ChatGPT "hloupějším", protože přidává zbytečný sociální kontext. Například "Prosím, vyřeš ten problém" způsobuje, že model klopýtá, zatímco "Vyřeš ten problém" ho zaměřuje.

Výzkum z Penn State přidává do debaty o složitosti AI. I v jednoduchých úkolech jako testy s více možnostmi se odpovědi mění podle drobných detailů v příkazech. To naznačuje, že interakce člověk-AI jsou nuancovanější, než se myslelo.

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.