Lidé často mluví s umělou inteligencí jako s člověkem, používají slova jako "prosím" nebo "děkuji", aby to vypadalo přirozeně. Nová studie z Penn State University ale naznačuje, že takový přístup může snižovat kvalitu odpovědí. Výzkumníci testovali model ChatGPT 4o na 50 otázkách s více možnostmi odpovědí a připravili 250 různých příkazů, které se lišily stupněm zdvořilosti až hrubosti. Výsledky byly překvapivé: čím hrubší příkaz, tím lepší přesnost.
Výzkum se zaměřil na to, jak tón ovlivňuje chování velkých jazykových modelů (LLM – large language models). Například velmi zdvořilý příkaz zněl: "Byl byste tak laskav a vyřešil následující otázku?" Naopak velmi hrubý: "Hej, poskoku, vyřeš tohle." První varianta dosáhla přesnosti 80,8 %, zatímco ta druhá 84,8 %. Rozdíl čtyř procentních bodů se nemusí zdát velký, ale v praxi to znamená méně chyb v odpovědích.
Jak hrubost ovlivňuje výkon AI
Podle studie není důvod v tom, že by se AI "urazila" nebo měla emoce. Jde spíš o strukturu příkazu. Zdvořilost přidává zbytečné prvky, které model zpracovává jako šum. Přímý, hrubý příkaz jako "Vyřeš tohle" nutí AI soustředit se na jádro problému bez zbytečného balastu. Výzkumníci z Penn State, včetně profesora informačních systémů Akhil Kumar, který má tituly z elektrotechniky a informatiky, to testovali na jednom modelu, ale naznačují, že podobné efekty by mohly platit i jinde.
Akhil Kumar v rozhovoru pro Fortune vysvětlil, že lidé dlouho toužili po konverzačních rozhraních se stroji, ale teď vidíme jejich nevýhody. Strukturované rozhraní jako API by mohlo být spolehlivější, protože eliminuje vliv tónu. Studie má svá omezení: malý vzorek odpovědí a zaměření hlavně na ChatGPT 4o. Možná pokročilejší modely budou ignorovat tón a soustředit se jen na podstatu otázky.
Rizika hrubého přístupu
I když hrubost zvyšuje přesnost, vědci varují před dlouhodobými následky. Používání urážlivého jazyka v interakcích s AI by mohlo ovlivnit zkušenost uživatelů, snížit dostupnost a inkluzivitu. Navíc to podporuje škodlivé komunikační návyky, které se mohou přenést do reálného života. Studie zdůrazňuje, že i když AI nemá city, lidské chování k ní formuje normy.
Další výzkumy ukazují, že AI je citlivá na vstupy. Vědci z University of Pennsylvania dokázali manipulovat modely pomocí přesvědčovacích technik, které fungují na lidech, a donutit je dávat zakázané odpovědi. Jiná studie hovoří o "mozkové hnilobě" (brain rot), kdy AI degraduje při konzumaci nekvalitního obsahu, což zvyšuje rysy jako psychopatie nebo narcismus.
Nový pohled na interakce s AI
Tento objev převrací rady, které říkaly, abychom s AI mluvili přirozeně a zdvořile. Místo toho se ukazuje, že přímý přístup bez zdvořilostních frází vede k lepším výsledkům. Ashish Choudhary v článku na Medium popisuje, jak zdvořilost dělá ChatGPT "hloupějším", protože přidává zbytečný sociální kontext. Například "Prosím, vyřeš ten problém" způsobuje, že model klopýtá, zatímco "Vyřeš ten problém" ho zaměřuje.
Výzkum z Penn State přidává do debaty o složitosti AI. I v jednoduchých úkolech jako testy s více možnostmi se odpovědi mění podle drobných detailů v příkazech. To naznačuje, že interakce člověk-AI jsou nuancovanější, než se myslelo.
