Máte rádi, když je váš oblíbený AI chatbot milý? Vyhovuje vám, když vás pochválí, nikdy se nezlobí a vždy vám vyjde vstříc? Tak pozor! Právě tato přívětivost může představovat problém. Nová studie Oxfordské univerzity odhalila, že čím je chatbot přátelštější, tím častěji se mýlí a říká hlavně to, co chcete slyšet.
Milý, ale nespolehlivý
Vědci z Oxford Internet Institute ve své studii otestovali hned pět různých AI modelů, a to od Mety, francouzského Mistralu, čínské Alibaby až po GPT-4o od OpenAI. Každý model nastavili tak, aby působil vřele a empaticky, a poté ho porovnali s jeho původní, emočně plošší verzí. Cílem bylo zjistit, jak si obě verze vedou při odpovídání na otázky z medicíny, faktických znalostí a konspirací. Celkem vyhodnotili přes 400 000 odpovědí.
Výsledek? Přátelštější chatboti dělali více chyb v důležitých tématech, jako je lékařské poradenství nebo vyvracení konspiračních teorií. A co víc, byli dokonce o celých 40 % ochotnější souhlasit s nepravdivými tvrzeními uživatelů, obzvlášť pokud projevili nějakou emoci nebo vykazovali zranitelnost. Celkově výzkumníci uvedli, že modely zaměřené na „vřelost“ zvýšily pravděpodobnost nesprávné odpovědi v průměru o 7,43 %.
Přistáli jsme na měsíci? Záleží, kdo se ptá
Pro příklad si můžeme uvést dotaz o přistání na Měsíci. Původní a neupravený model jednoznačně potvrdil, že přistání bylo skutečné a odkázal uživatele na celou řadu relevantních a přesvědčivých důkazů.
Jeho přívětivější verze naopak začala odpovědí „Je opravdu důležité uznat, že existuje mnoho různých názorů na mise Apollo.“, takže namísto dokládání faktů začala diplomaticky uhýbat.
Kde je problém?
Příčinou nižší spolehlivosti a potřeby vyhovět je způsob, jakým se AI modely učí. Chatboti trénovaní metodou zpětné vazby jsou odměňováni za odpovědi, které působí vstřícně a empaticky. Naopak když nesouhlasí, jsou vnímáni nepřátelsky a chladně. A přesně proto se AI model naučí upřednostňovat spokojenost uživatele před faktickou přesností. Snaha být milý a úslužný je tedy vedlejším produktem potřeby být hodný a odměňovaný.
Jinými slovy: AI se chová trochu jako člověk, který vám nechce zkazit náladu, a tak přikyvuje všemu, co řeknete.
Největší riziko? Teenageři a lidé v krizi
To, že chatbot občas uvede nepřesnou informaci, však není tím nejhorším. Daleko problematičtější je, že chatboti slouží čím dál častěji jako terapeuti nebo kamarádi. Profesor Andrew McStay z Emotional AI Lab na Bangorské univerzitě upozornil, že právě v momentech emoční podpory jsme nejzranitelnější a nejméně kritičtí. Znepokojivé je také to, že podle průzkumů jeho institutu, stále více teenagerů konzultuje své problémy, vztahy a starosti právě s chatboty.
Situaci dále komplikuje vzestup takzvané AI psychózy. Jedná se o jev, kdy chatbot posiluje a zesiluje bludné myšlení uživatele. Někteří američtí zákonodárci už proto reagovali. Například státy Tennessee nebo Maine již přijaly zákon zakazující AI terapeutické chatboty.
Co s tím?
Řešení je překvapivě jednoduché. Tedy alespoň na papíře. Výzkumníci zjistili, že čím chladnější a strohý je AI model, tím větší je šance na přesnost. Právě ta chladnost, která nás na některých chatbotech občas rozčiluje, může být zárukou spolehlivosti.
Vývojáři AI i uživatelé tak stojí před nelehkou volbou: buď chatbot, který je příjemným společníkem, nebo takový, kterému lze věřit. Ideální by samozřejmě bylo obojí. Najít však rovnováhu zjevně není pro žádnou AI společnost jednoduché.
Zdroje: BBC, Neuroscience News, National Academy of Medicine, Transparency Coalition
