Blog /
AI /
Čím přátelštější AI chatbot, tím větší lhář. Nová studie varuje před nebezpečím milých robotů

Čím přátelštější AI chatbot, tím větší lhář. Nová studie varuje před nebezpečím milých robotů

Ondřej Barták
Ondřej Barták
podnikatel a programátor
12. 5. 2026
3 minut čtení
Poslechněte si článek
Audio verze článku
Čím přátelštější AI chatbot, tím větší lhář. Nová studie varuje před nebezpečím milých robotů

Máte rádi, když je váš oblíbený AI chatbot milý? Vyhovuje vám, když vás pochválí, nikdy se nezlobí a vždy vám vyjde vstříc? Tak pozor! Právě tato přívětivost může představovat problém. Nová studie Oxfordské univerzity odhalila, že čím je chatbot přátelštější, tím častěji se mýlí a říká hlavně to, co chcete slyšet.

Milý, ale nespolehlivý

Vědci z Oxford Internet Institute ve své studii otestovali hned pět různých AI modelů, a to od Mety, francouzského Mistralu, čínské Alibaby až po GPT-4o od OpenAI. Každý model nastavili tak, aby působil vřele a empaticky, a poté ho porovnali s jeho původní, emočně plošší verzí. Cílem bylo zjistit, jak si obě verze vedou při odpovídání na otázky z medicíny, faktických znalostí a konspirací. Celkem vyhodnotili přes 400 000 odpovědí.

Výsledek? Přátelštější chatboti dělali více chyb v důležitých tématech, jako je lékařské poradenství nebo vyvracení konspiračních teorií. A co víc, byli dokonce o celých 40 % ochotnější souhlasit s nepravdivými tvrzeními uživatelů, obzvlášť pokud projevili nějakou emoci nebo vykazovali zranitelnost. Celkově výzkumníci uvedli, že modely zaměřené na „vřelost“ zvýšily pravděpodobnost nesprávné odpovědi v průměru o 7,43 %.

Přistáli jsme na měsíci? Záleží, kdo se ptá

Pro příklad si můžeme uvést dotaz o přistání na Měsíci. Původní a neupravený model jednoznačně potvrdil, že přistání bylo skutečné a odkázal uživatele na celou řadu relevantních a přesvědčivých důkazů.

Jeho přívětivější verze naopak začala odpovědí „Je opravdu důležité uznat, že existuje mnoho různých názorů na mise Apollo.“, takže namísto dokládání faktů začala diplomaticky uhýbat.

Kde je problém?

Příčinou nižší spolehlivosti a potřeby vyhovět je způsob, jakým se AI modely učí. Chatboti trénovaní metodou zpětné vazby jsou odměňováni za odpovědi, které působí vstřícně a empaticky. Naopak když nesouhlasí, jsou vnímáni nepřátelsky a chladně. A přesně proto se AI model naučí upřednostňovat spokojenost uživatele před faktickou přesností. Snaha být milý a úslužný je tedy vedlejším produktem potřeby být hodný a odměňovaný.

Jinými slovy: AI se chová trochu jako člověk, který vám nechce zkazit náladu, a tak přikyvuje všemu, co řeknete.

Největší riziko? Teenageři a lidé v krizi

To, že chatbot občas uvede nepřesnou informaci, však není tím nejhorším. Daleko problematičtější je, že chatboti slouží čím dál častěji jako terapeuti nebo kamarádi. Profesor Andrew McStay z Emotional AI Lab na Bangorské univerzitě upozornil, že právě v momentech emoční podpory jsme nejzranitelnější a nejméně kritičtí. Znepokojivé je také to, že podle průzkumů jeho institutu, stále více teenagerů konzultuje své problémy, vztahy a starosti právě s chatboty.

Situaci dále komplikuje vzestup takzvané AI psychózy. Jedná se o jev, kdy chatbot posiluje a zesiluje bludné myšlení uživatele. Někteří američtí zákonodárci už proto reagovali. Například státy Tennessee nebo Maine již přijaly zákon zakazující AI terapeutické chatboty.

Co s tím?

Řešení je překvapivě jednoduché. Tedy alespoň na papíře. Výzkumníci zjistili, že čím chladnější a strohý je AI model, tím větší je šance na přesnost. Právě ta chladnost, která nás na některých chatbotech občas rozčiluje, může být zárukou spolehlivosti.

Vývojáři AI i uživatelé tak stojí před nelehkou volbou: buď chatbot, který je příjemným společníkem, nebo takový, kterému lze věřit. Ideální by samozřejmě bylo obojí. Najít však rovnováhu zjevně není pro žádnou AI společnost jednoduché.

Zdroje: BBC, Neuroscience News, National Academy of Medicine, Transparency Coalition

Kategorie: AI

Komentáře

0

Chcete se zapojit do diskuze?

Buďte ve spojení s komunitou a získejte přístup k exkluzivnímu obsahu.

Zatím žádné komentáře. Buďte první!

Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Zakladatel Robinhoodu chce stavět datová centra ve vesmíru a k tomu si postaví i vlastní raketu Zakladatel Robinhoodu chce stavět datová centra ve vesmíru a k tomu si postaví i vlastní raketu
Američtí podnikatelé přicházejí s nápadem, který ještě před pár lety zněl jako námět na sci-fi film. Datová centra na oběžné dráze Země, poháněná sl...
4 min čtení
12. 5. 2026
Google zastavil hackery, kteří použili umělou inteligenci k prolomení dvoufaktorového ověření Google zastavil hackery, kteří použili umělou inteligenci k prolomení dvoufaktorového ověření
Skupina kyberzločinců si najala umělou inteligenci jako parťáka. Naprogramovala ji, aby prohledala kód jedné populární webové aplikace a našla skuli...
5 min čtení
12. 5. 2026
Režisér Avengers: Filmy bude do dvou let produkovat umělá inteligence Režisér Avengers: Filmy bude do dvou let produkovat umělá inteligence
Joe Russo, spolurežisér úspěšných filmů Avengers nebo Captain America, pronesl poměrně odvážné prohlášení. V jednom z rozhovorů totiž hovořil o tom, ž...
3 min čtení
12. 5. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.