Nejnovější model ChatGPT začal jako zdroj informací používat Grokipedii, kontroverzní AI encyklopedii Elona Muska. Testy odhalily, že populární chatbot cituje tento zdroj při odpovědích na méně známá témata, což vyvolává obavy ze šíření dezinformací.
Grokipedia se objevuje v odpovědích ChatGPT
Deník The Guardian provedl sérii testů, při kterých model GPT-5.2 citoval Grokipedii devětkrát v reakci na více než tucet různých dotazů. Mezi tématy, kde se Grokipedie objevila jako zdroj, byly politické struktury v Íránu, například platy polovojenské síly Basij a vlastnictví nadace Mostazafan. ChatGPT také citoval Grokipedii při dotazech na biografii sira Richarda Evanse, britského historika a znalce v soudním sporu proti popírači holocaustu Davidu Irvingovi.
Zajímavé je, že ChatGPT necitoval Grokipedii při přímých dotazech na témata, kde je tato encyklopedie známá šířením nepravdivých informací. Patří mezi ně události ze 6. ledna v USA, údajná mediální zaujatost proti Donaldu Trumpovi nebo epidemie HIV/AIDS. Místo toho se informace z Grokipedie dostávaly do odpovědí modelu při dotazech na méně známá a specifická témata.
Proč je Grokipedia kontroverzní?
Grokipedia byla spuštěna v říjnu společností xAI Elona Muska jako konkurence Wikipedii. Na rozdíl od Wikipedie neumožňuje přímé lidské úpravy. Místo toho AI model píše obsah a reaguje na požadavky na změny. Musk dlouhodobě kritizoval Wikipedii za údajnou zaujatost proti konzervativcům. Krátce po spuštění novináři upozornili, že zatímco mnoho článků bylo zkopírováno přímo z Wikipedie, Grokipedia také obsahovala problematický obsah. Například tvrdila, že pornografie přispěla ke krizi AIDS, nabízela "ideologická ospravedlnění" otroctví a používala hanlivé výrazy pro transgender osoby.
ChatGPT při citování Grokipedie opakoval silnější tvrzení, než jaká se nacházejí na Wikipedii. Například u íránské společnosti MTN-Irancell ChatGPT tvrdil, že firma má vazby na kancelář íránského nejvyššího vůdce, což je tvrzení, které na Wikipedii v takové podobě nenajdete. ChatGPT také citoval Grokipedii při opakování informací, které The Guardian již dříve vyvrátil. Konkrétně šlo o detaily týkající se práce sira Richarda Evansa jako znalce v soudním procesu Davida Irvinga.
Nejen ChatGPT používá Grokipedii
GPT-5.2 není jediný velký jazykový model, který zjevně cituje Grokipedii. Podle anekdotických důkazů také chatbot Claude od společnosti Anthropic odkazoval na Muskovu encyklopedii při tématech od ropné produkce až po skotské pivo.
Mluvčí OpenAI uvedl, že webové vyhledávání modelu "si klade za cíl čerpat ze širokého spektra veřejně dostupných zdrojů a názorů". Dodal, že aplikují bezpečnostní filtry ke snížení rizika zobrazování odkazů spojených s vážnými škodami a že ChatGPT jasně ukazuje, které zdroje informovaly odpověď prostřednictvím citací. Společnost také uvedla, že má probíhající programy k odfiltrování informací s nízkou důvěryhodností a ovlivňovacích kampaní.
Obavy z "LLM groomingu"
Skutečnost, že se informace z Grokipedie dostávají do odpovědí velkých jazykových modelů, znepokojuje výzkumníky dezinformací. Loni na jaře bezpečnostní experti vyjádřili obavy, že škodlivé subjekty, včetně ruských propagandistických sítí, produkují obrovské množství dezinformací ve snažení naplnit AI modely lží. Tento proces se nazývá "LLM grooming". V červnu byly v americkém Kongresu vzneseny obavy, že Google Gemini opakoval postoj čínské vlády k porušování lidských práv v Sin-ťiangu a k politice Číny ohledně covidu-19.
Nina Jankowicz, výzkumnice dezinformací, která pracovala na problematice LLM groomingu, uvedla, že citování Grokipedie ChatGPT vyvolává podobné obavy. Ačkoli Musk možná neměl v úmyslu ovlivňovat velké jazykové modely, záznamy Grokipedie, které ona a její kolegové zkontrolovali, "spoléhají na zdroje, které jsou v nejlepším případě nedůvěryhodné, špatně podložené a v nejhorším případě jde o záměrné dezinformace".
Skutečnost, že velké jazykové modely citují zdroje jako Grokipedia nebo síť Pravda, může zase zlepšit důvěryhodnost těchto zdrojů v očích čtenářů. "Mohli by říct: 'aha, ChatGPT to cituje, tyto modely to citují, musí to být slušný zdroj, určitě ho prověřili' – a mohli by tam jít a hledat zprávy o Ukrajině," řekla Jankowicz.
Jakmile se špatné informace dostanou do AI chatbota, může být obtížné je odstranit. Jankowicz nedávno zjistila, že velká zpravodajská média zahrnula do článku o dezinformacích vymyšlený citát od ní. Napsala zpravodajskému médiu s žádostí o odstranění citátu a o incidentu zveřejnila příspěvek na sociálních sítích. Zpravodajské médium citát odstranilo. AI modely ho však ještě nějakou dobu nadále citovaly jako její. "Většina lidí neudělá práci potřebnou k tomu, aby zjistila, kde vlastně leží pravda," uvedla.
Reakce xAI
Když byl požádán o komentář, mluvčí xAI, vlastníka Grokipedie, odpověděl: "Tradiční média lžou." Mluvčí OpenAI zdůraznil, že ChatGPT jasně zobrazuje zdroje prostřednictvím citací, což uživatelům umožňuje posoudit důvěryhodnost informací. Společnost také pokračuje v úsilí filtrovat nedůvěryhodné zdroje a ovlivňovací kampaně.
Tento vývoj ukazuje na rostoucí problém s kvalitou informací v prostředí umělé inteligence. Zatímco AI modely se stávají stále výkonnějšími a dostupnějšími, otázka důvěryhodnosti zdrojů, ze kterých čerpají, zůstává klíčová pro jejich budoucí využití.
Další zdroje: tomshardware.com a techcrunch.com
