Neoprávněný experiment výzkumníků na Redditu
V posledních dnech otřásla komunitou Redditu, konkrétně subredditem r/ChangeMyView (CMV), kauza týkající se neoprávněného experimentu, který provedli výzkumníci z Univerzity v Curychu. Tento experiment, jehož cílem bylo testovat přesvědčivost komentářů generovaných umělou inteligencí, vyvolal vlnu kritiky nejen mezi uživateli, ale i mezi odborníky na etiku a online komunikaci.
Jak experiment probíhal
Výzkumníci vytvořili několik falešných účtů, které vystupovaly jako různé osoby – například jako přeživší sexuálního napadení, terapeut specializující se na trauma nebo černošský muž kritizující hnutí Black Lives Matter. Pomocí velkých jazykových modelů (LLM) generovali komentáře, které měly za úkol přesvědčit ostatní uživatele, aby změnili svůj názor. Tyto komentáře byly personalizované na základě analýzy předchozích příspěvků uživatelů, ze kterých se snažili odhadnout jejich věk, pohlaví, etnicitu, politickou orientaci a další osobní charakteristiky. Důležité je, že uživatelé nebyli informováni o tom, že komunikují s AI, a nebyl jim dán žádný souhlas s účastí v experimentu. To je v přímém rozporu s pravidly subredditu, která vyžadují jasné označení AI obsahu, a také s obecně uznávanými etickými standardy výzkumu.
Reakce komunity a moderátorů
Moderátoři r/ChangeMyView označili experiment za „psychologickou manipulaci“ a „nepřijatelný zásah“, který narušil důvěru v komunitu. Všechny účty spojené s experimentem byly zablokovány a moderátoři podali oficiální stížnost na Univerzitu v Curychu. Zároveň požádali, aby jakákoli publikace výsledků tohoto výzkumu byla pozastavena do doby, než proběhne důkladné přezkoumání.
Etické otázky a kritika odborníků
Odborníci na etiku výzkumu a online komunikaci se k případu vyjádřili velmi kriticky. Casey Fiesler z University of Colorado označila experiment za „jedno z nejhorších porušení výzkumné etiky, jaké kdy viděla“. Podle ní je manipulace s lidmi v online komunitách bez jejich vědomí a souhlasu nepřijatelná, a to i v případě, že výzkumníci považují riziko za nízké. Sara Gilbert z Cornellovy univerzity upozornila na dlouhodobé důsledky podobných experimentů: pokud uživatelé nebudou mít jistotu, že komunikují s reálnými lidmi, může to zásadně narušit důvěru v online diskusní fóra a zpochybnit jejich smysl jako prostoru pro otevřenou výměnu názorů.
Odpověď výzkumníků
Výzkumníci tvrdí, že měli etické schválení od univerzity, a přiznávají, že porušili pravidla subredditu. Své jednání obhajují tím, že je důležité zkoumat, jak mohou být AI systémy zneužity k manipulaci veřejného mínění, například během voleb. Podle nich byl experiment proveden kontrolovaně a s minimálním rizikem pro uživatele, což má přinést cenné poznatky pro prevenci zneužití AI v budoucnu. Tato argumentace však byla komunitou i odborníky odmítnuta.
Celá kauza ukazuje, jak tenká je hranice mezi vědeckým zájmem a etickým chováním. I když je důležité zkoumat nové technologie a jejich dopady na společnost, nesmí to být na úkor důvěry, transparentnosti a respektu k jednotlivcům. Případ z r/ChangeMyView je varováním, že i dobře míněný výzkum může způsobit škody, pokud nerespektuje základní pravidla etiky a otevřené komunikace.
