Wikipedia pozastavila testování "AI souhrnu" po protestech editorů
Wikimedia Foundation byla nucena pozastavit svůj pilotní program testování automaticky generovaných resumé článků pomocí umělé inteligence poté, co se proti tomuto projektu postavila komunita editorů Wikipedie. Program byl spuštěn začátkem června 2025 jako experimentální funkce, která umožnila uživatelům prostřednictvím speciálního rozšíření prohlížeče zobrazit AI-generovaná shrnutí na vrcholu vybraných článků. Každé takové resumé bylo označeno žlutým varováním "neověřeno" a uživatelé museli kliknout pro zobrazení obsahu.
Rozhodnutí pozastavit tento program přišlo v reakci na silnou kritiku ze strany editorské komunity, která vyjádřila vážné obavy ohledně přesnosti a důvěryhodnosti těchto automaticky generovaných shrnutí. Editoři poukazovali na to, že AI modely jsou náchylné k vytváření faktických chyb nebo "halucinací" - zavádějících nebo nepravdivých tvrzení prezentovaných jako fakta. Podle jejich názoru by i malé chyby mohly potenciálně zmást miliony lidí a poškodit reputaci Wikipedie jako spolehlivého zdroje informací.
Obavy o důvěryhodnost a reputaci platformy
Editorská komunita vyjádřila rozsáhlé znepokojení nad tím, že nasazení AI-generovaného obsahu, i s odpovídajícími disclaimery, by mohlo nezvratně poškodit důvěryhodnost webu. Editoři v této souvislosti odkazovali na minulé incidenty u organizací jako Bloomberg a CNET, kde AI-generovaná shrnutí vedla k veřejným opravám a snížení důvěry ze strany čtenářů.
Problémy s AI-generovaným obsahem nejsou ojedinělé a podobné kontroverze se týkají i dalších velkých technologických společností. Google například čelí vlastním problémům se svými AI Overviews, které také vyvolaly debaty o přesnosti a vhodnosti použití umělé inteligence při prezentaci informací veřejnosti. Tento případ je jen špičkou ledovce problematiky integrace AI do moderace obsahu a generování shrnutí v celém odvětví.
Napětí mezi inovací a redakčními standardy
Pozastavení pilotního programu poukazuje na pokračující napětí mezi technologickou inovací a redakčními standardy, které se nyní dostávají do popředí zájmu hlavních webových platforem experimentujících s AI moderací obsahu a generováním shrnutí. Wikimedia Foundation zůstává i nadále zainteresovaná na potenciálu AI-generovaných shrnutí, zejména pro zlepšení přístupnosti obsahu. Organizace však jasně deklarovala, že jakákoliv budoucí implementace bude vyžadovat řešení obav editorů a zajištění integrity obsahu Wikipedie.
Tento případ ukazuje na základní výzvu, kterou čelí všechny platformy pracující s obsahem generovaným umělou inteligencí - jak vyvážit potenciální přínosy technologie s potřebou udržet vysoké standardy přesnosti a důvěryhodnosti. Pro Wikipedii, která je postavena na principech kolaborativního vytváření obsahu a pečlivého ověřování faktů, představuje integrace AI technologií obzvláště citlivou oblast, kde je nutné postupovat velmi opatrně.
Důsledky pro budoucnost AI na Wikipedii
Rozhodnutí pozastavit program ukazuje, že Wikimedia Foundation bere obavy své komunity vážně a je ochotna ustoupit od technologických experimentů, pokud by mohly ohrozit základní hodnoty platformy. Tento přístup je v rozporu s některými jinými technologickými giganty, kteří často pokračují v nasazování sporných AI funkcí navzdory kritice uživatelů.
Incident s AI resumé na Wikipedii tak slouží jako případová studie toho, jak důležitá je komunikace s komunitou uživatelů při zavádění nových technologií, zejména těch, které mohou ovlivnit kvalitu a důvěryhodnost obsahu. Ukazuje také, že i sebevětší technologické pokroky musí respektovat kulturu a hodnoty konkrétních platforem a jejich komunit.
