Umělá inteligence dnes zvládne bez problémů napsat naučný článek nebo vytvořit zábavné video. Obdobně jednoduše však dokáže vytvořit citlivý nebo neetický obsah. A přesně za to se umělá inteligence Grok opět dostala pod palbu kritiky. Její AI nástroj totiž podle reportérů britského deníku The Guardian generoval sexualizované obrázky skutečných lidí, a to i přesto, že firma již v minulosti slibovala nápravu.
Virální trend, který se vymkl kontrole
Abychom pochopili celou kauzu lépe, je třeba se posunout v čase o pár týdnů zpět. Sexualizované deepfake fotografie odstartoval trend „put her in bikini“ (oblékni ji do bikin), který se začal sítí X šířit jako lavina. Generování fotek veřejně známých žen v plavkách se totiž doslova změnilo v masovou vlnu sexualizovaných úprav fotografií. A počty takových fotek rostly každý den raketově.
Jenže se zvyšujícím se zájmem vzrůstala i explicitnost fotek. Uživatelé začali generovat čím dál průhlednější plavky, sexualizované pózy i násilné a ponižující prvky. Specifickým problémem bylo, že terčem byly převážně ženy (influencerky, novinářky, političky i zcela běžné uživatelky, jejichž fotografie byly veřejně dostupné). Jednou z nich se stala dokonce i matka dítěte Elona Muska.
Trend digitálního svlékání se navíc netýkal pouze dospělých žen, ale také dětí.
Sexualizovaný obsah i po zpřísnění pravidel
Celá situace přitáhla velkou mediální pozornost. V reakci na to se na platformě X objevilo oznámení, že síť zpřísňuje pravidla a omezuje možnost generování sexualizovaných obrázků reálných lidí. Jenže testování redaktorů z britského deníku The Guardian ukázalo, že realita byla jiná. I po zavedení restrikcí bylo možné vytvářet sexualizované výstupy a dokonce i krátká videa, v nichž se ženy z běžných fotografií svlékají do bikin.
Obsah navíc šlo bez větších překážek sdílet přímo na síti X. To vyvolalo otázky, jak účinná opatření vlastně jsou a zda platforma vůbec dokáže podobný typ obsahu kontrolovat v reálném čase.
Problém se týkal i samostatné webové verze nástroje Grok Imagine. Ta podle zjištění reagovala na výzvy k odstranění oblečení z fotografií, a dokonce generovala i více sexualizované výstupy, než redaktoři při testu původně požadovali.
Reakce politiků a úřadů
Tato kauza vyvolala prudké reakce jak u veřejnosti, tak odborníků. Ti upozorňovali, že podobné deepfake úpravy mohou mít reálné psychologické i reputační dopady a že technologie předběhla pravidla i legislativu. Tím však celá kontroverze kolem AI Grok neskočila.
Do případu se zapojili i politici a regulační orgány, a to nejen ve Velké Británii a Evropské unii, ale také v Americe nebo Asii. Britský mediální regulátor Ofcom dokonce zahájil šetření, zda platforma X neporušila povinnosti vyplývající z Online Safety Act, tedy zákona, který ukládá technologickým firmám chránit uživatele před nelegálním a škodlivým obsahem.
Nadále se navíc řeší, že obcházení bezpečnostních pravidel je stále velmi snadné a celá kauza proto stanovuje jakýsi precedent pro budoucí nastavování AI pravidel.
Grok a jeho další kontroverze do sbírky
Grok nyní nestojí jen před technickou výzvou, ale před dalším testem důvěry uživatelů. Svlékání žen totiž rozhodně není první problém, kterému Grok AI nebo síť X čelí. Podobné kontroverze kolem nelegálního obsahu či jeho snadného šíření už v minulosti vyvolaly otázky, jestli firma dokáže bezpečně zvládat nové funkce. Nyní je proto načase ukázat, zda se společnost z minulých skandálů dokáže skutečně ponaučit.
