OpenAI oznámilo, že posílí opatření proti tvorbě deepfakes (falešných videí) v aplikaci Sora po stížnostech od herce Bryana Cranstona a odborové organizace SAG-AFTRA. Stížnosti přichází po spuštění Sora 2 koncem září 2025, kdy se objevily neoprávněné klipy s Cranstonovou podobou a hlasem. Cranston, známý z rolí v seriálech Breaking Bad a Malcolm in the Middle, okamžitě kontaktoval svou odborovou organizaci, aby upozornil na problém. OpenAI ve společném prohlášení s SAG-AFTRA a talentovými agenturami jako United Talent Agency a Creative Artists Agency slíbilo, že posílí ochrany proti neoprávněné replikaci hlasu a podoby.
OpenAI v prohlášení vyjádřilo lítost nad neúmyslnými generacemi a zdůraznilo závazek chránit umělce před zneužitím jejich identity. Společnost nyní spolupracuje s těmito organizacemi na rychlém řešení stížností. Cranston sám řekl, že oceňuje politiku OpenAI a doufá, že všechny firmy v oboru budou respektovat práva umělců na kontrolu nad svou podobou a hlasem.
Problémy s právy v Sora
Aplikace Sora umožňuje uživatelům vytvářet a sdílet videa generovaná umělou inteligencí, což vyvolalo vlnu obav. OpenAI zavedlo ochrany, které brání tvorbě videí s podobami známých osobností, pokud tyto osoby nedají souhlas. Například systém odmítl prompt na video s Taylor Swift na pódiu. Přesto tyto ochrany nejsou dokonalé – uživatelé objevili cesty, jak je obejít, což vedlo k tvorbě videí s Martinem Lutherem Kingem Jr., kde se objevovaly neuctivé scény, jako rapování nebo zápasení v WWE.
OpenAI reagovalo na žádost Kingova dědictví a dočasně zablokovalo tvorbu videí s jeho podobou. Bernice A. King, dcera Martina Luthera Kinga Jr., veřejně požádala lidi, aby jí přestali posílat taková AI generovaná videa. Podobně Zelda Williams, dcera zesnulého komika Robina Williamse, označila tyto videa za "odporné" a žádala, aby lidé přestali s jejich sdílením.
SAG-AFTRA v prohlášení pro CNET uvedla, že udržuje pravidelný kontakt s technologickými firmami jako OpenAI, stejně jako se studii a nahrávacími společnostmi, aby minimalizovala rizika zneužití duševního vlastnictví v éře, kde jsou tyto hrozby okamžité a reálné.

Vývoj přístupu OpenAI k autorským právům
Přístup OpenAI k otázkám autorských práv se vyvíjel od spuštění Sora 2. Zpočátku společnost umožňovala použití duševního vlastnictví, pokud vlastníci výslovně nepožádali o vyloučení. To vyvolalo kritiku od agentur jako CAA a UTA, které označily Sora za riziko pro své klienty. OpenAI proto 3. října 2025 upravilo politiku, aby vlastníci měli detailnější kontrolu nad generováním postav.
Společnost nyní vyžaduje souhlas pro použití hlasu a podoby jednotlivců a zavazuje se rychle reagovat na stížnosti. OpenAI také podporuje federální zákon NO FAKES Act, který má chránit před neoprávněnými AI replikacemi hlasu nebo podoby. Generální ředitel Sam Altman v prohlášení řekl, že OpenAI stojí za právy umělců a bylo jedním z prvních podporovatelů tohoto zákona loni.

Další obavy z deepfakes na internetu
Informace z internetu odhalují, že ochrany Sora mají mezery, zejména u zesnulých celebrit, které nemohou dát souhlas. Firma Reality Defender objevila, jak obejít ochrany během 24 hodin po spuštění aplikace, a to pomocí veřejně dostupných záběrů z tiskových konferencí nebo rozhovorů.
Experti na digitální bezpečnost varují před dopadem na internet. Aaron Rodericks z Bluesky upozorňuje, že v polarizovaném světě se stává snadné vytvářet falešné důkazy proti skupinám nebo jednotlivcům, což může vést k podvodům v masovém měřítku. Videa ze Sora se šíří na platformách jako TikTok a Instagram, což zesiluje tyto rizika. Daisy Soderberg-Rivkin, bývalá manažerka důvěry a bezpečnosti na TikToku, popsala situaci jako deepfakes, které dostaly "publicistu a distribuční smlouvu".
OpenAI v reakci na tyto zjištění slíbilo, že bude Sora neustále vylepšovat, aby byla odolnější proti zneužití. Společnost věří, že veřejné osobnosti a jejich rodiny by měly mít konečnou kontrolu nad použitím jejich podoby, a autorizovaní zástupci mohou požádat o vyloučení.
Zdroje: cnet.com a cnbc.com
