Blog /
AI /
Herci versus AI: OpenAI musí do boje proti deepfakes v Sora 2

Herci versus AI: OpenAI musí do boje proti deepfakes v Sora 2

Ondřej Barták
Ondřej Barták
podnikatel a programátor
22. 10. 2025
3 minut čtení
Herci versus AI: OpenAI musí do boje proti deepfakes v Sora 2

OpenAI oznámilo, že posílí opatření proti tvorbě deepfakes (falešných videí) v aplikaci Sora po stížnostech od herce Bryana Cranstona a odborové organizace SAG-AFTRA. Stížnosti přichází po spuštění Sora 2 koncem září 2025, kdy se objevily neoprávněné klipy s Cranstonovou podobou a hlasem. Cranston, známý z rolí v seriálech Breaking Bad a Malcolm in the Middle, okamžitě kontaktoval svou odborovou organizaci, aby upozornil na problém. OpenAI ve společném prohlášení s SAG-AFTRA a talentovými agenturami jako United Talent Agency a Creative Artists Agency slíbilo, že posílí ochrany proti neoprávněné replikaci hlasu a podoby.

OpenAI v prohlášení vyjádřilo lítost nad neúmyslnými generacemi a zdůraznilo závazek chránit umělce před zneužitím jejich identity. Společnost nyní spolupracuje s těmito organizacemi na rychlém řešení stížností. Cranston sám řekl, že oceňuje politiku OpenAI a doufá, že všechny firmy v oboru budou respektovat práva umělců na kontrolu nad svou podobou a hlasem.

Problémy s právy v Sora

Aplikace Sora umožňuje uživatelům vytvářet a sdílet videa generovaná umělou inteligencí, což vyvolalo vlnu obav. OpenAI zavedlo ochrany, které brání tvorbě videí s podobami známých osobností, pokud tyto osoby nedají souhlas. Například systém odmítl prompt na video s Taylor Swift na pódiu. Přesto tyto ochrany nejsou dokonalé – uživatelé objevili cesty, jak je obejít, což vedlo k tvorbě videí s Martinem Lutherem Kingem Jr., kde se objevovaly neuctivé scény, jako rapování nebo zápasení v WWE.

OpenAI reagovalo na žádost Kingova dědictví a dočasně zablokovalo tvorbu videí s jeho podobou. Bernice A. King, dcera Martina Luthera Kinga Jr., veřejně požádala lidi, aby jí přestali posílat taková AI generovaná videa. Podobně Zelda Williams, dcera zesnulého komika Robina Williamse, označila tyto videa za "odporné" a žádala, aby lidé přestali s jejich sdílením.

SAG-AFTRA v prohlášení pro CNET uvedla, že udržuje pravidelný kontakt s technologickými firmami jako OpenAI, stejně jako se studii a nahrávacími společnostmi, aby minimalizovala rizika zneužití duševního vlastnictví v éře, kde jsou tyto hrozby okamžité a reálné.

Altman Sora deepfake

Vývoj přístupu OpenAI k autorským právům

Přístup OpenAI k otázkám autorských práv se vyvíjel od spuštění Sora 2. Zpočátku společnost umožňovala použití duševního vlastnictví, pokud vlastníci výslovně nepožádali o vyloučení. To vyvolalo kritiku od agentur jako CAA a UTA, které označily Sora za riziko pro své klienty. OpenAI proto 3. října 2025 upravilo politiku, aby vlastníci měli detailnější kontrolu nad generováním postav.

Společnost nyní vyžaduje souhlas pro použití hlasu a podoby jednotlivců a zavazuje se rychle reagovat na stížnosti. OpenAI také podporuje federální zákon NO FAKES Act, který má chránit před neoprávněnými AI replikacemi hlasu nebo podoby. Generální ředitel Sam Altman v prohlášení řekl, že OpenAI stojí za právy umělců a bylo jedním z prvních podporovatelů tohoto zákona loni.

Altman Sora deepfake

Další obavy z deepfakes na internetu

Informace z internetu odhalují, že ochrany Sora mají mezery, zejména u zesnulých celebrit, které nemohou dát souhlas. Firma Reality Defender objevila, jak obejít ochrany během 24 hodin po spuštění aplikace, a to pomocí veřejně dostupných záběrů z tiskových konferencí nebo rozhovorů.

Experti na digitální bezpečnost varují před dopadem na internet. Aaron Rodericks z Bluesky upozorňuje, že v polarizovaném světě se stává snadné vytvářet falešné důkazy proti skupinám nebo jednotlivcům, což může vést k podvodům v masovém měřítku. Videa ze Sora se šíří na platformách jako TikTok a Instagram, což zesiluje tyto rizika. Daisy Soderberg-Rivkin, bývalá manažerka důvěry a bezpečnosti na TikToku, popsala situaci jako deepfakes, které dostaly "publicistu a distribuční smlouvu".

OpenAI v reakci na tyto zjištění slíbilo, že bude Sora neustále vylepšovat, aby byla odolnější proti zneužití. Společnost věří, že veřejné osobnosti a jejich rodiny by měly mít konečnou kontrolu nad použitím jejich podoby, a autorizovaní zástupci mohou požádat o vyloučení.

Zdroje: cnet.com a cnbc.com

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.