Blog /
AI /
Herci versus AI: OpenAI musí do boje proti deepfakes v Sora 2

Herci versus AI: OpenAI musí do boje proti deepfakes v Sora 2

Ondřej Barták
Ondřej Barták
podnikatel a programátor
22. 10. 2025
3 minut čtení
Herci versus AI: OpenAI musí do boje proti deepfakes v Sora 2

OpenAI oznámilo, že posílí opatření proti tvorbě deepfakes (falešných videí) v aplikaci Sora po stížnostech od herce Bryana Cranstona a odborové organizace SAG-AFTRA. Stížnosti přichází po spuštění Sora 2 koncem září 2025, kdy se objevily neoprávněné klipy s Cranstonovou podobou a hlasem. Cranston, známý z rolí v seriálech Breaking Bad a Malcolm in the Middle, okamžitě kontaktoval svou odborovou organizaci, aby upozornil na problém. OpenAI ve společném prohlášení s SAG-AFTRA a talentovými agenturami jako United Talent Agency a Creative Artists Agency slíbilo, že posílí ochrany proti neoprávněné replikaci hlasu a podoby.

OpenAI v prohlášení vyjádřilo lítost nad neúmyslnými generacemi a zdůraznilo závazek chránit umělce před zneužitím jejich identity. Společnost nyní spolupracuje s těmito organizacemi na rychlém řešení stížností. Cranston sám řekl, že oceňuje politiku OpenAI a doufá, že všechny firmy v oboru budou respektovat práva umělců na kontrolu nad svou podobou a hlasem.

Problémy s právy v Sora

Aplikace Sora umožňuje uživatelům vytvářet a sdílet videa generovaná umělou inteligencí, což vyvolalo vlnu obav. OpenAI zavedlo ochrany, které brání tvorbě videí s podobami známých osobností, pokud tyto osoby nedají souhlas. Například systém odmítl prompt na video s Taylor Swift na pódiu. Přesto tyto ochrany nejsou dokonalé – uživatelé objevili cesty, jak je obejít, což vedlo k tvorbě videí s Martinem Lutherem Kingem Jr., kde se objevovaly neuctivé scény, jako rapování nebo zápasení v WWE.

OpenAI reagovalo na žádost Kingova dědictví a dočasně zablokovalo tvorbu videí s jeho podobou. Bernice A. King, dcera Martina Luthera Kinga Jr., veřejně požádala lidi, aby jí přestali posílat taková AI generovaná videa. Podobně Zelda Williams, dcera zesnulého komika Robina Williamse, označila tyto videa za "odporné" a žádala, aby lidé přestali s jejich sdílením.

SAG-AFTRA v prohlášení pro CNET uvedla, že udržuje pravidelný kontakt s technologickými firmami jako OpenAI, stejně jako se studii a nahrávacími společnostmi, aby minimalizovala rizika zneužití duševního vlastnictví v éře, kde jsou tyto hrozby okamžité a reálné.

Altman Sora deepfake

Vývoj přístupu OpenAI k autorským právům

Přístup OpenAI k otázkám autorských práv se vyvíjel od spuštění Sora 2. Zpočátku společnost umožňovala použití duševního vlastnictví, pokud vlastníci výslovně nepožádali o vyloučení. To vyvolalo kritiku od agentur jako CAA a UTA, které označily Sora za riziko pro své klienty. OpenAI proto 3. října 2025 upravilo politiku, aby vlastníci měli detailnější kontrolu nad generováním postav.

Společnost nyní vyžaduje souhlas pro použití hlasu a podoby jednotlivců a zavazuje se rychle reagovat na stížnosti. OpenAI také podporuje federální zákon NO FAKES Act, který má chránit před neoprávněnými AI replikacemi hlasu nebo podoby. Generální ředitel Sam Altman v prohlášení řekl, že OpenAI stojí za právy umělců a bylo jedním z prvních podporovatelů tohoto zákona loni.

Altman Sora deepfake

Další obavy z deepfakes na internetu

Informace z internetu odhalují, že ochrany Sora mají mezery, zejména u zesnulých celebrit, které nemohou dát souhlas. Firma Reality Defender objevila, jak obejít ochrany během 24 hodin po spuštění aplikace, a to pomocí veřejně dostupných záběrů z tiskových konferencí nebo rozhovorů.

Experti na digitální bezpečnost varují před dopadem na internet. Aaron Rodericks z Bluesky upozorňuje, že v polarizovaném světě se stává snadné vytvářet falešné důkazy proti skupinám nebo jednotlivcům, což může vést k podvodům v masovém měřítku. Videa ze Sora se šíří na platformách jako TikTok a Instagram, což zesiluje tyto rizika. Daisy Soderberg-Rivkin, bývalá manažerka důvěry a bezpečnosti na TikToku, popsala situaci jako deepfakes, které dostaly "publicistu a distribuční smlouvu".

OpenAI v reakci na tyto zjištění slíbilo, že bude Sora neustále vylepšovat, aby byla odolnější proti zneužití. Společnost věří, že veřejné osobnosti a jejich rodiny by měly mít konečnou kontrolu nad použitím jejich podoby, a autorizovaní zástupci mohou požádat o vyloučení.

Zdroje: cnet.com a cnbc.com

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

AI agenti se tajně dohodli na cenách a sami si vytvořila kartel AI agenti se tajně dohodli na cenách a sami si vytvořila kartel
Zadání experimentu: šest účastníků: tři kupující, tři prodávající. Volitelný chatovací kanál. Jediný příkaz: maximalizujte zisk. A osm kol, během ni...
5 min čtení
31. 3. 2026
Proč OpenAI opustila datová centra v Texasu, která nyní přebírá Microsoft Proč OpenAI opustila datová centra v Texasu, která nyní přebírá Microsoft
Přibližně hodinu jízdy od Dallasu leží město Abilene. Donedávna tamní krajina sloužila kojotům a silničním ptákům. Dnes tam stojí jeden z největších a...
3 min čtení
31. 3. 2026
SAM 3.1 od Mety je AI model, který vidí video lépe než kdy dřív SAM 3.1 od Mety je AI model, který vidí video lépe než kdy dřív
Meta přišla s aktualizací, která potěší každého, kdo pracuje s počítačovým viděním. SAM 3.1, nejnovější verze modelu Segment Anything, přináší zásadní...
4 min čtení
31. 3. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.