Generátory obrázků pomocí umělé inteligence prošly za poslední roky obrovskou proměnou. Zatímco dřív byly snadno rozpoznatelné podle divných detailů a nepřirozeného vzhledu, dnes dokážou vytvářet obrázky, které na první pohled vypadají jako skutečné fotografie. Paradoxně k tomu dochází tak, že se kvalita záměrně „zhoršuje“. Právě o tomto zvláštním posunu píše Allison Johnson ve svém sloupku pro server The Verge.
Když se AI dala poznat na první pohled
V úplných začátcích generování obrázků pomocí AI byla chyba téměř vždy viditelná. Lidé měli příliš mnoho prstů, končetiny působily gumově a detaily nedávaly smysl. Když OpenAI představila první verzi nástroje DALL‑E, zvládal jen malé obrázky o rozlišení 256 × 256 pixelů. O rok později přišel DALL‑E 2, který už generoval větší a výrazně realističtější snímky v rozlišení 1024 × 1024 pixelů, ale i ty měly jasné „zádrhely“.
Allison připomíná například test, kde DALL‑E 2 vytvořil obrázek psa plemene shiba inu oblečeného jako hasič. Na první pohled vypadal dobře, ale při bližším zkoumání bylo vidět rozmazanou srst, nesmyslné znaky na nášivce a podivný přívěsek na obojku. Tyto drobnosti prozrazovaly, že nejde o skutečnou fotografii.
Příliš dokonalé obrázky byly podezřelé
Postupně se prosadily i další nástroje, například Midjourney nebo Stable Diffusion. Ty dokázaly chyby minimalizovat a časem se zlepšily i v zobrazování textu. Přesto měly AI obrázky dlouho společný rys – byly až příliš hladké, čisté a vyhlazené. Měly zvláštní lesk a působily spíš jako stylizované ilustrace než jako momentky ze skutečného světa.
Podle Johnson právě tahle dokonalost začala být problémem. Skutečné fotografie jsou totiž plné nedokonalostí: špatné světlo, nepořádek v záběru, přepaly, šum nebo nepřesné barvy. A právě tyto chyby dělají snímek uvěřitelným.
Nový přístup: napodobit mobilní fotky
Zlom přišel v roce 2025, kdy Google v aplikaci Gemini představil nový obrazový model s názvem Nano Banana. Ten se stal virálním díky tomu, že lidé začali vytvářet realistické figurky sami sebe. Kolega Allison Johnson z The Verge, Robert Hart, si všiml, že tento model dokáže zachovat skutečnou podobu člověka věrněji než jiné AI nástroje.
Klíčem je to, že obrázky nezačínají vypadat jako „umění“, ale jako běžné fotky z mobilního telefonu. Google později představil ještě Nano Banana Pro, který ještě víc napodobuje vzhled snímků z telefonu – včetně slabšího kontrastu, agresivního doostřování nebo zvláštních expozičních voleb. Přesně takové vlastnosti známe z každodenních fotek pořízených mobilem.
Z Nedokonalosti výhodou
Moderní telefony používají malé snímače a složité softwarové zpracování, aby kompenzovaly technická omezení. Výsledkem je specifický „mobilní look“, na který jsme si zvykli. Podle Johnson tento styl AI jednoduše převzala. Jakmile obrázek vypadá jako něco, co běžně vídáme v galerii telefonu, náš mozek mu snáz uvěří.
Podobnou cestou se vydaly i další firmy. Adobe nabízí v generátoru Firefly posuvník „Visual Intensity“, kterým lze potlačit typický lesklý vzhled AI obrázků. Meta má zase ovladač „Stylization“, který umožňuje přepínat mezi stylizovaným a realistickým výsledkem. U videí se tento přístup projevil třeba u nástrojů OpenAI Sora 2 nebo Google Veo 3, které dokážou napodobit rozmazané a zrnitější záběry z bezpečnostních kamer.
Jak poznáme, co je skutečné?
Allison upozorňuje, že zatímco některé AI nástroje stále selhávají v běžných úkolech, obrazové modely se zlepšují neuvěřitelným tempem. Odborník Ben Sandofsky, spoluzakladatel aplikace Halide pro iPhone, jí řekl, že tímto přístupem se AI možná vyhýbá pocitu nepříjemné nepřirozenosti. Když obrázek nevypadá dokonale, ale jako běžná fotka, působí přirozeněji.
To ale otevírá zásadní otázku: jak budeme poznávat, čemu věřit? Johnson připomíná názor Sama Altmana, podle kterého se skutečné a AI obrázky časem promíchají a lidé si na to zvyknou. Ona sama je ale přesvědčená, že na rozlišování pravdy nám bude záležet i nadále a já s ní musím plně souhlasit.
Obsahové značky jako poslední záchrana
Jedním z řešení je standard Content Credentials od organizace C2PA. Ten umožňuje přidat ke každému snímku kryptografický podpis, který říká, jak byl vytvořen. Google už tuto technologii používá například u telefonů Pixel 10, kde jsou takto označeny všechny fotografie – jak ty upravené pomocí AI, tak i běžné snímky.
Google Photos už tyto informace dokáže zobrazovat a firma plánuje jejich zviditelnění i ve vyhledávání a reklamách. Problémem zatím zůstává, že většina dnešních zařízení a platforem tento systém nepodporuje. Dokud se to nezmění, budeme se muset spoléhat hlavně na vlastní opatrnost.
AI generátory obrázků jsou dnes nebezpečně přesvědčivé právě proto, že přestaly usilovat o dokonalost. Místo toho napodobují chyby a nedostatky, na které jsme zvyklí z každodenního focení. A to z nich dělá nástroje, kterým je čím dál těžší nevěřit.
