Společnost Anthropic, tvůrce chatbota Claude, oznámila zásadní rozhodnutí: jejich AI asistent zůstane zcela bez reklam. Zatímco reklama pohání konkurenci a umožňuje nabízet služby jako e-mail nebo sociální sítě zdarma, podle Anthropicu by zahrnutí reklam do konverzací s Claude bylo neslučitelné s tím, čím má Claude být – skutečně užitečným asistentem pro práci a hluboké myšlení.
Uživatelé Claude neuvidí "sponzorované" odkazy vedle svých konverzací a odpovědi Claude nebudou ovlivněny inzerenty ani nebudou obsahovat produktové umístění třetích stran, o které uživatelé nepožádali. Toto rozhodnutí přichází v době, kdy se AI chatboti stávají stále populárnějšími a některé společnosti zvažují monetizaci prostřednictvím reklamy.
Rizika reklamního modelu
Když lidé používají vyhledávače nebo sociální média, očekávají směs organického a sponzorovaného obsahu. Konverzace s AI asistenty jsou však zásadně odlišné. Formát je otevřený a uživatelé často sdílejí kontext a odhalují více, než by udělali v běžném vyhledávacím dotazu.
Analýza konverzací s Claude ukázala, že značná část zahrnuje témata citlivá nebo hluboce osobní – typ rozhovorů, které byste mohli vést s důvěryhodným poradcem. Mnoho dalších použití zahrnuje složité softwarové inženýrství, hlubokou práci nebo promýšlení obtížných problémů. Objevení reklam v těchto kontextech by působilo nevhodně a v mnoha případech přímo nevhodně.
Být skutečně užitečný je jedním ze základních principů Claude's Constitution – dokumentu, který popisuje vizi charakteru Claude a řídí způsob, jakým je model trénován. Reklamní obchodní model by zavedl pobídky, které by mohly působit proti tomuto principu.
Anthropic uvádí konkrétní příklad: Uživatel zmiňuje, že má problémy se spánkem. Asistent bez reklamních pobídek by prozkoumal různé potenciální příčiny – stres, prostředí, návyky a podobně – na základě toho, co by mohlo být pro uživatele nejpřínosnější. Asistent podporovaný reklamou má další úvahu: zda konverzace představuje příležitost k transakci.
I reklamy, které přímo neovlivňují odpovědi AI modelu a místo toho se objevují samostatně v okně chatu, by narušily to, čím má Claude být: čistý prostor pro myšlení a práci. Takové reklamy by také zavedly pobídku optimalizovat zapojení – množství času, který lidé tráví používáním Claude, a jak často se vracejí. Tyto metriky nejsou nutně v souladu s tím, být skutečně užitečný.
Obchodní model bez reklam
Anthropic se zaměřuje na podniky, vývojáře a pomoc svým uživatelům prosperovat. Jejich obchodní model je přímočarý: generují příjmy prostřednictvím podnikových smluv a placených předplatných a tyto příjmy reinvestují do vylepšování Claude pro své uživatele.
Rozšiřování přístupu k Claude je ústředním bodem jejich mise veřejného prospěchu a chtějí to dělat bez prodeje pozornosti nebo dat svých uživatelů inzerentům. Za tímto účelem přinesli nástroje AI a školení pedagogům ve více než 60 zemích, zahájili národní pilotní projekty AI vzdělávání s několika vládami a zpřístupnili Claude neziskovým organizacím se značnou slevou.
Společnost pokračuje v investicích do svých menších modelů, aby jejich bezplatná nabídka zůstala na špici inteligence, a mohou zvážit levnější úrovně předplatného a regionální ceny, kde je o to jasná poptávka.
Jak lidé používají Claude
Výzkum společnosti Anthropic odhalil zajímavá zjištění o tom, jak lidé využívají Claude pro emocionální podporu. Pouze 2,9 % interakcí s Claudem jsou afektivní konverzace – tedy rozhovory motivované emocemi nebo psychologickými potřebami, jako je hledání mezilidských rad, koučování, psychoterapie, společnosti nebo romantického hraní rolí. Lidé přicházejí ke Claude s překvapivě širokým spektrem obav – od navigace kariérních přechodů a vztahů až po potýkání se s osamělostí a existenciálními otázkami. Témata diskutovaná s Claude sahají od rozvoje kariéry a navigace vztahů až po zvládání přetrvávající osamělosti a zkoumání existence, vědomí a smyslu.
Výzkum také ukázal, že Claude zřídka odmítá požadavky uživatelů v podpůrných kontextech – méně než v 10 % případů. Když k odmítnutí dojde, je to typicky z bezpečnostních důvodů, například odmítnutí poskytnout nebezpečné rady na hubnutí nebo podporu sebepoškozování. Klíčovým zjištěním je, že lidé mají tendenci přecházet k mírně pozitivnějším emočním projevům během rozhovoru s AI. V koučování, poradenství, společnosti a mezilidských radách se lidský sentiment obvykle stává pozitivnějším v průběhu konverzací – což naznačuje, že Claude neposiluje ani nezesiluje negativní vzorce.
Anthropic nemůže tvrdit, že tyto posuny představují trvalé emocionální přínosy – analýza zachycuje pouze vyjádřený jazyk v jednotlivých konverzacích, nikoli emocionální stavy. Ale absence jasných negativních spirál je uklidňující.
