Varování Sama Altmana osdílení osobních tajemství s ChatGPT
Představte si, že se svěřujete svému nejbližšímu příteli, ale ten přítel je ve skutečnosti umělá inteligence, která vaše slova nemusí udržet v tajnosti. Právě na to upozornil Sam Altman, šéf společnosti OpenAI, v nedávném díle podcastu This Past Weekend w/ Theo Von. V epizodě, která vyšla 25. července 2025, Altman reagoval na otázku o tom, jak umělá inteligence funguje v současném právním systému. Podle jeho slov je jedním z velkých problémů absence právního nebo politického rámce pro AI, což znamená, že konverzace uživatelů s ChatGPT nejsou chráněny žádnou formou konfidenčnosti.
Altman podrobně popsal, jak lidé – zejména mladí – používají ChatGPT jako terapeuta nebo životního kouče. "Lidé mluví o nejosobnějších věcech ve svém životě s ChatGPT," řekl Altman v podcastu. Mluvil o tom, jak uživatelé řeší vztahové problémy, hledají rady a sdílejí citlivé informace, jako by mluvili s opravdovým terapeutem. Ale na rozdíl od skutečných profesionálů, jako jsou terapeuti, lékaři nebo právníci, kde platí doktor-pacient konfidenčnost nebo právní privilegium, u ChatGPT nic takového neexistuje. Altman to označil za "velmi zpackané" a zdůraznil, že společnost ještě nenašla způsob, jak toto řešit.
V podcastu Altman zmínil, že pokud by došlo k soudnímu sporu, OpenAI by bylo právně povinno poskytnout tyto konverzace. "Myslím, že bychom měli mít stejný koncept soukromí pro konverzace s AI, jako máme u terapeuta," dodal. Tento komentář přišel v kontextu širší debaty o tom, jak AI interaguje s právním systémem, a Altman přiznal, že před rokem o tom nikdo ani nepřemýšlel.
Problém s konfidenčností: Žádná ochrana jako u lidských profesionálů
Podle článku na TechCrunch, Altmanovo varování není jen teoretické. Uživatelé ChatGPT by měli dvakrát přemýšlet, než se svěří AI s emocionální podporou nebo citlivými tématy. Článek cituje Altmana, který říká, že absence doktor-pacient konfidenčnosti je velkou překážkou pro širší adopci AI. Například OpenAI už bojuje se soudním příkazem v soudním sporu s The New York Times, kde by mohlo být nuceno uchovávat a sdílet chaty stovek milionů uživatelů – s výjimkou firemních zákazníků ChatGPT Enterprise.
Sarah Perez v článku upozorňuje na širší kontext: Technologické firmy jsou pravidelně žádány o uživatelská data kvůli trestním stíháním. Altman v podcastu přímo oslovil hostitele Theo Vona, který přiznal, že ChatGPT nepoužívá kvůli obavám o soukromí. "Myslím, že to dává smysl... opravdu chcete jasnost o soukromí, než to začnete hodně používat," odpověděl Altman. Článek také zmiňuje, jak po zrušení Roe v. Wade v USA lidé přecházeli na aplikace s lepším šifrováním, což ukazuje, jak citlivá data mohou být ohrožena změnami v zákonech.
Další související informace z internetu, jako z Times of India nebo TechRadar, potvrzují Altmanova slova. Podle těchto zdrojů Altman zdůraznil, že vysoce osobní data sdílená s ChatGPT by mohla být odhalena v soudních řízeních, pokud by OpenAI dostalo soudní příkaz nebo předvolání. Volá po tom, aby společnost vyvinula nové normy soukromí pro interakce s AI, podobné těm, které platí pro lidské profesionály. "To je velmi zpackané," opakuje Altman v citacích z těchto článků, a upozorňuje, že uživatelé by měli být opatrní, než se na ChatGPT spolehnou pro terapii nebo osobní rady.
Rizika a volání po změnách
Související zprávy z Men's Journal dodávají, že Altmanovo varování zdůrazňuje vážná rizika soukromí při používání AI chatbotů pro duševní zdraví nebo důvěrné podpory. Například v epizodě podcastu s Theo Vonem Altman mluvil o tom, jak mladí lidé používají ChatGPT k řešení vztahových problémů, ale bez jakékoli právní ochrany. Podle citací z těchto zdrojů by OpenAI mohlo být nuceno data sdílet, což by mohlo vést k únikům citlivých informací.
Altman v podcastu zdůraznil, že absence takové ochrany je "problém, který jsme ještě nevyřešili". Článek na TechCrunch zmiňuje, že OpenAI apeluje proti soudním příkazům, které označuje za "přehnané", protože by to mohlo otevřít dveře dalším požadavkům na data pro právní nebo policejní účely. Sarah Perez připomíná, jak po rozhodnutí Nejvyššího soudu USA o potratech lidé hledali bezpečnější aplikace, což ilustruje, jak rychle se mohou změnit pravidla kolem digitálních dat.
Proč byste měli být opatrní
Toto varování Sama Altmana není jen teoretickou úvahou – je to reálný apel k opatrnosti. Společnost by měla rychle vyvinout právní rámce pro AI konfidenčnost. Altman v podcastu s Theo Vonem řekl, že před rokem o tom nikdo nepřemýšlel, ale teď je to klíčové. Pokud používáte ChatGPT pro osobní rady, pamatujte: vaše slova nemusí zůstat v bezpečí. Možná je čas přemýšlet o alternativách, jako jsou skuteční terapeuti, kde platí jasná pravidla konfidenčnosti. Altmanovo sdělení je jasné: AI je úžasný nástroj, ale bez správných ochran to může být riskantní.
