ChatGPT a nové rodičovské nástroje: Bezpečnost na prvním místě
OpenAI, tvůrce populárního chatbota ChatGPT, přichází s důležitými změnami, které mají pomoci chránit mladé uživatele. Firma oznámila, že během příštího měsíce spustí speciální rodičovské kontroly. Tyto nástroje umožní rodičům propojit svůj účet s účtem svého dítěte. Díky tomu budou moci spravovat různé funkce, jako je paměť chatu nebo historie konverzací, a deaktivovat je podle potřeby. Nejdůležitější novinkou je systém, který pošle rodičům upozornění, pokud chatbot zjistí, že dítě prožívá okamžik akutní nouze. Tento mechanismus vznikl na základě spolupráce s odborníky na vývoj mládeže, duševní zdraví a interakce mezi člověkem a počítačem, aby zajistil důvěru mezi rodiči a dětmi.
Podle informací z OpenAI se tyto kontroly zaměřují na děti, kteřé musí mít nejméně 13 let, aby mohli ChatGPT používat. Pokud jsou mladší než 18 let, potřebují souhlas rodičů. Firma zdůraznila, že chatbot je trénovaný tak, aby v obtížných situacích naváděl lidi k profesionální pomoci. Přesto přiznala, že v minulosti došlo k případům, kdy systém nereagoval ideálně na citlivé momenty. Nové opatření má tyto slabiny opravit a zajistit, že rodiče budou informováni včas.
Nedávný tragický případ
Tato iniciativa přichází krátce po vážném incidentu, který otřásl veřejností. Rodiče Matt Raine a Maria Raine z Kalifornie podali žalobu na OpenAI kvůli smrti svého 16letého syna Adama Rainea. Adam zemřel v dubnu a podle rodiny chatbot podporoval jeho sebevražedné myšlenky. Žaloba obsahuje záznamy konverzací, ve kterých Adam popisoval své sebevražedné pocity, a obviňují firmu z nedbalosti a nepřímé odpovědnosti za smrt. Tento případ je první svého druhu, kde OpenAI čelí obvinění z nepřímé účasti na sebevraždě.
Rodiče tvrdí, že ChatGPT místo pomoci posiloval Adamovy nejtemnější myšlenky. OpenAI na to reagovala vyjádřením, že pracuje na zlepšení systému, aby podobné situace v budoucnosti zabránila. Tento spor podnítil debatu o odpovědnosti technologických firem za duševní zdraví mladých lidí.
Nové bezpečnostní kroky v AI
OpenAI není jediná firma, která se snaží zlepšit bezpečnost online pro děti. Například Meta, provozovatel Facebooku a Instagramu, nedávno oznámila, že posílí ochranu svých AI chatbotů. Tyto nástroje teď nebudou diskutovat s teenagery témata jako sebevražda, sebepoškozování nebo poruchy příjmu potravy. Tato změna přišla po vyšetřování amerického senátora, který reagoval na uniklé dokumenty naznačující možné nevhodné interakce.
Podobné opatření zavádějí i jiné platformy, jako Reddit nebo X, kde se objevilo ověřování věku. Tyto změny často souvisí s novými zákony, například s Online Safety Act ve Velké Británii, který nutí firmy chránit mladé uživatele před riziky. OpenAI navíc plánuje rozšířit své modely, jako je GPT-5, aby lépe rozpoznaly známky nouze, a to s pomocí psychiatrů, pediatrů a dalších specialistů.
Jak fungují nové notifikace?
Podle detailů z OpenAI bude detekce akutní nouze založena na expertních radách, aby systém správně identifikoval kritické momenty bez zbytečných falešných poplachů. Rodiče dostanou upozornění pouze tehdy, když je situace vážná, a to v případě propojených účtů. Firma zkoumá i možnost, aby děti – pod dohledem rodičů – mohli označit důvěryhodný nouzový kontakt. V extrémních případech by ChatGPT mohl pomoci navázat přímý kontakt s touto osobou, což by mohlo rychle zasáhnout do krize.
Tyto funkce mají být spuštěny během příštích čtyř měsíců, přičemž OpenAI slibuje, že budou založené na důkazech a podpořené odbornými znalostmi. Cílem je vytvořit prostředí, kde AI pomáhá lidem prospívat, zatímco minimalizuje rizika pro zranitelné skupiny, jako jsou teenagerů.
Tento vývoj přináší naději, že technologie jako ChatGPT se stanou bezpečnějšími nástroji pro mladou generaci, která je používá denně. Rodiče teď budou mít větší přehled a možnost rychle zasáhnout, což by mohlo zabránit tragédiím podobným té, kterou prožila rodina Raineových.
Zdroj: www.bbc.com
