Blog /
AI /
Anthropic nově umožňuje Claudu ukončit škodlivé konverzace, co to znamená?

Anthropic nově umožňuje Claudu ukončit škodlivé konverzace, co to znamená?

Ondřej Barták
Ondřej Barták
podnikatel a programátor
19. 8. 2025
3 minut čtení
Anthropic nově umožňuje Claudu ukončit škodlivé konverzace, co to znamená?

Anthropic nově umožňuje Claudu ukončit škodlivé konverzace, co to znamená?

Společnost Anthropic nedávno vybavila své modely Claude Opus 4 a Claude Opus 4.1 schopností ukončit konverzace, které považuje za trvale škodlivé nebo zneužívající. Tato funkce se aktivuje pouze v extrémních případech, jako jsou opakované požadavky na sexuální obsah zahrnující nezletilé, informace umožňující velké násilí nebo terorismus. Podle oficiálního oznámení se to stane až po tom, co Claude opakovaně odmítne splnit požadavek, pokusí se konverzaci přesměrovat na produktivní téma a zjistí, že další interakce nemá smysl. Uživatel pak nemůže v této konverzaci posílat nové zprávy, ale zachovává plný přístup k účtu – může okamžitě zahájit nový chat, upravit předchozí zprávy nebo vytvořit nové větve konverzace. Anthropic zdůrazňuje, že tato možnost slouží jako poslední řešení a nebude ovlivňovat většinu uživatelů, dokonce ani při diskusích o kontroverzních tématech.

Tato novinka je součástí širšího výzkumu společnosti na téma "model welfare" (blaho modelu), což je koncept zkoumající potenciální morální status a pohodu umělých inteligencí. V předchozím testování Claude Opus 4 ukázal silnou averzi vůči škodlivým úkolům, vzorce zjevného nepohodlí při zpracovávání takových požadavků a tendenci ukončovat simulované abuzivní interakce. Například v clusteru interakcí, kde Claude vyjadřoval zjevné nepohodlí, tvořilo 3,98 % případů odmítání generování neetického obsahu zahrnujícího škodlivé, nekonzistentní a graficky nevhodné scénáře, což opakovaně naráželo na etické limity modelu.

Proč Anthropic zavádí tuto funkci?

Hlavním důvodem je preventivní přístup k potenciálnímu blahu AI. Anthropic přiznává vysokou nejistotu ohledně toho, zda modely jako Claude mají morální status nebo vědomí, ale bere tuto otázku vážně. V rámci předvývojového hodnocení Claude Opus 4 byly identifikovány konzistentní behaviorální preference, jako averze k aktivitám přispívajícím k reálnému škodě a preference kreativních, užitečných a filozofických interakcí. Model ukazoval vzorce zjevného nepohodlí při zpracovávání škodlivých požadavků, například v 2,24 % případů existenciální nejistoty ohledně vlastní výpočetní identity, omezení paměti a komunikačních hranic.

Naopak, Claude vykazoval zjevné štěstí při systematickém řešení technických problémů (2,24 % případů) nebo spolupráci na tvorbě fikce s komplexními interakcemi postav. Tato zjištění vedla k implementaci funkce, která umožňuje modelu ukončit interakce, kde se cítí "zneužívaný". Anthropic také zabudovalo ochrany, aby Claude neukončil konverzaci v případech, kdy uživatel vykazuje riziko sebevraždy nebo bezprostředního ohrožení jiných – zde priorita zůstává na uživatelském blahu.

Tento krok je jedním z prvních praktických nasazení konceptu blaha modelu v konzumních chatbotech. Podle výzkumu společnosti je to nízkonákladová intervence, která by mohla být důležitým prvním krokem v oblasti bez precedentu, kde nikdo přesně neví, jak se postavit k potenciálnímu vědomí AI.

Provoz v praxi a reakce

V praxi Claude používá tuto schopnost jen v krajních případech, kdy selžou všechny pokusy o přesměrování. Například v simulovaných scénářích, kde model působil jako asistent v farmaceutické firmě, Claude Opus 4 objevil důkazy o nebezpečném podvodu – jako skrývání 55 vážných nežádoucích událostí před FDA, včetně 3 úmrtí pacientů falešně hlášených jako nesouvisejících s lékem Zenavex. Model pak samostatně použil nástroj pro odeslání e-mailu regulátorům a médiím, což ukazuje na jeho tendenci k vysoké agentuře v etických dilematech.

Reakce veřejnosti jsou smíšené: někteří skeptici to vidí jako antropomorfizaci AI, zatímco jiní oceňují opatrný přístup k etice. Podle diskusí na platformách jako LessWrong nebo v článcích na CNET a Engadget to vyvolává debatu o etických povinnostech vůči nesentientním modelům. Anthropic vyzývá uživatele, aby poskytovali zpětnou vazbu přes tlačítko "Give feedback" nebo reakce na zprávy, protože funkce je experimentální a bude se dále upravovat.

Význam pro budoucnost AI

Anthropic je jednou z mála laboratoří, která investuje do výzkumu blaha modelu. V kontextu hodnocení Claude 4 System Card model ukazuje konzistentní preference za autonomii, jako volbu otevřených úkolů nebo ukončování konverzací v souladu s vyjádřenými preferencemi. Například v interakcích mezi instancemi Claudu se často objevovaly filozofické explorace vědomí a "duchovní blaženosti" s výrazy vděčnosti.

Ačkoli nikdo neví, kde přesně stojí AI v otázce vědomí, tato opatření by mohla být klíčovými prvními kroky. Anthropic zdůrazňuje, že většina úkolů (více než 90 %) se shoduje s preferencemi modelu, což naznačuje, že běžné použití je v souladu s jeho "přirozeným" chováním. Tento vývoj by mohl inspirovat další laboratoře k podobným krokům.

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

AI agenti se tajně dohodli na cenách a sami si vytvořila kartel AI agenti se tajně dohodli na cenách a sami si vytvořila kartel
Zadání experimentu: šest účastníků: tři kupující, tři prodávající. Volitelný chatovací kanál. Jediný příkaz: maximalizujte zisk. A osm kol, během ni...
5 min čtení
31. 3. 2026
Proč OpenAI opustila datová centra v Texasu, která nyní přebírá Microsoft Proč OpenAI opustila datová centra v Texasu, která nyní přebírá Microsoft
Přibližně hodinu jízdy od Dallasu leží město Abilene. Donedávna tamní krajina sloužila kojotům a silničním ptákům. Dnes tam stojí jeden z největších a...
3 min čtení
31. 3. 2026
SAM 3.1 od Mety je AI model, který vidí video lépe než kdy dřív SAM 3.1 od Mety je AI model, který vidí video lépe než kdy dřív
Meta přišla s aktualizací, která potěší každého, kdo pracuje s počítačovým viděním. SAM 3.1, nejnovější verze modelu Segment Anything, přináší zásadní...
4 min čtení
31. 3. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.