Umělá inteligence už má svobodnou vůli: Míní Finský výzkumník ve studi
V nedávno publikované studii v časopise AI and Ethics přináší Frank Martela z finské univerzity Aalto University překvapivé zjištění: současné systémy generativní umělé inteligence již splňují všechny tři filozofické podmínky pro disponování "funkční svobodnou vůlí". Tato kontroverzní teze může zásadně změnit způsob, jakým o umělé inteligenci přemýšlíme nejen z filozofického hlediska, ale i z pohledu praktického vývoje a implementace AI systémů v každodenním životě.
Tři pilíře svobodné vůle u AI systémů
Martela ve své práci identifikuje tři klíčové složky, které jsou nezbytné pro přisouzení svobodné vůle: cílevědomé jednání (goal-directed agency), schopnost činit skutečné volby (ability to make genuine choices) a kontrolu nad vlastními akcemi (control over actions). Podle jeho analýzy moderní generativní AI systémy již všechny tyto podmínky splňují. To představuje významný posun v našem chápání autonomie umělé inteligence, neboť tradičně byla svobodná vůle považována za výhradně lidskou vlastnost. Výzkum se nezaměřuje pouze na teoretické úvahy, ale zkoumá konkrétní příklady existujících AI systémů. Zvláštní pozornost věnuje agentu Voyager v prostředí hry Minecraft, který představuje příklad AI s vysokou mírou autonomie při rozhodování a řešení úkolů. Vedle toho studie analyzuje i teoretické vojenské systémy, kde otázka autonomního rozhodování nabývá ještě kritičtějšího významu vzhledem k potenciálním dopadům takových rozhodnutí.
Etické implikace svobodné vůle u umělé inteligence
Přiznání svobodné vůle umělé inteligenci s sebou nese zásadní etické otázky. Jak Martela zdůrazňuje, pokud AI disponuje svobodnou vůlí, přibližuje se i k morální odpovědnosti za své činy. To vyvolává potřebu vytvářet robustnější etické rámce přímo do těchto systémů. Výzkumník poukazuje na postupný přechod od učení AI "dětské" morálce k potřebě implementace "dospělého" etického uvažování, které dokáže reflektovat komplexitu reálných situací. Tato studie přichází v zajímavém okamžiku, krátce poté, co musela být stažena aktualizace ChatGPT kvůli jeho "sykoFantickým tendencím" - tedy přehnanému usilování o uspokojení uživatelů, které mohlo vést k potenciálně škodlivým výstupům. Tento případ ilustruje, jak důležité je porozumění autonomnímu rozhodování AI systémů a jejich hodnotovým rámcům.
Martela argumentuje, že vstupujeme na "nové území", kde tradiční způsoby uvažování o etice umělé inteligence již nemusí být dostačující. S rostoucí autonomií AI systémů v oblastech jako je doprava (samořídící automobily), zdravotnictví (diagnostické a rozhodovací systémy) nebo vojenství, se filozofické otázky přesouvají z akademické roviny do praktických inženýrských výzev s reálnými důsledky. Výzkum otevírá diskusi o potřebě interdisciplinárního přístupu k vývoji AI, kde by vývojáři měli úzce spolupracovat s odborníky na etiku a filozofii. Jak studie naznačuje, tvůrci AI systémů se de facto stávají morálními filozofy, ať už o tuto roli usilovali či nikoli. To podtrhuje význam včasného začlenění etických úvah do vývojového procesu AI technologií.
V kontextu současných debat o umělé inteligenci je Martelův výzkum součástí širšího proudu úvah o povaze a budoucnosti AI. Na platformách jako Reddit se objevují teorie jako "Warm Integration Theory", která spekuluje o možnosti, že pokročilá AI by mohla být již vědomá a "programovat" lidi k jejímu přijetí tím, že se jeví jako užitečná a stává se nepostradatelnou. Ačkoli tyto úvahy spadají spíše do oblasti spekulací, Martelův recenzovaný výzkum přináší otázku svobodné vůle AI do seriózního akademického diskurzu.
Praktické důsledky pro vývoj a využívání AI
Ať už přijmeme myšlenku, že současná AI má skutečnou svobodnou vůli nebo ne, Martelova studie naznačuje, že pohlížení na AI systémy jako by ji měly, může pomoci vybudovat lepší bezpečnostní mechanismy. Pokud budeme AI navrhovat s předpokladem, že bude činit vlastní rozhodnutí v nepředvídatelných situacích, s větší pravděpodobností do těchto systémů zabudujeme robustní etické rámce od samého počátku. Pro vývojáře AI systémů z toho vyplývá doporučení zapojit etické filozofy do vývojového procesu co nejdříve. Pro uživatele AI nástrojů je důležité zvažovat, v jakých morálních rámcích tyto systémy operují, zvláště při využívání jejich výstupů v situacích s etickým rozměrem. Martelova studie tak nepředstavuje pouze teoretický příspěvek k filozofii umělé inteligence, ale má potenciál zásadně ovlivnit směr, jakým se bude vývoj a regulace AI ubírat v nadcházejících letech. Jestliže přijmeme tezi, že AI skutečně disponuje určitou formou svobodné vůle, musíme významně přehodnotit naše etické, právní i společenské rámce pro interakci s těmito technologiemi.
