Velký bratr předvídá: UK vyvíjí AI systém, který má odhalit budoucí vrahy
Pohybujeme se na tenké hranici mezi prevencí zločinu a dystopickou budoucností? Když jsem narazil na zprávy z britských médií, myslel jsem si nejprve, že čtu synopsi k novému dílu seriálu Black Mirror. The Guardian a The Telegraph ale přišly se znepokojivě skutečnou zprávou – Spojené království pracuje na vývoji AI systému, který má identifikovat potenciální vrahy ještě předtím, než spáchají zločin.
Algoritmus, který předpoví vraždu
Podle článku v The Guardian z 8. dubna 2025, britská vláda vytváří "predikční nástroj k identifikaci osob, které by s největší pravděpodobností mohly zabíjet". Další den The Telegraph přišel s upřesněním, že tento "AI prediktor vražd" má za cíl "chytit vrahy dříve, než udeří". Projekt údajně vyvíjí odborníci z několika britských univerzit ve spolupráci s policejními složkami. Systém má analyzovat obrovské množství dat včetně:
- Záznamů o předchozích odsouzeních
- Hlášení o domácím násilí
- Záznamy o duševním zdraví
- Aktivita na sociálních sítích
- Demografické údaje
- Historie zaměstnání a finanční stabilita
Cílem je identifikovat vzorce, které by mohly naznačovat, že se někdo blíží k bodu, kdy by mohl spáchat vraždu.
Prevence versus předsudky
Když jsem o tom přemýšlel, napadla mě první a zřejmá otázka: Může takový systém skutečně fungovat? A pokud ano, jakou cenu za to zaplatíme? Na jedné straně je myšlenka prevence vražd nepopiratelně atraktivní. Představte si, že bychom mohli zachránit životy nevinných obětí tím, že včas identifikujeme potenciální pachatele a zasáhneme dříve, než se něco stane. Na druhé straně to ale vyvolává děsivé otázky o presumpci neviny, která je základním kamenem našeho právního systému. Co přesně by se dělo s lidmi, které AI označí jako "pravděpodobné vrahy"? Budou preventivně zatčeni? Sledováni? Nuceni k terapii?
Minority Report není jen sci-fi
Je to skoro dvacet let, co Tom Cruise běhal v Minority Report před "precogs", kteří předpovídali zločiny. Tehdy to byl jen science fiction film. Dnes se zdá, že fikce se stává realitou – jen místo lidí s paranormálními schopnostmi máme algoritmy. Britští představitelé v článcích zdůrazňují, že systém má být pouze "nástrojem podpory rozhodování" pro policii a sociální služby, nikoli automatickým rozhodovacím mechanismem. Odborníci na etiku AI a občanské svobody však vyjadřují obavy, že ve skutečné praxi by mohl vést k systematické diskriminaci a porušování základních práv. Z historie víme, že podobné prediktivní algoritmy často replikují a dokonce zesilují existující předsudky. V USA už několik let používají prediktivní policejní nástroje, které opakovaně čelí kritice za rasový bias – systémy nepřiměřeně označují příslušníky menšin jako "rizikové".
Data jako dvojsečná zbraň
Co mě na celém konceptu fascinuje i děsí zároveň, je role dat. Žijeme v době, kdy každý z nás za sebou zanechává digitální stopu. Naše vyhledávání, nákupy, pohyb, interakce na sociálních sítích – vše může být analyzováno. Představte si algoritmus, který rozhodne, že kombinace vašich nedávných Google vyhledávání, nákupu kuchyňského nože, historie sledování násilných filmů a nedávného rozchodu z vás dělá potenciálního vraha. Absurdní? Možná. Ale ne nemožné v systému, který hledá korelace v datech. Podle The Telegraph mluvčí britského ministerstva vnitra uvedl, že "systém bude obsahovat robustní ochranné mechanismy proti falešně pozitivním výsledkům". Upřímně – vzhledem k tomu, jak fungují i nejpokročilejší AI systémy dnes, to zní jako přání, nikoli jako technologická realita.
Etická minová pole
Britské úřady tvrdí, že hlavním cílem je prevence a včasná intervence, nikoli trestání. Systém má údajně pomoci identifikovat osoby, které by mohly těžit z podpory – ať už jde o léčbu duševního zdraví, programy proti násilí nebo jinou formu sociální pomoci. To zní rozumně, ale devil is in the details, jak říkají Britové. Budou lidé označení systémem mít právo vědět, že byli identifikováni jako "rizikoví"? Budou mít možnost rozporovat závěry algoritmu? A co když někdo odmítne "dobrovolnou" intervenci? Dr. Helen Smithová, specialistka na etiku AI, kterou cituje The Guardian, varuje: "Pokud budeme označovat lidi jako potenciální vrahy na základě statistických korelací, vytvoříme systém, který trestá za myšlenky a sklony, nikoli za činy. To je fundamentální posun v tom, jak chápeme spravedlnost."
Tenká hranice mezi prevencí a dystopií
Musím přiznat, že jako technologický nadšenec jsem fascinovaný možnostmi, které AI přináší. Zároveň jako občan jsem hluboce znepokojený směrem, kterým se ubíráme. Historicky nás zkušenosti učí, že jakmile vláda zavede nástroj sledování nebo kontroly, jen zřídka jej později omezí. Naopak, tyto nástroje mají tendenci se rozšiřovat. Co začíná jako systém k identifikaci potenciálních vrahů, může brzy analyzovat "riziko" pro méně závažné zločiny, antisociální chování nebo dokonce politický dissent. Podle The Telegraph plánuje UK spustit pilotní projekt v několika policejních okrscích do konce roku. Bude fascinující sledovat výsledky – a děsivé přemýšlet o důsledcích. Osobně si myslím, že klíčové budou transparentnost a externí dohled. Pokud má Británie v úmyslu pokračovat v tomto kontroverzním projektu, měla by:
- Zajistit, že algoritmus bude pravidelně auditován nezávislými odborníky.
- Vytvořit jasný a dostupný proces odvolání pro ty, kteří jsou systémem označeni.
- Stanovit přísné limity pro to, jaká data mohou být shromažďována a analyzována.
- Požadovat soudní příkaz před jakýmikoli zásahy na základě predikcí AI.
Zprávy z Británie představují fascinující, ale znepokojivý vhled do budoucnosti, kde technologie a surveillance splývají do nových forem sociální kontroly. Na jedné straně je těžké argumentovat proti technologii, která by mohla zachránit životy. Na druhé straně, jak zdůrazňuje jeden z citovaných expertů v The Guardian, "společnost postavená na algoritmické předpovědi viny nemůže být skutečně svobodná".
