Lidé s neurodiverzními stavy, jako je ADHD, autismus nebo dyslexie, nacházejí v nástrojích umělé inteligence (AI) skutečnou podporu, která jim pomáhá v pracovním prostředí. Podle nedávné studie z britského ministerstva pro obchod a podnikání jsou neurodiverzní pracovníci o 25 % spokojenější s AI asistenty než ti bez těchto stavů. Tito lidé také častěji doporučují takové nástroje svým kolegům. AI tak vytváří vyrovnanější podmínky, kde se dříve museli přizpůsobovat světu navrženému pro jiné.
Tara DeZao, vrchní ředitelka produktového marketingu ve firmě Pega, která se zabývá platformami pro nízkokódové řešení, byla diagnostikována s ADHD až v dospělosti. Má kombinovaný typ ADHD, což zahrnuje problémy s pozorností, jako je řízení času a výkonnostní funkce, ale také hyperaktivní projevy, například potřebu pohybu. Říká, že se v byznysu protloukala "na sílu", ale AI nástroje jí teď výrazně pomáhají. Například během schůzek, kdy vstává a prochází se, nemůže si dělat poznámky. AI však dokáže vytvořit transkript celé schůzky a vybrat hlavní témata.
Výhody AI pro každodenní práci
AI nástroje v práci pokrývají širokou škálu úkolů, od zapisování poznámek přes plánování schůzek až po podporu interní komunikace. Generativní AI exceluje právě v oblastech jako komunikace, řízení času a výkonnostní funkce, což je ideální pro neurodiverzní lidi, kteří se dříve museli přizpůsobovat pracovní kultuře, která na ně nemyslela. Neurodiverzní jedinci přinášejí do práce silné stránky, jako je hyperfokus, kreativita, empatie nebo specializované znalosti. Podle některých výzkumů firmy, které podporují inkluzi v této oblasti, dosahují o téměř pětinu vyšších příjmů.
Tara DeZao popisuje svou diagnózu ADHD jako okamžik, kdy "někdo rozsvítil světlo v temné místnosti". V dnešním hyperpropojeném světě je multitasking velkou výzvou, ale pro ni s jejím typem ADHD je to skoro nemožné. AI jí umožňuje zadat instrukce a nechat nástroj pracovat samostatně, zatímco ona se soustředí na svůj úkol. Pokud přijde nová žádost přes Slack nebo Teams, naruší to její myšlenkový tok. Teď může takovou žádost rychle předat AI, která ji zpracuje, zatímco ona pokračuje v práci. To pro ni znamená obrovskou úlevu.
Rizika při zavádění AI
Kristi Boyd, specialistka na AI z praxe etiky dat ve firmě SAS, uvádí, že investice do etických ochranných mechanismů, které chrání neurodiverzní pracovníky, je nejen správná, ale i chytrá. Podle studie SAS firmy, které nejvíce investují do řízení AI a ochranných prvků, dosahují 1,6krát vyšší návratnosti investic do AI. Boyd upozorňuje na tři hlavní rizika: konfliktní potřeby, nevědomé předsudky a nevhodné odhalení.
Různé neurodiverzní stavy mohou mít protichůdné požadavky. Například lidé s dyslexií mohou využívat čtečky dokumentů, zatímco ti s bipolární poruchou nebo jinými mentálními stavy ocení AI podporu v plánování, aby maximalizovali produktivní období. Organizace by měly tyto konflikty uznat a nabídnout vrstvené přizpůsobení nebo volby, které zajistí rovnost a inkluzi.
Co se týče nevědomých předsudků v AI, algoritmy mohou být neúmyslně naučeny spojovat neurodiverzitu s nebezpečím, nemocí nebo negativitou, jak to popsala výzkum z Duke University. I dnes se neurodiverzita setkává s diskriminací na pracovišti, proto je důležité, aby firmy poskytovaly bezpečné způsoby používání AI bez nutnosti veřejně sdílet diagnózu.
Budoucnost AI pro inkluzi
Firmy by měly zapojovat různé hlasy do všech fází zavádění AI, provádět pravidelné audity a umožnit anonymní hlášení problémů, říká Kristi Boyd. Práce na spravedlivějším nasazení AI, včetně podpory neurodiverzních lidí, teprve začíná. Nezisková organizace Humane Intelligence, která se zaměřuje na AI pro společenské dobro, v říjnu spustila Bias Bounty Challenge. Účastníci v ní identifikují předsudky s cílem vytvořit inkluzivnější komunikační platformy, zvláště pro uživatele s kognitivními rozdíly, senzorickou citlivostí nebo alternativními styly komunikace.
Emoční AI, která identifikuje lidské emoce, pomáhá lidem s obtížemi v rozpoznávání emocí pochopit své partnery na videokonferencích jako Zoom. Tato technologie ale vyžaduje pečlivou pozornost k předsudkům, aby AI správně a spravedlivě rozpoznala různé komunikační vzorce, místo aby zakotvila škodlivé předpoklady.
Zdroj: cnbc.com
