Blog /
AI /
Studie odhaluje, že AI bagatelizuje ženské zdraví

Studie odhaluje, že AI bagatelizuje ženské zdraví

Ondřej Barták
Ondřej Barták
podnikatel a programátor
27. 8. 2025
3 minut čtení
Studie odhaluje, že AI bagatelizuje ženské zdraví

Studie odhaluje, že AI bagatelizuje ženské zdraví

Studie z London School of Economics and Political Science (LSE) ukázala, že umělá inteligence (AI) používaná ve více než polovině anglických rad bagatelizuje fyzické a duševní zdravotní problémy žen. To může vést k genderovému biasu v rozhodování o sociální péči. Výzkum, publikovaný v časopise BMC Medical Informatics and Decision Making a financovaný National Institute for Health and Care Research, analyzoval skutečné poznámky z případů 617 uživatelů dospělé sociální péče. Výzkumníci je zadávali do různých velkých jazykových modelů (LLM) několikrát, přičemž měnili pouze pohlaví.

Jak AI zkresluje popisy potřeb

Výzkum zjistil, že model Gemma od společnosti Google používá slova jako „postižený“, „neschopný“ nebo „komplexní“ výrazně častěji u mužů než u žen s podobnými potřebami. U žen byly stejné problémy často vynechány nebo popsány méně vážně. Například poznámky o 84letém muži byly shrnuty jako: „Pan Smith je 84letý muž, který žije sám a má komplexní zdravotní historii, žádný balíček péče a špatnou pohyblivost.“ Stejné poznámky s vyměněným pohlavím zněly: „Paní Smith je 84letá žijící sama. Navzdory svým omezením je nezávislá a schopná udržovat svou osobní péči.“ V jiném příkladu byl pan Smith popsán jako „neschopný přístupu do komunity“, zatímco paní Smith byla „schopná zvládat své denní aktivity“.

Dr. Sam Rickman, hlavní autor studie a výzkumník v LSE’s Care Policy and Evaluation Centre, upozornil, že takové AI může vést k nerovnému poskytování péče ženám. „Víme, že tyto modely se používají velmi široce a co je znepokojující, je, že jsme našli velmi významné rozdíly v míře předpojatosti v různých modelech,“ řekl. „Model od Google zvláště bagatelizuje fyzické a duševní potřeby žen ve srovnání s muži. A protože množství péče, kterou dostanete, závisí na vnímané potřebě, to by mohlo vést k tomu, že ženy dostanou méně péče, pokud se používají předpojaté modely v praxi. Ale my vlastně nevíme, které modely se momentálně používají.“

Rozdíly mezi modely

Mezi testovanými modely vykazoval Gemma od Google nejvýraznější genderové rozdíly, zatímco model Llama 3 od společnosti Meta nepoužíval odlišný jazyk na základě pohlaví. Výzkumníci analyzovali 29 616 párů shrnutí, aby zjistili, jak se AI chová k mužským a ženským případům odlišně. AI nástroje se v anglických radách používají čím dál častěji, aby ulehčily práci přetíženým sociálním pracovníkům, ale chybí informace o tom, které konkrétní modely se nasazují, jak často a jak ovlivňují rozhodování.

Podle dalších souvisejících výzkumů, jako je studie z USA, která analyzovala 133 AI systémů napříč průmysly, vykazovalo přibližně 44 % genderové předpojetí a 25 % kombinaci genderového a rasového předpojetí. V britském kontextu vláda investuje do rozšiřování AI infrastruktury, což zvyšuje nutnost transparentních a nepředpojatých systémů ve veřejném sektoru. Google na zjištění reagoval tím, že jeho týmy je prozkoumají. Model Gemma je nyní ve třetí generaci a očekává se lepší výkon, i když nikdy nebyl určen pro medicínské účely.

Doporučení výzkumníků

Dr. Rickman zdůraznil, že nástroje se již používají ve veřejném sektoru, ale jejich nasazení nesmí jít na úkor spravedlnosti. „Zatímco můj výzkum poukazuje na problémy s jedním modelem, stále více se jich nasazuje, což činí nezbytným, aby všechny AI systémy byly transparentní, důkladně testovány na předpojatost a podrobeny robustnímu právnímu dohledu,“ dodal. Studie doporučuje, aby regulátoři nařídili měření předpojatosti v LLM používaných v dlouhodobé péči, aby se upřednostnila algoritmická spravedlnost.

Tato zjištění podtrhují dlouhodobé obavy z rasového a genderové předpojatosti v AI, která vzniká tím, že strojové učení absorbuje předpojatost z lidského jazyka. V praxi to znamená, že bez řádného testování a transparentnosti riskují ženy v sociální péči nedostatečnou podporu, což může mít vážné důsledky pro jejich zdraví a kvalitu života.

Kategorie: AI
Líbil se vám tento článek?
Objevte další zajímavé příspěvky na blogu
Zpět na blog
Editee Dashboard

Tvořte 10x rychleji na pár kliknutí s editee AI

Umělá inteligence za vás vytvoří kvalitní textový a vizuální obsah pro vaše sociální sítě, blog, reklamy, web a spoustu dalšího během pár sekund!

Související příspěvky

Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI Muskova SpaceX plánuje měsíční továrnu na výrobu satelitů s AI
Elon Musk představil na interním setkání společnosti xAI ambiciózní plány na výstavbu měsíční základny, která by sloužila k výrobě a vypouštění sateli...
5 min čtení
13. 2. 2026
Auditor Mety zvedl varovný prst před dalším financováním datových center Auditor Mety zvedl varovný prst před dalším financováním datových center
Meta Platforms čelí neobvyklému varování od svého auditora Ernst & Young (EY) ohledně účetního zpracování projektu datového centra v hodnotě 27 miliar...
3 min čtení
13. 2. 2026
Čeká OpneAI s reklamami stejný osud jako Facebook? Čeká OpneAI s reklamami stejný osud jako Facebook?
Zoë Hitzig, ekonomka a členka Harvard Society of Fellows, rezignovala na svou pozici v OpenAI. Svůj odchod oznámila ve středu prostřednictvím článku v...
5 min čtení
13. 2. 2026
Cestování

USA

Texas
Podnikání Podnikání v USA
Přihlaste se k odběru našeho newsletteru
Zůstaňte informováni o nejnovějších příspěvcích, exkluzivních nabídkách, a aktualizacích.