Umělá inteligence slibuje revoluci v medicíně, ale nové studie varují: může neúmyslně prohlubovat nerovnosti ve zdravotní péči. Předsudky skryté v tréninkových datech vedou k horší diagnostice u žen, menšin a znevýhodněných skupin – a to je problém, který už nelze ignorovat.
Příslib umělé inteligence v medicíně je obrovský: rychlejší diagnostika, snížení pracovní zátěže přetížených lékařů a schopnost předvídat nemoci s nebývalou přesností. Rostoucí počet výzkumů však přináší znepokojivé varování: systémy umělé inteligence by mohly udržet a prohloubit nerovnosti, které již ve zdravotnictví existují, zejména u žen a etnických menšin. Namísto nápravy starých systémových nedostatků hrozí, že je současné nástroje pod rouškou modernosti a objektivity ještě posílí.
Jak se předsudky projevují v lékařské umělé inteligenci
Nedávné studie předních univerzit v USA a Velké Británii ukázaly, že velké jazykové modely (jako je GPT-4 společnosti OpenAI, Llama společnosti Meta nebo Gemini společnosti Google) mají tendenci bagatelizovat příznaky pacientek a vykazují menší „empatii“ v reakcích na černochy nebo Asiaty, zejména v oblasti duševního zdraví. V některých případech doporučovali méně intenzivní péči nebo dokonce doporučovali domácí léčbu u problémů vyžadujících lékařskou péči.
Problém se neomezuje pouze na pohlaví nebo rasu. Výzkumníci také zjistili, že zprávy s překlepy, neformálním jazykem nebo nebezpečnými výrazy se častěji setkávaly s odpověďmi, které doporučovaly nevyhledat lékařskou pomoc, a to i v případě, že klinické informace byly totožné. Z toho vyplývá, že pacienti, kteří neovládají angličtinu nebo nejsou obeznámeni s technologiemi, mohou být nespravedlivě opomíjeni.
Příčiny leží u zdroje dat: mnoho modelů pro všeobecné použití je vyškoleno na základě informací získaných z internetu, kde se hojně vyskytují stereotypy a kulturní předsudky. Pokud je již tréninkový korpus nevyvážený, umělá inteligence to promítne do svých lékařských doporučení. Jak varoval Travis Zack, profesor na Kalifornské univerzitě a šéf start-upu Open Evidence, „pokud existuje možnost, že fórum na Redditu ovlivní vaše zdravotní rozhodnutí, není to bezpečné místo“.
Dopad předpojatosti ve zdravotnictví
Rizika jsou vážná. Historický lékařský výzkum byl silně zaujatý vůči mužům, takže financování a znalosti o nemocech, které ve větší míře postihují ženy, zaostávaly. Pokud budou umělé inteligence vyškoleny na stejných datech, budou tuto nerovnost jen opakovat a zesilovat. Etnické menšiny a lidé s nízkými příjmy navíc často čelí dalším překážkám v přístupu ke kvalitní zdravotní péči a předsudky AI by mohly tyto rozdíly ještě prohloubit.
Například studie Stanfordovy univerzity zjistila, že algoritmy umělé inteligence používané k předpovídání srdečních onemocnění byly u afroamerických pacientů méně přesné kvůli nedostatečné rozmanitosti tréninkových dat. To by mohlo vést k nesprávné diagnóze a nevhodné léčbě, což by mohlo ohrozit životy pacientů. Kromě toho jsou ženy často nedostatečně zastoupeny v klinických studiích, což znamená, že modely umělé inteligence nemusí dostatečně odrážet jejich zdravotní potřeby.
Snahy o zmírnění předpojatosti u AI
Velké technologické společnosti si tento problém uvědomují. Společnost OpenAI uvádí, že mnoho kritických připomínek vychází ze starších verzí jejích modelů, a tvrdí, že zlepšila přesnost s důrazem na zdravotní bezpečnost. Společnost Google mezitím zdůrazňuje, že zaujatost bere „velmi vážně“, a pracuje na technikách ochrany soukromí a boje proti diskriminaci. Přesto odborníci, jako je Niki Iliadis, upozorňují, že současná řešení jsou nedostatečná a že je nutné od počátku definovat, které soubory dat by neměly být používány, a také trénovat s reprezentativními a různorodými zdravotnickými informacemi.

Zdroj: Youtube.com
Některé veřejné projekty se tímto směrem vydávají. Ve Velké Británii je cílem modelu Foresight, vycvičeného na anonymizovaných datech 57 milionů pacientů NHS, předpovídat rizika hospitalizace nebo infarktu tím, že odráží skutečnou rozmanitost populace. Dalším příkladem je Delphi-2M, vyvinutý v Evropě s britskou Biobankou, který předpovídá náchylnost k nemocem desítky let před jejich výskytem. Tyto iniciativy však vyvolávají dilemata ohledně ochrany soukromí pacientů a již přiměly britský regulační orgán k prošetření využívání citlivých údajů v některých projektech.
Kromě toho je pro vývoj spravedlivých a nestranných modelů umělé inteligence zásadní spolupráce mezi výzkumnými pracovníky, zdravotníky a technology. Iniciativy, jako je projekt Torontské univerzity Ethical AI, usilují o stanovení pokynů pro vývoj AI ve zdravotnictví, které upřednostňují rovnost a spravedlnost.
Cesta ke spravedlivější budoucnosti
Výzva je dvojí: na jedné straně využít obrovské výhody, které může AI přinést do lékařské diagnostiky a výzkumu, na straně druhé zabránit tomu, aby se tyto nástroje staly novým zdrojem diskriminace a nerovnosti v oblasti zdraví. Jak shrnuje výzkumnice z MIT Marzyeh Ghassemiová, skutečný potenciál umělé inteligence ve zdravotnictví nespočívá v přidání dalšího bodu efektivity tam, kde jsou lékaři již kompetentní, ale v odstranění mezer, kvůli nimž miliony pacientů v minulosti nedostaly dostatečnou péči.
K dosažení tohoto cíle je nezbytné, aby technologické společnosti a zdravotnické instituce spolupracovaly a zajistily, že modely AI budou trénovány na různorodých a reprezentativních datech. Kromě toho je třeba zavést monitorovací a kontrolní mechanismy, které umožní identifikovat a korigovat zkreslení v algoritmech AI. Jen tak budeme moci plně využít potenciál AI ke zlepšení zdravotní péče spravedlivým a rovnocenným způsobem.