Vés enrere Navegant el desafiament d'equitat a la intel·ligència artificial per a la salut

Navegant el desafiament d'equitat a la intel·ligència artificial per a la salut

Adam Skali, alumni del Màster Universitari en Recerca Multidisciplinar en Ciències Experimentals, reflexiona sobre el paper de la IA en el sector de la salut

20.12.2023

Imatge inicial

A mesura que la intel·ligència artificial (IA) avança en l'àmbit de la salut, es converteix en una eina clau en hospitals i centres d'anàlisis d'imatges mèdiques. Utilitzant l'aprenentatge automàtic conegut com a deep learning, aquests sistemes assumeixen diverses tasques en l'anàlisi d'imatges mèdiques, des de millorar la qualitat de les imatges fins a identificar malalties.

Malgrat l'augment en la recerca sobre les aplicacions del deep learning, l'avaluació d'aquests sistemes per al seu ús en el sector de la salut, a través d'assajos clínics, és relativament recent. I encara que es deu a diverses causes, un dels principals desafiaments rau en entendre com operen aquests algorismes i prenen decisions crítiques, la qual cosa dificulta la seva adopció generalitzada.

"Hi ha problemes ètics associats a la intel·ligència articial perquè els sistemes basats en deep learning poden tenir biaixos".

Un dels resultats d'això s'observa en els problemes ètics associats a la IA. Els sistemes basats en deep learning poden tenir biaixos, sovint mostrats en un rendiment diferent segons l'edat, raça, gènere o escala socioeconòmica, generant preocupacions ètiques. Diversos estudis han destacat la naturalesa esbiaixada dels sistemes d'intel·ligència artificial, especialment en relació amb grups demogràfics específics. Això es converteix en un gran problema ètic, ja que aquests biaixos poden portar a un tracte desigual, diagnòstics incorrectes i disparitats en els resultats d'atenció mèdica.

I una de les principals causes d'això són els conjunts de dades utilitzades per a entrenar models d'intel·ligència artificial. Quan aquestes dades emprades perquè el programa “aprengui” estan esbiaixades o reflecteixen desigualtats històriques en l'atenció mèdica, els algorismes poden perpetuar aquests biaixos. Per exemple, si un model d'intel·ligència artificial s'entrena amb dades que representen principalment uns certs grups ètnics o socioeconòmics, podria oferir solucions poc adaptades al context. Si els algorismes afecten de manera desproporcionada a minories o perpetuen estereotips, poden contribuir a discriminació sistèmica en l'atenció mèdica, reforçant injustícies i errors en els tractaments.

"Si no es prenen mesures apropiades, és probable que la intel·ligència artificial agreugi les desigualtats existents en l'atenció mèdica."

Avui dia el terme IA sembla estar en boca de tot el món, però alguna cosa que solem oblidar, fins i tot sent igual d'important que tots els beneficis pel que fa a l'eficiència i capital que ens porta, són les ramificacions ètiques. Un ús inadequat o no informat d'aquestes tecnologies pot causar problemes significatius en la distribució equitativa de recursos d'atenció mèdica. Si no es prenen mesures apropiades, és probable que la intel·ligència artificial agreugi les desigualtats existents en l'atenció mèdica.

Referències:

Ricci Lara, M.A., Echeveste, R. & Ferrante, E. Addressing fairness in artificial intelligence for medical imaging. Nat Commun 13, 4581 (2022)

Multimèdia

Perfils dels protagonistes:

Adam Skali

Categories:

ODS - Objectius de desenvolupament sostenible:

Els ODS a la UPF

Contact