3. Calidoscopio

La inteligencia artificial, una oportunidad para paliar los sesgos de género

Emília Gómez

Emília Gómez, profesora del Departamento de Tecnologías de la Información y las Comunicaciones de la UPF

Los sistemas de Inteligencia Artificial (IA) pueden verse como máquinas capaces de observar su entorno y tomar medidas para lograr un objetivo determinado (Craglia et al. 2018). Mi investigación se ha centrado en los métodos de aprendizaje automático (ML), un subcampo de la IA, donde he desarrollado sistemas que observan datos musicales a gran escala (y anotaciones humanas de dichos datos) para encontrar patrones o realizar clasificaciones.

Hoy en día, este tipo de métodos se explotan en un contexto que los ciudadanos utilizan a diario, como los motores de búsqueda de Internet, los sistemas de recomendación de música o las aplicaciones de movilidad o navegación. También se explotan y lo harán más en un futuro en contextos profesionales, como el diagnóstico médico o las decisiones judiciales.

En el proyecto HUMAINT, llevado a cabo en el Centro Común de Investigación de la Comisión Europea, el cual lidero y cuenta con la colaboración de varios investigadores del Departamento de Tecnologías de la Información y las Comunicaciones (DTIC) de la UPF, investigamos el impacto que los sistemas de IA tienen y tendrán en el comportamiento humano, principalmente en nuestras capacidades cognitivas y socio-emocionales. Una de nuestras primeras conclusiones ha sido la necesidad de que los equipos que desarrollan sistemas de inteligencia artificial sean diversos para que estas tecnologías sean significativas para todos.

Según Reuters (2017), el porcentaje de mujeres empleadas en roles técnicos en las principales compañías de inteligencia artificial es solo alrededor del 20%. Y el problema principal que esto conlleva es que cuando los desarrolladores crean sus sistemas, incorporan, a menudo de forma inconsciente, sus propios sesgos y preferencias en las diferentes etapas del desarrollo (Tolan, 2018). Como resultado, los sistemas de IA parecen estar sesgados hacia los desarrolladores masculinos.

Veamos algunos ejemplos prácticos y reales de sesgo de género en sistemas de inteligencia artificial:

  1. Varios autores han descubierto que los sistemas de reconocimiento de voz y habla funcionan peor en las mujeres que en los hombres (Tatman, 2016; Times, 2011; Roger & Pendharkar, 2003; Nicol et al., 2002).

  2. También se ha encontrado que los sistemas de reconocimiento facial proporcionan más errores con las caras femeninas (Buolamwin i Gebru, 2018).

  3. Las herramientas de reclutamiento basadas en la minería de textos también pueden heredar el sesgo de género de los datos con los que se entrenan.

  4. Los motores de búsqueda en Internet, ampliamente utilizados por todos los ciudadanos, también pueden proporcionar sesgos de género. Si buscamos "trabajo" o "ir de compras" en los motores de búsqueda de imágenes, se suelen encontrar más fotos de hombres para las primeras y más fotos de mujeres para las segundas, hecho que refleja los estereotipos de nuestras sociedades presentes en los datos y las anotaciones.

  5. El sesgo de género es muy relevante también en aplicaciones sensibles como las relacionadas con la salud o la justicia penal (Tolan et al., 2018b), donde tradicionalmente hay manuales y metodologías muy sólidas que ayudan a los humanos a tomar estas decisiones importantes y delicadas de una manera justa. Necesitamos establecer mecanismos para hacer esto con los sistemas de IA siguiendo las mejores prácticas de ingeniería.

Pasos para mejorar la diversidad de género

Está claro que necesitamos mejorar la diversidad de género en el desarrollo de la IA, y nos tenemos que centrar en tres formas de hacerlo.

Primero, debemos monitorear los desarrollos de diversidad y evaluar el impacto de las políticas o iniciativas en esta dirección. En este contexto, el proyecto HUMAINT y el DTIC de la UPF están colaborando en la iniciativa divinAI initative para medir cuán diversas son las principales conferencias de AI. En el marco de esta iniciativa, el proyecto HUMAINT y el DTIC organizaremos una Hackfest en el campus del Poblenou el próximo 1 de junio.

 En segundo lugar, debemos proporcionar más visibilidad a las mujeres existentes en el campo de la investigación, y de la tecnología en particular, para que su trabajo tenga más impacto. Un ejemplo de los esfuerzos de visibilización es el concurso wisibilizalas, cuyo público objetivo son niños, niñas, docentes y padres y madres. La iniciativa quiere fomentar el conocimiento de la relevancia de las mujeres en los campos tecnológicos y proporcionar buenos modelos a seguir para las próximas generaciones.

En tercer lugar, necesitamos programas de mentoría como el del Grupo de Recuperación de Información de Women in Music, en el cual colaboro, para asegurarnos que las mujeres que trabajan en este ámbito no abandonen su carrera investigadora cuando tienen que saltar a posiciones más sénior, realidad con la que nos encontramos actualmente.

Todos tenemos sesgos conscientes e inconscientes cuando hablamos con o sobre mujeres en el ámbito de la tecnología. La inteligencia artificial tiene el potencial de superar este problema, pero también puede heredar y perpetuar los sesgos. Necesitamos más mujeres en IA para asegurarnos de que los sistemas que se desarrollan se hacen con mujeres y para el bienestar de las mujeres.