5. Calidoscopio

Los desafíos éticos de la IA

min
Ricardo Baeza-Yates

Ricardo Baeza-Yates, catedrático de la UPF y director de investigación del Instituto de IA Experiencial de Northeastern University, EE.UU.

La inteligencia artificial, representada principalmente por el aprendizaje automático profundo (deep learning), ya está presente en todas partes. Desde nuestros móviles a nuestro coche, pasando por los electrodomésticos de nuestro hogar y todos los ordenadores que nos rodean. Esta tendencia que algunos llaman exponencial, acentúa o genera nuevos problemas sociales que obviamente crecen de la misma manera. El primer caso que llegó a la portada de las noticias fue el estudio de ProPublica en 2016 que mostraba que un sistema de apoyo a decisiones de libertad condicional en EE.UU. era racista. En 2018 una persona perdía la vida: una mujer en Arizona era atropellada por un coche autónomo de Uber, ya que cruzó en bicicleta de noche en la mitad de una carretera, algo que no estaba en los datos de entrenamiento. Ya hay más de mil incidentes conocidos de este tipo y por esto en la UPF estamos trabajando en la mitigación de este tipo de problemas, por ejemplo reducir el sesgo de género en selección de personas.

Sin duda el primer desafío ético es evitar la discriminación de personas ya sea por sesgos que existen en los datos (el caso más común), sesgos que provienen del algoritmo o sesgos que se producen en la interacción de los sistemas de IA y sus usuarios, donde los sesgos cognitivos de las personas hacen estragos. El ejemplo de ProPublica o el de más de 27 mil familias afectadas por cargos de fraude en subsidios infantiles que afectó a grupos vulnerables y terminó con la renuncia del gobierno holandés en enero de 2021 son de datos, mientras que el de Deliveroo, el mismo mes en Italia, que discriminaba a repartidores que no trabajaban, es del algoritmo. Los sesgos de interacción incluyen el de exposición y el de popularidad, los que afectan a todos los que leemos noticias o usamos comercio electrónico. Aquí el sesgo cognitivo de confirmación es aprovechado por las noticias tendenciosas o directamente falsas.

El segundo desafío ético es controlar que los algoritmos cumplan ciertas condiciones básicas como ya lo hacemos con alimentos o medicamentos. Esto posiblemente hubiera evitado la muerte en Arizona o situaciones ridículas como la del pueblo de Bitche, que quedó sin página de Facebook por tres semanas porque un algoritmo para controlar lenguaje ofensivo en inglés fue usado en Francia.

El tercer desafío ético es detener el uso de la IA para predecir características personales sin existir una base científica clara, que, incluso existiendo, pueden afectar a muchas personas. El mejor ejemplo de esta frenología moderna es la predicción de preferencias sexuales usando rasgos faciales publicada en 2017 por un investigador de Stanford.

Un cuarto desafío ético es racionalizar el uso indiscriminado de recursos computacionales y energéticos para entrenar algoritmos que generan problemas éticos, como los modelos de lenguaje que realmente no entienden la semántica del texto y luego discriminan personas, por ejemplo si son musulmanas.

Finalmente, el último desafío y quizás el más importante en el largo plazo, es evitar que la desigualdad en nuestra sociedad siga aumentando. Ya se ha dicho que la inteligencia artificial la disfrutan los ricos y la sufren los pobres, agregando a esto que el 40% de los habitantes del planeta no tiene Internet y el 30% no tiene un móvil (¡pero mantienen su privacidad!). Una posible distopía es un mundo futuro con dos clases, la de los humanos mejorados gracias a la IA y el resto del mundo. Y ya sabemos que cuando las personas no son consideradas iguales, los problemas son mucho más graves, generando revoluciones o incluso la exterminación de una de las clases.