Atrás Con la IA, las Humanidades deben dejar de autosabotearse. Nausikaä El-Mecky

Con la IA, las Humanidades deben dejar de autosabotearse. Nausikaä El-Mecky

Nausikaä El-Mecky, profesora tenure track de Historia del Arte y Cultura Visual del Departamento de Humanidades de la UPF.

20.11.2023

Imatge inicial - Nausikaä El-Mecky

En octubre fui invitada a participar en un encuentro de expertos sobre el futuro de la ciencia y la IA en la Comisión Europea, en Bruselas. Me pareció que las Humanidades apenas forman parte de la conversación. Esto es, en parte, culpa nuestra.

Las Humanidades se desinvitan a sí mismas de la política y el desarrollo de la IA por dos razones: excesiva humildad y condescendencia. Empecemos por la humildad. Cuando entré en el edificio de la Comisión Europea, pensé: "¿Qué sé yo de codificar? ¿No debería dejar la IA a los expertos?". Con expertos me refiero a los que saben de informática, legal tech y governance. Pero la IA no se limita a estos campos, ya que cada vez más decide lo que es moral, inmoral o bello. En mi propio grupo de investigación sobre la censura algorítmica de imágenes, descubrimos que los ingenieros programan qué imágenes no son aceptables sin tener ningún o escaso conocimiento histórico del arte, basándose en criterios retrógrados y a veces incluso sexistas o racistas. Durante la reunión de Bruselas, quedó claro que existe un enorme riesgo de que las normas para la cultura y la democracia sean fijadas, unilateralmente, por personas poco cualificadas para ello. Conduce a situaciones distópicas que apenas tienen mecanismos de vigilancia, como cuando programadores crean los parámetros para delegar decisiones de vida o muerte a algoritmos en el ámbito de la guerra automatizada.

Durante la reunión de Bruselas, quedó claro que existe un enorme riesgo de que las normas para la cultura y la democracia sean fijadas, unilateralmente, por personas poco cualificadas para ello

Como investigadores en Humanidades, tendemos a limitarnos a ser consumidores y críticos de la IA, quizás utilizando una herramienta de IA ingeniosa para digitalizar un archivo, o escribiendo sobre lo horrible que es la imaginería generativa de IA.  Nos mantenemos cortésmente al margen y no nos permitimos dar forma al futuro de la IA, ya que carecemos de los conocimientos tecnológicos necesarios. Mientras tanto, los ingenieros de IA no sufren este síndrome del impostor y se lanzan al territorio de las Humanidades. Como humanistas, tenemos que empezar a considerarnos expertos en IA.

Es poco probable que dentro de 10 años la IA sea simplemente una versión más sofisticada de lo que es hoy. Su crecimiento exponencial la hizo, al final, insondable e indefinible para todos los expertos presentes en la reunión. Pensar más allá de lo experiencial, imaginar qué es la IA trascendiendo sus encarnaciones actuales, esa es la zona de confort de las Humanidades, que fomentan el pensamiento indefinido e imaginativo. En Bruselas imaginamos que en 2035 la ciencia podría haber quedado obsoleta, con superordenadores recopilando a través del scraping los datos del mundo, generando y probando hipótesis, produciendo publicaciones e incluso revisiones por pares en segundos.

Eso era sólo un experimento mental, pero revela cómo el desarrollo de la IA afecta a todo el mundo académico, no sólo a las ciencias naturales. Sin embargo, el European Centre for Algorithmic Transparency y el recién fundado consejo asesor sobre IA de la ONU tienen cero y dos miembros de Humanidades, respectivamente. En la reunión de Bruselas, yo era la única persona trabajando en Humanidades con un empleo académico a tiempo completo. Mientras tanto, un marco clave en esta reunión fue que Europa debe acelerar sus proyectos de IA para seguir siendo competitiva frente a China y EE.UU.; tal presión hace que sea seductor recortar esquinas éticas. Es esencial que las Humanidades participen en el desarrollo y la política de la IA a nivel estructural. Pero primero, las Humanidades tienen que superar no sólo su autodesaprobación, sino también su condescendencia.

Es esencial que las Humanidades participen en el desarrollo y la política de la IA a nivel estructural

Con la explosión de la IA generativa, he observado cómo a menudo la respuesta de las Humanidades tiende hacia una extraña mezcla de romanticismo y esnobismo. Abundan comentarios como "Chat GPT escribe textos terribles y llenos de clichés" o "las imágenes de Midjourney son horribles y no pueden sustituir al Arte Real". Es cierto que se han generado muchas imagenes frankensteinianas, pero la IA, mientras aún está en su infancia, también ha creado cosas espectaculares. En gran medida, nuestro campo parece haber alcanzado el consenso defensivo de que "las máquinas no pueden sustituir a la creatividad humana". Esta actitud desdeñosa equivale a afirmar que la IA generativa no merece nuestra seria atención, lo que pone anteojeras a la imaginación en que destacan las Humanidades. Mientras tanto, es posible que el crecimiento exponencial pronto permita traducir la originalidad y la emotividad en código. ¿Quizás un generador de música aprenda a leer las expresiones faciales del público, adapte la melodía en tiempo real y garantice que el 80% de la audiencia se conmueva con lágrimas? Como me dijo un científico de las ciencias naturales: "En la IA, necesitamos que las Humanidades asuman un papel protagonista". Pero para eso necesitamos volver a invitarnos a nosotros mismos.