10. Els nostres alumni

“Els actuals models d’aprenentatge d’intel·ligència artificial (IA) actuen com a ‘caixes negres’. Desconeixem què passa entre l’entrada de dades i la sortida d’una predicció”

Berta Benet i Javier Rando, alumni del grau en Enginyeria Matemàtica en Ciència de Dades de la UPF i membres de l’startup EXPAI.

min

Detectar algoritmes masclistes, racistes o LGTBIfòbics; explicar com funciona la intel·ligència artificial o augmentar la confiança en els models matemàtics. Aquesta és la revolucionària idea d’EXPAI, una startup formada per Berta Benet i Javier Rando, alumni del grau en Enginyeria Matemàtica en Ciència de Dades de la UPF, i que compta amb la participació de Carles Soler, professor associat del Departament de Tecnologies de la Informació i les Comunicacions. Es tracta de la primera empresa emergent de tot Europa especialitzada a combatre els perills, la falta de transparència i els reptes de la intel·ligència artificial.

Parlem amb ells per descobrir el seu projecte i conèixer com han arribat fins aquí. EXPAI és un dels projectes seleccionats en la segona convocatoria d’“En residencia a l’àrea Tallers” i va participar al 4YFN de la mà de la UPF.

Què és EXPAI? Què voleu resoldre amb la vostra startup?

Anomenem intel·ligència artificial (IA) la tecnologia que ens permet replicar comportaments que, quan són desenvolupats per humans, diem que aquests demostren intel·ligència: entendre el llenguatge natural, interpretar imatges, llegir, aprendre, prendre decisions... Aquests sistemes són cada dia més utilitzats per les empreses per agilitzar els seus processos i augmentar l'eficiència de les seves operacions.

Cada dia són més els sistemes d'intel·ligència artificial que estan substituint o donant suport als humans en la presa de decisions sensibles com la concessió d'un préstec. La ràpida adopció d'aquesta tecnologia sense regulació prèvia ha provocat nombrosos escàndols. Per exemple, Amazon va implementar un sistema automàtic de selecció de personal que descartava les dones. Als Estats Units, es va demostrar que un algoritme que ajudava els jutges a decidir si una persona havia d'ingressar a la presó preventivament discriminava les persones afroamericanes.

Els actuals models d’aprenentatge d’intel·ligència artificial (IA) actuen com a ‘caixes negres’. Desconeixem què passa entre l’entrada de dades i la sortida d’una predicció

A més, en les empreses hi ha reticències a l’hora d’adoptar aquests sistemes per la dificultat d’entendre'ls. Encara que puguin semblar problemes molt diferents, tenen un origen comú, i és que els actuals models d’aprenentatge d’intel·ligència artificial (IA) actuen com a "caixes negres". És a dir, són sistemes matemàticament complexos en els quals desconeixem què passa dins el model entre l’entrada de dades i la sortida d’una predicció. Aquesta operativa sempre ha estat vista com una problemàtica.

La intel·ligència artificial explicable (IAX) és l’àmbit de la IA que permet arribar a conèixer el raonament dels models per arribar a les seves prediccions. Aconseguir que aquests processos de presa de decisions siguin transparents per a desenvolupadors i usuaris és una mesura essencial per assegurar un futur més just i millorar l'eficiència de les empreses. Aquesta és la motivació que porta a la fundació d’EXPAI.