5. Calidoscopi

Els desafiaments ètics de la intel·ligència artificial (IA)

min
Ricardo Baeza-Yates

Ricardo Baeza-Yates, catedràtic del Departament de Tecnologies de la Informació i les Comunicacions de la UPF i director d'investigació de l'Institut de IA Experiencial de la Universitat Northeastern (EUA)

La intel·ligència artificial, representada principalment per l'aprenentatge automàtic profund (deep learning), ja està present a tot arreu. Des dels nostres mòbils fins al nostre cotxe, passant pels electrodomèstics de la nostra llar i tots els ordinadors que ens envolten. Aquesta tendència, que alguns anomenen exponencial, accentua o genera nous problemes socials que, òbviament, creixen de la mateixa manera. El primer cas que va arribar a la portada de les notícies va ser l'estudi de ProPublica el 2016, que mostrava que un sistema de suport a decisions de llibertat condicional als EUA era racista. El 2018 una persona perdia la vida: una dona a Arizona era atropellada per un cotxe autònom d’Uber, ja que va creuar amb bicicleta, de nit, enmig d'una carretera, cosa que no estava en les dades d'entrenament. Ja hi ha més de mil incidents coneguts d'aquest tipus, i per això a la UPF estem treballant en la mitigació d'aquest tipus de problemes, per exemple reduir el biaix de gènere en la selecció de persones.

Sens dubte, el primer desafiament ètic és evitar la discriminació de persones, ja sigui per biaixos que existeixen en les dades (el cas més comú), biaixos que provenen de l'algoritme o biaixos que es produeixen en la interacció dels sistemes d’IA i els seus usuaris, on els biaixos cognitius de les persones fan estralls. L'exemple de ProPublica o el de més de 27 mil famílies afectades per càrrecs de frau en subsidis infantils que va afectar grups vulnerables i que va acabar amb la renúncia del govern holandès al gener del 2021 són de dades, mentre que el de Deliveroo, el mateix mes a Itàlia, que discriminava repartidors que no treballaven, és de l'algoritme. Els biaixos d'interacció inclouen el d'exposició i el de popularitat, els que afecten a tots els qui llegim notícies o fem servir comerç electrònic. Aquí, el biaix cognitiu de confirmació és aprofitat per les notícies tendencioses o directament falses.

El segon desafiament ètic és controlar que els algoritmes compleixin certes condicions bàsiques, com ja ho fem amb aliments o medicaments. Això possiblement hagués evitat la mort a Arizona o situacions ridícules com la de la vila de Bitche, que va quedar sense pàgina de Facebook durant tres setmanes perquè un algoritme per controlar llenguatge ofensiu en anglès va ser usat a França.

El tercer desafiament ètic és aturar l'ús de la IA per predir característiques personals sense existir una base científica clara que, fins i tot existint, poden afectar moltes persones. El millor exemple d'aquesta frenologia moderna és la predicció de preferències sexuals usant trets facials publicada el 2017 per un investigador d'Stanford.

Un quart desafiament ètic és racionalitzar l'ús indiscriminat de recursos computacionals i energètics per entrenar algoritmes que generen problemes ètics, com els models de llenguatge que realment no entenen la semàntica del text i després discriminen persones, per exemple si són musulmanes.

Finalment, l'últim desafiament, i potser el més important a llarg termini, és evitar que la desigualtat en la nostra societat continuï augmentant. Ja s'ha dit que la intel·ligència artificial la gaudeixen els rics i la pateixen els pobres, afegint a això que el 40% dels habitants del planeta no té Internet i el 30% no té un mòbil (però mantenen la seva privacitat!). Una possible distopia és un món futur amb dues classes, la dels humans millorats gràcies a la IA i la resta de món. I ja sabem que quan les persones no són considerades iguals, els problemes són molt més greus, i es generen revolucions o fins i tot l'exterminació d'una de les classes.