Inteligencia artificial: entre la imaginación y la utopía

Valentina Raffio

En un mundo cada vez más tecnológico y automatizado, la Inteligencia Artificial (también conocida por sus siglas IA) se ha convertido en una de las disciplinas más prometedoras de nuestros tiempos. Ante estas expectativas, este ámbito de estudio se ha ido rodeando de un halo de misterio derivado del desconocimiento general que existe a su alrededor. En el mundo del cine se han utilizado los robots para aterrorizar. En otros sectores se ha planteado la aparición de máquinas como una amenaza para el trabajo humano. Sin embargo, los objetivos de la Inteligencia Artificial están lejos de ser una amenaza real para la población. Ante su creciente influencia en el mundo actual lo mejor será empezar a entenderla tal y como es: un gran avance.

 

Descarga el PDF aquí

Cincuenta años de dominación

Desde hace más de cincuenta años, las grandes pantallas se han ido llenando de autómatas que con su aparición revolucionan la sociedad del futuro. Por norma general, hay algunos que contribuyen a la mejora del mundo ayudando a las personas a llevar una vida mejor. Pero sin embargo, los grandes guionistas parecen demostrar que la excepción hace la regla. En un mundo futuro, donde la sociedad se ha respaldado en los robots para su desarrollo, los robots son capaces de cambiar el rumbo de la evolución. Según narran la gran mayoría de historias, la más grande invención de la humanidad se gira en su contra para tener el control del planeta.

Durante décadas, el cine ha ido explotando la más grande de las debilidades del hombre para dibujar un futuro apocalíptico: su miedo a lo desconocido y su afán de conocerlo. Y justamente de este sentimiento de incertidumbre nace uno de los géneros más populares de la literatura y las artes: la ciencia ficción. En ella se plantean posibles futuros en los que la tecnología ha tenido un tremendo impacto en el desarrollo de la humanidad. Ante este panorama hollywoodiense, son muchos los que opinan que el desarrollo de las máquinas constituye un peligro inherente para la humanidad. Por un lado, se teme que la mecanización deje “obsoletos” a los humanos. Pero por el otro, también se especula sobre posibles rebeliones de los autómatas. Ante estos casos, la mejor arma contra este temor es el conocimiento.

Es innegable que actualmente el campo de la Inteligencia Artificial ha logrado impresionantes avances. Hoy en día contamos con asistentes personales en nuestros móviles, con robots de cocina capaces de elaborar deliciosos preparados y programas de juegos con la destreza de competir con el mejor de los jugadores. Pero eso es todo. Los interfaces de asistencia de nuestros móviles tan solo serán capaces de efectuar búsquedas por nosotros cuando se lo pidamos de una manera clara y concisa, los robots de cocina se limitarán a prepararnos la cena y los juegos computerizados no harán nada más allá de jugar al juego por el que han sido programados. Y hasta aquí el gran peligro de la Inteligencia Artificial en el mundo de hoy. Todas y cada una de estas máquinas han sido creadas para ejercer perfectamente una función, y eso es exactamente lo que hacen. Ni más ni menos. Sin embargo, con el pasar de los años esta disciplina se ha ido convirtiendo en fuente de inspiración para los guionistas. Por suerte, tan solo con la magia es capaz de convertir los avances de la Inteligencia Artificial en seres capaces de dominar el mundo.

¿Qué es la inteligencia?

En la Edad Media, eran muchos los que creían que detrás de los muelles de un reloj debía esconderse alguna forma de inteligencia primitiva. De no ser así, parecía imposible entender cómo un conjunto de engranajes era capaz de conocer la hora exacta en todo momento. En aquel entonces se asociaba la inteligencia con todo aquello que era aparentemente inexplicable. Hoy en día, los relojes han pasado a formar parte de nuestra vida diaria y ya nadie se pregunta si son inteligentes o no. Nuestra concepción del concepto ha variado. Poco a poco se ha ido diferenciando aquello mecánico de aquello inteligente, acotando cada vez más el término. En la antigua Grecia, por ejemplo, Aristóteles decía que el hombre es un animal racional dada su capacidad de efectuar cálculos. Entonces, la resolución de problemas aritméticos era un signo inequivocable de inteligencia ligada al ser humano. No obstante, con la evolución de la tecnología, hoy en día la más simple de las calculadoras es capaz de resolver ecuaciones a una velocidad inalcanzable para la mente humana. ¿Pero podemos considerar estos artilugios como inteligentes? Una vez más, la respuesta reside en la misma definición del concepto. 

En primer lugar, hay que tener en cuenta que hablando en términos generales la inteligencia es un concepto que se redefine según el observador. Es, por lo tanto, una propiedad que reside en los conocimientos y en la capacidad de quien observa y de su época y no tanto en el objeto observado. De la misma manera que nos sorprendemos ante un truco de magia, lo que más nos asombra de la situación es nuestro desconocimiento sobre su mecanismo. Con la creación de máquinas para calcular, por ejemplo, la racionalidad matemática ha dejado de considerarse como un símbolo de inteligencia apreciado por el mismo Aristóteles. 

Sin embargo, si acotamos el concepto desde el puro punto de vista de la disciplina (IA) no es difícil establecer unos parámetros básicos para definir qué es exactamente la inteligencia: definiremos como inteligente aquel que posee la capacidad de resolver problemas. A partir de aquí queda abierto un amplio campo de especulaciones sobre qué o quién lo es. Y es justamente ante esta incertidumbre que surge el estudio de la Inteligencia Artificial como una vía para la comprensión de los mecanismos que conducen a una conducta inteligente.

Los precedentes
Uno de los primeros teóricos en plantearse que la inteligencia podía no residir exclusivamente en los humanos fue el británico Alan Turing. Este pionero en el ámbito de la computación empezó a preguntarse si una máquina era (o podía ser)
inteligente. Para responder a esta cuestión creó un test para evaluar la capacidad de los ordenadores de asemejarse a la inteligencia humana. En el conocido como “Test de Turing” un entrevistador plantea preguntas paralelas a una máquina y a otra persona, sin saber en ningún momento quién es quién. La prueba finaliza cuando el entrevistador es capaz de identificar con quién está hablando. Con este simple test se puso de manifiesto que los ordenadores son capaces de responder de manera inteligente e incluso acercarse a un razonamiento humano. Su único límite, el punto en que el entrevistador notaba la presencia de una máquina, era la expresión de opiniones o juicios de valor. Incluso antes de que se forjara el término de Inteligencia Artificial, Turing fue capaz de iniciar un estudio de la inteligencia desde el punto de vista computacional, poniendo las bases para la futura disciplina.


Programar sobre hombros de gigantes
Tras los descubrimientos de Turing tuvieron que pasar décadas para que se volviera a despertar el interés en el tema. No fue hasta el año 1956 que se produjo la primera reunión de expertos en el ámbito de la inteligencia. Ese año, un amplio grupo de matemáticos, psicólogos, ingenieros, biólogos y lingüistas se reunieron en el Dartmouth College de New Hampshire. El reto de aquel congreso era conseguir definir en lo más mínimo todas las características típicas de la inteligencia. El siguiente paso sería conseguir acotarlas y transferirlas a una máquina. En esta reunión histórica se planteó una amplia investigación de la inteligencia humana con el objetivo de simularla en los robots, de manera que estos aprendieran a utilizar el lenguaje, formar conceptos, resolver problemas y mejorarse a sí mismos. Pero el proyecto fracasó: la unión tan amplia de especialidades había acabado por imposibilitar el progreso. Aún así, se consiguió plantear un tema fundamental sobre la mesa: la creación de una inteligencia artificial a partir del estudio de la inteligencia humana.

 

Como seres humanos, siempre nos hemos definido a partir de nuestra capacidad de pensar. Justamente bajo esta óptica nos hemos autodenominado Homo Sapiens. Es por esto que se han dedicado tantos estudios a intentar comprender el funcionamiento de nuestro cerebro y, consecuentemente, nuestra capacidad de razonar. El concepto de mente ha ido quedando en un segundo plano dando paso a lo que en biología se conoce como funciones cerebrales, algo mucho más concreto y sistematizable. Con la evolución de nuestro conocimiento han ido surgiendo un paralelismo cada vez más claro entre la mente humana y desarrollo de las máquinas. Si se consigue formalizar un problema, es posible que también se consiga que lo resuelva un ordenador. Es decir, al reducir un pensamiento a meros impulsos eléctricos también debería ser posible transmitirlo a una máquina. En este sentido, son muchos los que opinan que el desarrollo de la disciplina de la Inteligencia Artificial se dibuja en dos planos. Por un lado, se trata de la reproducción de comportamientos inteligentes sobre máquinas. Pero por el otro, también acaba siendo una investigación paralela sobre la inteligencia natural.

Presente y futuro de la disciplina

Hector Geffner (UNIVERSITAT POMPEU FABRA)
··· Director del grupo de investigación Artificial Intelligence Group

 

¿Qué entendemos por inteligencia?
La capacidad de resolver nuevos problemas.


¿Qué necesitamos para delimitarla?
Una gran parte de la inteligencia descansa en buena parte de capacidades que aparentemente no la requieren. Poder observar una imagen, reconocer una situación, mantener una conversación. Todo este tipo de cosas que a priori no solemos relacionar. No vamos a decir que una persona es inteligente porque sea capaz de reconocer a alguien o porque pueda mantener un diálogo. Cuando intentas capturar estas acciones de forma computacional te das cuenta de la dificultad.

¿A qué se debe esto?
La mayor parte de problemas se resuelven de manera inconsciente. Es por eso que, cuando hablamos de habilidades humanas, no se le da el honor de considerarse inteligencia. En términos humanos consideramos inteligente a aquel que es capaz de resolver problemas complejos o jugar bien al ajedrez, por ejemplo.

¿Es posible predecir la reacción de un ordenador?
Hoy en día es muy difícil prever qué va a hacer un ordenador. Si observamos a un programa de ajedrez, que de inteligencia artificial no tiene nada, vemos un programa que tan solo sabe jugar al ajedrez y que sabe hacerlo muy bien. Si me preguntas si los programadores del Deep Blue - super ordenador creado para jugar al ajedrez - saben qué va a hacer el programa en cada una de las jugadas te diría que ellos en principio podrían intentar preverlo a partir de como lo programaron. Pero en realidad no sabemos si pueden.

¿En qué punto de su evolución se encuentra la IA?
Desde el punto de vista académico, el desarrollo de la Inteligencia Artificial es una consecuencia de la creación de los computadores modernos. Estamos hablando de los últimos cincuenta, setenta años. Se trata de querer capturar las habilidades humanas asociadas a la inteligencia en un ordenador. A partir de los 50 y 60, cuando aún era muy difícil programar los ordenadores por su baja capacidad de computación, la inteligencia artificial era una disciplina básicamente exploratoria. 

¿Y los recientes avances a qué se deben?
La diferencia que ha marcado los avances de los últimos años ha sido el interés de las grandes empresas por utilizar inteligencia artificial.

¿Hasta dónde podemos prever que llegará?
Hoy día estamos bastante lejos de poner límites al desarrollo de la Inteligencia Artificial, si bien a veces se oyen temores sobre el peligro de programar el mundo. En estos momentos, los robots no pueden competir con la inteligencia humana. Aun así, hay nichos en los que la inteligencia artificial puede empezar a rivalizar con los humanos y afectar al mercado de trabajo, sobretodo en trabajos de tipo mecánico.

¿Debemos entenderlo como una amenaza?
Estamos muy lejos de robots humanos al estilo de las películas. Eventualmente, podemos decir que hay límites computacionales. Los computadores no pueden resolver cualquier cosa. Y esto no es meramente una cuestión de tiempo.

¿Y estos son los únicos límites?
Sí, pero eso no significa que las personas no podamos avanzar. Tenemos sistemas cada vez más inteligentes y cada vez más artificiales. El avance dependerá del control social que haya para este tipo de desarrollo. El momento de crisis y de déficit democrático demuestra que muchas veces las cosas no se hacen por el bien común. Por eso es necesario cada vez un mayor poder político que maneje la agenda de la futura inteligencia artificial.


¿Qué marcará el futuro de esta disciplina?
Las compañías subvencionan y ponen dinero, pero tienen una visión relativamente de corto plazo. En España el financiamiento es poco, por no decir casi del todo inexistente. Sin embargo, en otros contextos, desde el sector público y la universidad, se intentan llenar los nichos de las agendas de la empresa. Pero dada la situación económica esto acaba siendo muy complicado. La agenda científica no es inmune a las influencias del mercado, aún así esperemos que tampoco sea inmune al control democrático y social. Cuando más dormida esté una sociedad, peor nos irá.

La carrera del coche automático

Uno de los mayores avances en el ámbito de la Inteligencia Artificial es sin duda la creación de coches automáticos capaces de conducirse solos. Esta novedad representa uno de más evidentes logros recientes de esta disciplina y, a la vez, nos demuestra hasta qué punto se ha avanzado. Este tipo de vehículos están siendo comercializados por Google o Tesla, empresas muy diferentes entre sí pero con un claro objetivo común: enfocar el futuro de una manera diferente. El gigante de Google y la gran empresa automovilística Tesla han apostado por el futuro de la automoción: coches inteligentes capaces de guiarnos por todo el mundo en total comodidad. Mínimo esfuerzo para grandes resultados. En ambos casos, las empresas han conseguido diseñar un software capaz de “ver” la carretera, detectar coches colindantes y guiarse por las líneas del recorrido. Unas sencillas normas de base para desarrollar el coche del futuro. Todo el mundo sabe cómo actuar en la calle: normas de conducción, toma de decisiones, reacción ante imprevistos. Y, por lo que parece, ahora también puede hacerlo un determinado tipo de coche.

Estos primeros vehículos con opción de “piloto automático” fueron comercializados bajo una sencilla pero lapidante condición: el software se encuentra en fase beta (experimental). Por lo tanto, se recomienda a sus conductores que no confíen exclusivamente en esta tecnología. Es justamente por ello que los compradores de este tipo de vehículos se vieron obligados a firmar un contrato eximiendo de responsabilidades a la casa automovilística en caso de fallo o accidente. Lo que parecía ser una cláusula sin más importancia que cualquier otra ha acabado por convertirse en el punto de mira de un debate que va más allá del propio coche. Recientemente, un hombre moría tras un accidente mortal en un Tesla S, teniendo el piloto automático encendido. Según las primeras investigaciones, el conductor estaba mirando distraídamente una película con el sillón en modo casi horizontal cuando un camión le cortó el camino. Fue entonces cuando se produjo el choque.

El piloto automático, incapaz de reaccionar a tiempo, llevó directo a su tripulante hacia la muerte. Ante la bifurcación entre evitar un choque o salvar la vida del piloto el coche automático acabó su carrera. ¿Pero finalmente de quién es la culpa? Los coches automáticos actualmente representan uno de los más grandes avances en Inteligencia Artificial. Aún así, hechos como este demuestran que queda un largo camino por hacer. Hay quienes opinan que la culpa es del programador por lanzar al mercado un vehículo que aún no era 100% seguro. Otros creen que el responsable es la propia víctima, quien no evitó el impacto. Lo que por ahora parece claro, es que este choque ha marcado un claro límite al avance actual de la Inteligencia Artificial. En contra de lo que muchos piensan, quizás en el futuro hiper-
tecnológico la presencia humana tendrá más peso de lo que se cree. Al fin y al cabo,
una decisión humana puede marcar el límite entre la vida y la muerte.

Presente y futuro de la Inteligencia Artificial

Vicenç Gómez, investigador post-doctoral
Sergio Jiménez Celorrio, investigador post-doctoral

·· Miembros del grupo de investigación Artificial Intelligence Group

 

¿En qué punto creéis que nos encontramos en la evolución de la Inteligencia Artificial?
SJC: En un punto donde ha habido avances cualitativos y cuantitativos debido al aumento del poder de computación y al aumento de datos. Existe una Ley de Moore que expone de qué manera se producirá un crecimiento exponencial de la capacidad
de computación. Según esta, se calcula que aproximadamente cada dos años se duplica el número de transistores en un microprocesador. Esto se da en varias áreas: en el poder de computación o en el número de datos que hay a disposición para ser procesados, entre otros.

VG: Hay que tener en cuenta que ha habido un boom muy importante ya el hardware que tenemos es mucho más poderoso. Entonces los algoritmos que eran capaces de resolver problemas pequeños, ahora pueden resolver problemas mucho
más interesantes. En este sentido hay que tener en cuenta la existencia de dos grandes ramas: la simbólica y la subsimbólica, que no son más que dos diferentes aproximaciones para resolver los problemas. Parece que ahora hay un gran avance
en la parte no simbólica. La inteligencia artificial es como un péndulo: hay momentos en los que la parte simbólica se produce un gran avance y que parece que va a liderar el desarrollo de la Inteligencia Artificial y momentos en los que es al revés.

¿Si tuviéramos que fijar el punto máximo al que ha llegado la inteligencia artificial por dónde empezaríamos?
SJC: Lo más concreto es en la parte de aplicaciones. Sería la muestra más concreta de los avances cualitativos. Ahora podemos hacer cosas que antes no se podían hacer: coches que conducen solos, progresos en juegos de mesa. Ahora van apareciendo aplicaciones que cuestionan el Human-Level Performance: cosas que se suponía que sólo podían hacer los humanos, ahora también las pueden hacer las máquinas. 

VG: Con el Human-Level Performance se ha conseguido avanzar en tareas concretas, no en problemas abiertos. Algo muy bien definido. Estos los podemos resolver como las personas o incluso mejor, pero siempre hablando de acciones muy y muy
concretas.

¿Cuál es el futuro máximo al que podrá llegar la Inteligencia Artificial?
SJC: Yo creo que se irán automatizando más las cosas. Esto pasará a estar integrado en nuestras tareas cotidianas. Cada vez hay más integración, aparecen nuevas aplicaciones y a la vez nuevos requerimientos. Entonces imagínate el límite en un mundo en el que la mayoría de cosas estén automatizadas. En general, todo lo que son aspectos sociales con interacción humana, aspectos multiagentes con toma de decisiones conjuntas se plantea como un problema. Otro tema se plantea desde el punto de vista de la ética. Si nuestro coche va a estar conducido automáticamente ¿de quién va a ser la culpa?

VG: Los límites hoy en día se producen por dos razones. En primer lugar, porque tan solo podemos intentar resolver problemas que somos capaces de escenificar. Nada que se refiera a emociones, ya que no sabemos cómo definirlas o formalizarlas. Y también es por ello que no podemos pedirle a una máquina que resuelva una orden inexistente. Entonces, en cuando vaya avanzando la capacidad de formalizarla podremos ir desdibujando los límites. Mientras, estamos muy lejos de entender cómo funcionan muchas cosas. Parece que a los científicos se nos exige dar respuesta a esto. Personalmente no creo que deba ser así. Yo día a día llego a mi despacho e intento resolver algoritmos y problemas concretos de matemática. Los dilemas éticos que se deriven de este trabajo deberán estudiarse desde otro punto de vista, pero nunca desde un punto de vista matemático. A veces siento la presión de tener que responder a preguntas de este tipo: ¿cuál va a ser el futuro? No lo sé. Yo me dedico a resolver algoritmos y problemas matemático. El futuro deberíamos decidirlo entre todos, ya que es algo que va mucho más allá de los números. Si se espera que la solución venga de nosotros investigadores mal vamos.

¿Entonces quién debería encargarse de resolver los dilemas éticos de se deriven de esta disciplina?
VG: Democráticamente. Cuantas más personas tengan voz y voto mejor. Son cuestiones políticas. Como qué modelo de educación quieres para tu país. Sería como dejar la economía solo en manos de economistas. En concreto existe una rama de la Inteligencia Artificial que se dedica a estudiar este tipo de cuestiones: la bioética.

¿Qué diferenciará la inteligencia humana de la artificial?
SJC: Una integración. ¿Qué quiere decir diferenciar la inteligencia artificial de la no artificial? Aquí hay una serie de facultades que son la inteligencia y que se atribuyen a entidades que son capaces de mostrar un comportamiento que caracterizamos como inteligente. Si lo hace un robot le llamamos inteligencia artiicial, si lo hace una persona le llamamos inteligencia a secas. Al fin y al cabo la inteligencia es más que nada subjetiva. Si le pones un programa a una persona que no sabe de computación podría pensar que ese programa es extremadamente inteligente.

¿Cuál es el objetivo final del desarrollo de la IA?
VG: El fin último es hacer un mundo mejor. La ciencia pretende entender cómo funcionan las cosas, para mejorar en todo lo posible. En nuestro ámbito queremos automatizar los procesos que a las personas no nos gusta hacer, para que podamos dedicar tiempo a lo que realmente nos interesa.

¿Competencia?
SJC: Con la máquina de vapor pasó lo mismo. Muchos se preguntaron cuál era su objetivo. Al final el desarrollo va marcado por el modelo de financiación con el que cuentas, que en la mayoría de casos es financiación externa. No es lo mismo que te subvencione tu gobierno que lo haga una empresa privada, ya que sus intereses están muy enfocados al beneficio comercial. Google, por ejemplo, tendrá unos intereses muy concretos. Serán los intereses de Google. La investigación cada vez
está orientada a intereses más privados.

VG: En la industria es donde hay más poder de computación, que es lo que ha permitido que se produzcan los avances que comentábamos al principio. Esto pasa en cualquier campo de investigación científica. En las farmacéuticas, etc. Si tienes dinero puedes proponer tu propia línea de investigación.

Lo que nos hace humanos

Recuerdo como si fuera ayer el día en que vi por primera vez El hombre bicentenario, una de las primeras películas que haría reflexionar sobre el límite entre los robots y los seres humanos. Andrew es un robot mayordomo que se encarga de las tareas de domésticas de la familia Martin. En un principio, es el robot perfecto. Obedece a las órdenes, es capaz de ejecutar acciones de manera eficaz y sabe cuál es su lugar en todo momento. Sin embargo, un día muestra un comportamiento anómalo. El robot empieza a experimentar emociones tales como la tristeza, el remordimiento o la culpa. Esto hace que se “reprograme” para ejecutar sus propias órdenes. En un principio, la fábrica considera este comportamiento como un error que demuestra una clara tara en el producto e incluso se ofrecen a cambiarlo por uno nuevo. Pero la familia Martin se opone al ver en Andrew algo especial. Poco a poco el robot va ganando autonomía y acaba por emanciparse de sus dueños para empezar una nueva vida. ¿Su nuevo objetivo? Convertirse en ser humano.


Es curioso observar como el desarrollo del ser humano siempre ha ido ligado a la voluntad de mejorarse a sí mismo, hasta límites inexplorados, alcanzando facultades similares a las de los dioses. Las fantasías sobre cyborgs y hombres mejorados constituyen uno de los grandes hitos del mundo de la ciencia ficción. Y, en el fondo, uno de los más grandes sueños del ser humano. Pero en el caso de Andrew su sueño iba en dirección contraria. Frente a todas las fantasías de hombres cibernéticos, en El hombre bicentenario se planteaba el sueño de conseguir ser humano. Para ello, el primer paso es plantearse diferentes preguntas, entre lo existencial y lo puramente mecánico. ¿Qué es lo que nos hace humanos? Si nos definimos en base a la inteligencia, Andrew lo era desde un principio. Si, en cambio, nos dejamos definir por otros parámetros más emocionales entenderemos, por contraposición, que las máquinas jamás serán capaces de mostrar ninguna emoción.


En esta emblemática película se demuestra como en el desarrollo del hombre, de los robots, o de la propia inteligencia artificial, lo más importante es definir bien los conceptos. Dependiendo de cómo - y dónde - marquemos el límite de desarrollo tecnológico nos acabaremos definiendo a nosotros mismos. Y en este sentido, también se destaca la necesidad de trabajar mucho más allá de los puros términos tecnológicos. Conforme la Inteligencia Artificial avance necesitaremos nuevas normas sociales, éticas y protocolos de actuación. De esta manera, el futuro no quedará marcado tan solo por los avances tecnológicos sino por lo que nosotros decidamos que sea.