¿Puede un computador engañar a un ser humano?

El test de Turing reta a las máquinas a imitarnos, y estas lo hacen con cada vez más éxito. Pero el potencial de la inteligencia artificial va mucho más allá de llegar a suplantarnos.

¿Puede una máquina engañar a un ser humano? La inteligencia artificial se está desarrollando rapidísimamente y es capaz de realizar tareas cada vez más complejas. Es tal la velocidad que aflora el temor de que algún día nos suplante. Pero, ¿puede ser inteligente una máquina?

En 1950, el informático Alan Turing se planteó una pregunta similar. Turing no contemplaba necesariamente un futuro dominado por máquinas, pero sí quería llegar a descubrir si las máquinas eran capaces de pensar.

A lo largo de la historia, muchas voces han argumentado que las personas tenemos algún tipo de esencia que nos distingue de otros seres vivos, e incluso de nuestros parientes animales más cercanos. Pero, desde que la inteligencia artificial comenzó a cobrar protagonismo hace ya más de medio siglo, este debate se ha centrado en decidir hasta qué punto es especial la inteligencia humana en comparación con la de un ordenador.

Esta es una pregunta complejísima, más aún teniendo en cuenta que ni la filosofía de la mente, ni la psicología ni la neurociencia han sabido llegar a un consenso sobre una definición de “inteligencia” que sea lo suficientemente precisa y que abarque tanto la humana como la de las máquinas. Turing ya era consciente de esta dificultad, por eso quiso reducir la pregunta a una más concreta. Para ello, diseñó su famoso test.

Juego de imitación

Aunque la cultura popular ha adoptado una versión simplificada del test, la propuesta original es un juego de imitación. En el juego participan una máquina, una mujer y otra persona (de cualquier género) que hace de interrogadora. La interrogadora no ve a la máquina ni a la mujer, y se comunica con ellas por escrito. A través de sus respuestas, tanto la máquina como la mujer intentan convencer a la interrogadora de que son la mujer.

Así, Turing llega a la pregunta concreta: ¿puede una máquina hacerse pasar por un ser humano? Hoy en día no es nada raro que nos expongamos a este tipo de juicios, de manera consciente o inconsciente. Cada vez más servicios de atención al cliente o de ayuda se realizan a través de chat, y al otro lado no siempre hay una persona. En algunos de ellos, quien nos responde es un chatbot, es decir, una inteligencia artificial que interpreta nuestra pregunta y responde con el mensaje más adecuado que pueda producir.

Un chatbot muy convincente

Aunque a veces podamos identificar fácilmente que las respuestas no suenan naturales, algunos chatbots han conseguido parecer humanos hasta el punto de ganar concursos por ello. En 2014, un programa de ordenador al que sus creadores llamaron Eugene Goostman consiguió convencer a diez de entre 30 jueces de que era humano. El chatbot, que mantuvo las conversaciones en inglés, se hizo pasar por un niño ucranio de 13 años, con la intención de justificar sus posibles errores gramaticales y su falta de conocimiento.

El hito tuvo una marcada resonancia mediática ya que en 1950 Turing había predicho que, para el año 2000, las máquinas serían capaces de engañar al 30% de un jurado humano con pocos minutos de conversación. En realidad, como admitía el propio equipo organizador, otros ordenadores ya habían engañado al 50% del jurado incluso en 1991, de modo que la predicción de Turing se cumplió con creces. Pero el concurso de 2014 consiguió generar un interés social mucho mayor.

Con todo, la celebración mediática del éxito de Goostman no estuvo exenta de críticas. Aparte de recalcar que no era la primera vez que se cumplía la predicción de Turing, se alegaba que la cifra del 30% de jueces era arbitraria. Efectivamente, el test de Turing original no plantea un número mínimo de jueces a quienes la máquina deba convencer de que es humana, y en este sentido son muchos los programas de ordenador que han superado la prueba.

De hecho, hasta 2020 el Premio Loebner concedía anualmente la medalla de bronce al chatbot más parecido a un ser humano según el juego de imitación original de Turing. Además, se contemplaba una medalla de plata para un ordenador que convenciera a una persona de que era un ser humano, y también de que la otra persona era, a su vez, una computadora.

Las pruebas se desarrollaban solamente mediante texto, como Turing propuso. Pero, para optar a la medalla de oro en el Premio Loebner, sería necesario que un ordenador se disfrazara con éxito de humano, añadiendo las dimensiones visual y auditiva a la prueba. Según las reglas establecidas en 1990, las medallas de plata y oro solo se otorgarían una vez, aunque desde 2020 el concurso se dejó de celebrar sin que nadie hubiera recibido estos premios.

La imitación visual y auditiva de seres humanos quizá esté lejos de conseguirse, pero desde luego la inteligencia artificial es cada vez más hábil a la hora de imitarnos. Por ejemplo, GPT-3 ya produce textos prácticamente indistinguibles de los que podría redactar una persona culta. No es un chatbot y por eso no está en condiciones de concurrir al test de Turing, pero atestigua el gran progreso de la inteligencia artificial en los últimos años.

¿Para qué sirven las máquinas inteligentes?

Hay voces, sin embargo, que critican el test de Turing y, sobre todo, la existencia de premios como el Loebner. Alegan que distraen del objetivo principal de estas tecnologías o que son meras estrategias publicitarias que no benefician a este campo de conocimiento. Y, en efecto, el verdadero potencial de la inteligencia artificial no está en engañar a nadie.

En realidad, la mayoría de las aplicaciones de esta tecnología está en tareas concretas que a los humanos nos cuestan mucho. Por ejemplo, está claro que las máquinas tienen una capacidad de cálculo y de procesamiento de información mucho mayor a la nuestra. Gracias a ella contamos con algoritmos que diagnostican tumores, determinan la forma de las proteínas o diseñan rutas de reparto mejor que una persona experta.

En cambio, para superar el test de Turing conviene cometer erratas, ser algo susceptible a los insultos, tener la tentación de mentir… Características poco inteligentes, a todas luces, aunque muy humanas.

Stuart Russell y Peter Norvig, investigadores referentes en inteligencia artificial, proponen una oportuna analogía: la misión de la ingeniería aeronáutica no es diseñar máquinas que vuelen de manera tan parecida a un águila que sean capaces de suplantarla. Más bien, el vuelo de las máquinas se adapta a la tarea para las que están diseñadas. De la misma forma, la mayor parte de la investigación actual en inteligencia artificial no se centra en superar el test de Turing.

Ahora bien, Turing no procuraba que su test fuera el rasero definitivo para demostrar la inteligencia ni la calidad de un programa de ordenador. Simplemente pretendió ofrecer una pregunta clara para informar el debate filosófico (que no necesariamente práctico) sobre la inteligencia artificial. E hizo historia con ella.

El test de Turing sí tiene una aplicación práctica y muy cotidiana: el CAPTCHA. Esos cuadraditos con trozos de fotografías en las que hay que hacer clic si contienen semáforos, o esas letras distorsionadas que hay que escribir en la casilla pretenden asegurar a la página web donde aparecen de que al otro lado hay un ser humano y no una máquina que quiera abusar de los servicios de la web. Aquí, el papel de juez lo desempeña el propio ordenador, asumiendo que no existe máquina lo suficientemente sofisticada como para resolver el CAPTCHA. Por supuesto, ha habido varias propuestas de programas de ordenador capaces de resolver los retos CAPTCHA con una eficacia cada vez mayor.