¿La inteligencia artificial es tan inteligente como pensamos?

Sara Ibrahim

Los ordenadores toman cada vez más decisiones importantes por nosotros. ¿Debemos permitirlo? Un equipo de investigación del Instituto Suizo Idiap muestra cómo la inteligencia de las máquinas es en gran medida una ilusión.

¿Piensan las máquinas? Así comienza la obra más famosa del matemático británico Alan Turing. Publicado en 1950, el artículo sentó las bases de la concepción y definición de la inteligencia artificial (IA). Para responder a su pregunta, Turing inventó el «juego de imitación», que aún hoy se utiliza para juzgar la inteligencia de una máquina.

En el juego, conocido posteriormente como el Test de Turing, participan tres jugadores: el jugador A es un hombre, el jugador B es una mujer y el jugador C, que desempeña el papel de entrevistador, puede ser de cualquier sexo.

El que interroga (jugador C) no puede ver a los otros dos jugadores y hace una serie de preguntas por escrito para determinar cuál de las dos personas es el hombre y cuál la mujer. El objetivo del hombre es engañar al entrevistador, dando respuestas falsas. La mujer, por su parte, tiene que ayudarle a identificarla.

Imagine ahora que el jugador A es sustituido por un ordenador. Turing escribió que si el que interroga es incapaz de distinguir entre un ordenador y una persona, el ordenador debería ser considerado una entidad inteligente, cognitivamente similar a un ser humano.

Setenta años después, los resultados de la prueba son sorprendentes. «Por el momento, ni un solo sistema de inteligencia artificial, y quiero decir ni uno solo, ha superado la primera prueba de Turing», afirma Hervé Bourlard, que dirige Indiap, el Instituto de Investigación con sede en Martigny, en el cantón del Valais, especializado en inteligencia artificial y cognitiva.

Ni artificial ni inteligente

Tras caer en desuso en los años 70 -considerado entonces anticuado y ridículo-, el término inteligencia artificial volvió a ponerse de moda en los 90 «por razones publicitarias, de marketing y comerciales», explica Hervé Bourlard, también profesor de ingeniería eléctrica. «Pero sin ningún progreso real salvo en lo que se refiere a la potencia de los modelos matemáticos».

Según el profesor, la inteligencia artificial no existe porque ningún sistema refleja la más mínima inteligencia humana. Incluso un bebé de dos o tres meses puede hacer lo que una IA nunca sería capaz de hacer.

Un ejemplo sencillo para demostrarlo. Imaginemos un vaso de agua en una mesa. Un niño sabe muy bien que si se vuelca, el vaso quedará vacío. «Por eso disfruta derramándolo. Ninguna máquina del mundo es capaz de entender esa diferencia», explica Hervé Bourlard.

Lo mismo ocurre con el sentido común, una capacidad humana que las máquinas no pueden imitar y, según el científico, nunca lo harán.

La inteligencia está en los datos

Sin embargo, la IA está bien establecida en muchos sectores empresariales y contribuye cada vez más a los procesos de toma de decisiones en campos como los recursos humanos, los seguros y los préstamos bancarios, por nombrar solo algunos.

Al analizar el comportamiento humano en Internet, las máquinas están aprendiendo quiénes somos y qué nos gusta. Los sistemas de recomendación filtran la información menos relevante y nos recomiendan películas para ver, noticias para leer o ropa que nos puede gustar en las redes sociales.

Pero eso no hace que la inteligencia artificial sea inteligente, asegura Bourlard, que asumió el cargo de director de Idiap en 1996. El profesor prefiere hablar de aprendizaje automático. Según Bourlard, hay tres aspectos que hacen que la IA sea poderosa a su manera: la potencia de cálculo, los modelos matemáticos y las enormes y extendidas bases de datos.

Los ordenadores son cada vez más potentes y la digitalización de la información ha permitido mejorar enormemente los modelos matemáticos. Internet y sus interminables bases de datos han hecho el resto, llevando las capacidades de los sistemas de IA cada vez más lejos.

Idiap pretende mostrar al público la importancia de los datos para las máquinas a través de una serie de demostraciones, que se expondrán en el Musée de la mainEnlace externo de Lausana a partir del 1 de abril de 2022.

El público tendrá la oportunidad, por ejemplo, de experimentar cómo la tecnología basada en la IA que hay detrás de las cámaras de nuestros teléfonos inteligentes puede mejorar significativamente la calidad de las imágenes de baja resolución o, por el contrario, empeorarla, dependiendo de los datos con los que cuente.

 Sophia, primer androide social del mundo, fue desarrollada en Hong Kong en 2015 y es capaz de reproducir más de 62 expresiones faciales humanas. Entrevistada por los medios de comunicación, Sophia impresionó con sus respuestas. Sin embargo, algunas se consideraron sin sentido y artificiosas.

No es un proceso fácil, sino que requiere una gran cantidad de datos de buena calidad que deben ser anotados, o «etiquetados», por un humano (aunque no de forma totalmente manual) para que sean comprensibles para una máquina. «No se trata de algo que tenga vida propia, sino de un sistema que se alimenta de datos», explica Michael Liebling, responsable del Grupo de Bioimagen Computacional de Idiap.

Eso no significa que la IA no presente riesgos. Los límites de las máquinas dependen de los límites de los datos. Eso, según Liebling, debería hacer reflexionar a la gente sobre dónde se encuentra el verdadero peligro. “¿El riesgo es una máquina de ciencia ficción que pueda conquistar el mundo? ¿O el riesgo está en la forma de distribuir y anotar los datos? Personalmente, creo que la amenaza reside en la forma de gestionar los datos más que en las propias máquinas», opina Liebling.

Se requiere más transparencia

Los gigantes tecnológicos como Google y Facebook son muy conscientes del poder de los modelos alimentados por cantidades masivas de datos. Han construido sus negocios en base en ello. Esto, junto con la automatización de ciertas tareas humanas, es lo que más preocupa a la comunidad científica.

Timnbit Gebru, que trabajó como investigador de Google, fue despedido por criticar los vastos e impenetrables modelos lingüísticos que sustentan el motor de búsqueda más utilizado del mundo.

El límite de los modelos de aprendizaje automático reside en -al menos hasta ahora-  no han demostrado una capacidad de razonamiento igual a la nuestra. Son capaces de dar respuestas pero no de explicar por qué han llegado a una determinada conclusión.

«Es esencial hacerlas transparentes y comprensibles para un público humano», afirma André Freitas, que dirige el grupo de investigación Reasoning & Explainable AI en Idiap. Su equipo está diseñando modelos capaces de explicar las vías de deducción.

El objetivo es transformar los complejos algoritmos y la jerga técnica en conceptos comprensibles y accesibles. Como las aplicaciones de la IA tienden a impregnar nuestras vidas, André Freitas hace la siguiente recomendación: «Cuando te enfrentes a un sistema de IA, desafíalo a que se explique».

Ilusión de inteligencia

La IA se describe a menudo como la fuerza motriz de las innovaciones actuales. Naturalmente genera entusiasmo y grandes expectativas. Los ordenadores que utilizan modelos de redes neuronales, inspirados en el cerebro humano, están demostrando su eficacia en ámbitos antes impensables.

«Esto nos ha llevado a creer que la IA llegará a ser tan inteligente como nosotros y que resolverá todos nuestros problemas», señala Lonneke van der Plas, directora del grupo de Computación, Cognición y Lenguaje de Idiap.

Esta científica pone el ejemplo de las capacidades cada vez más avanzadas de los sistemas lingüísticos, como los asistentes virtuales o las herramientas de traducción automática. Nos dejan boquiabiertos y pensamos que si un ordenador consigue estar a la altura de algo tan complejo como el lenguaje debe haber inteligencia detrás», añade.

Las herramientas lingüísticas pueden imitarnos, ya que los modelos subyacentes son capaces de aprender patrones a partir de grandes volúmenes de texto. Sin embargo, si se comparan las capacidades de un asistente virtual (activado por voz) con las de un niño a la hora de evocar un avión de papel, por ejemplo, queda claro rápidamente que la herramienta necesita muchos más datos para ponerse al nivel del niño, y le costará captar conocimientos ordinarios como el sentido común. «Es fácil cometer errores, pero parecer humano no implica necesariamente inteligencia humana», explica Lonneke van der Plas.

Al fin y al cabo, ya lo dijo Turing hace setenta años, no vale la pena intentar humanizar una «máquina pensante» mediante dispositivos estéticos. El valor de un libro no se juzga por su portada.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

9 + 5 =