Jürgen Schmidhuber
Los investigadores de inteligencia artificial (IA) piden que se haga una pausa en los «gigantescos experimentos de IA», pero probablemente esto no va a ocurrir, asegura el investigador de IA Jürgen Schmidhuber.
En el pasado, he firmado varias cartas en las que se advertía del riesgo de las armas de IA. Sin embargo, no creo que la última carta firmada por destacados investigadores vaya a tener un impacto significativo, ya que muchos investigadores de IA, así como empresas y gobiernos van a ignorarla por completo.
La propuesta utiliza con frecuencia la palabra «nosotros» y se refiere a «nosotros», los humanos. Sin embargo, no existe un «nosotros» con el que pueda identificarse todo el mundo. Si se pregunta a diez personas habrá diez opiniones diferentes sobre lo que es «bueno». Y además, algunas de esas opiniones serán totalmente incompatibles entre sí. No hay que olvidar la enorme cantidad de intereses entre las muchas personas implicadas.
La carta señala también que «Si no se puede activar esta pausa lo antes posible, los gobiernos deberían intervenir y ordenar una moratoria». Pero el problema es que los distintos gobiernos tienen también opiniones diferentes sobre lo que es bueno para ellos y para los demás. Por ejemplo, la Gran Potencia A dirá que si no lo hacemos nosotros, lo hará la Gran Potencia B, obteniendo secretamente una ventaja sobre nosotros. Lo mismo ocurre con las Grandes Potencias C, D o E.
¿Qué papel debe desempeñar Suiza? Por supuesto, debería intentar mantenerse a la vanguardia de la investigación en IA. En 2020, Suiza publicaba per cápita muchos más artículos en las principales conferencias sobre IA que cualquier otro país. Una moratoria sólo perjudicaría su competitividad.
Una evolución de décadas
Por ejemplo, ChatGPT se basa en conceptos desarrollados por investigadores que ahora trabajan en nuestra empresa NNAISENSE, con sede en Lugano, cuyo lema es «AI∀» o «IA para todos».
ChatGPT utiliza una red neuronal artificial llamada Transformer, que se basa en mecanismos de atención humana -destinados a imitar la atención cognitiva- para el procesamiento del lenguaje natural. En 2017, un equipo de Google publicó un artículo muy citado sobre este tema titulado «Attention is all you need» (Todo lo que necesitas es atención). Me alegro de ello porque hace más de 30 años publiqué una variante de Transformer que ahora se llama «Transformer con autoatención linealizada» y recientemente presenté nuevas investigaciones sobre el tema.
Los modelos GPT también dependen de las «conexiones residuales», mecanismos que permiten que las redes neuronales sean muy profundas y funcionen mucho mejor. Las conexiones residuales tienen su origen en nuestra LSTM de los años 90 (la red neuronal artificial más citada del siglo XX) y en nuestra Highway Network (de mayo de 2015), la primera red neuronal feedforward profunda con cientos de capas, cuyos principios pueden encontrarse hoy en miles de aplicaciones.
Presente y futuro
¿Qué pasará después? A menudo he comparado ChatGPT y otros modelos lingüísticos similares con los políticos. A los políticos se les suele dar bien hablar y pueden dar respuestas rápidas y afinadas a cualquier pregunta. Combinan eslóganes que han utilizado en muchos discursos anteriores de forma siempre nueva, de modo que no hay dos respuestas idénticas. A pesar de ello, a menudo proponen perogrulladas sin demasiada profundidad.
Los grandes modelos lingüísticos como ChatGPT todavía no son óptimos para pensar en muchas cuestiones lógicas, como hacen los matemáticos y otros científicos. Por otro lado, hace tiempo que disponemos de redes neuronales que también pueden aprender de forma similar, al menos en principio. Ahora esperamos rápidos avances en este campo, que harán la vida más fácil a mucha gente.
Jürgen Schmidhuber
Jürgen Schmidhuber es científico jefe de la empresa NNAISENSE, con sede en Lugano (Suiza), cuyo objetivo es construir la primera IA práctica de propósito general. Es ponente habitual sobre temas relacionados con la IA y asesora a varios gobiernos sobre estrategias de IA. Las redes neuronales más citadas en la actualidad, utilizadas en aplicaciones como el reconocimiento de voz de Google, Google Translate, Siri de Apple y Alexa de Amazon, se basan en el trabajo realizado en sus laboratorios.
Descubre más desde Notiultimas
Suscríbete y recibe las últimas entradas en tu correo electrónico.