Las herramientas de IA mienten mejor que las personas, según un estudio

Las herramientas lingüísticas de inteligencia artificial (IA) tienen «una inquietante habilidad para producir desinformación altamente persuasiva» que podría erosionar las democracias, según un estudio de la Universidad de Zúrich.

El estudio recurrió a 697 participantes para comprobar la diferencia entre los tuits compuestos por humanos y los generados por tecnología de IA, en particular el GPT-3 de OpenAI.

Los temas tratados fueron el cambio climático, la seguridad de las vacunas, la pandemia de Covid-19, la teoría de la Tierra plana y los tratamientos homeopáticos para el cáncer.

En general, se consideró que los tuits del GPT-3 eran más precisos y contenían información más fácilmente comprensible. Pero esto no fue todo.

El estudio también reveló que los sistemas impulsados por IA mostraban «una inquietante habilidad para producir desinformación altamente persuasiva con el fin de generar campañas de desinformación a gran escala… poniendo en peligro no sólo la salud pública, sino también la integridad de los ecosistemas de información vitales para el funcionamiento de las democracias», informaron el jueves los autores del estudio.

«Los hallazgos subrayan la importancia crítica de una regulación proactiva para mitigar el daño potencial causado por las campañas de desinformación impulsadas por IA», dijo el coautor Nikola Biller-Andorno. «Reconocer los riesgos asociados con la desinformación generada por IA es crucial para salvaguardar la salud pública y mantener un ecosistema de información sólido y confiable en la era digital.»

Los políticos ya han tomado nota del potencial de la IA para perturbar las elecciones en Suiza, lo que ha dado lugar a un debate interpartidista sobre cómo gestionar los riesgos de la tecnología.

swissinfo.ch

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

dieciseis − once =