Agencias

La influencia gubernamental en los medios se nota en las respuestas que dan los chatbots

La influencia gubernamental en los medios se nota en las respuestas que dan los chatbots

Redacción Ciencia, 13 may (EFE).- Los conversacionales o chatbot basados en inteligencia artificial (IA) ofrecen respuestas 'complacientes' respecto al Gobierno cuando los usuarios les preguntan por política en los países en los que abundan los medios de comunicación influenciados por ese Gobierno.

Así lo pone de manifiesto un estudio recogido este miércoles en la revista Nature, que analiza cómo el control gubernamental de los medios influye en las respuestas que dan los modelos de lenguaje cuando se les pregunta por los Gobiernos, dado que se alimentan de los datos de esos medios.

En definitiva, los autores demuestran cómo el contenido impulsado por gobiernos autoritarios, como el de China, se infiltra en los corpus de internet y sesga los resultados y las respuestas que ofrecen los modelos de IA.

Retórica estratégica

Los investigadores definen este fenómeno como "retórica estratégica" para "lavar" una mala reputación: es decir, los modelos de lenguaje aprenden de datos "dulcificados" de los medios de comunicación influidos por los gobiernos y ofrecen respuestas 'azucaradas' sobre los mismos, que los usuarios perciben como objetivas pese a que no lo son.

Los autores también han visto que las consultas realizadas en el idioma local de países con baja libertad de prensa generan respuestas notablemente más favorables hacia el régimen político del país que las hechas en inglés.

"Si haces la misma pregunta política en dos idiomas diferentes a un mismo modelo de IA, es posible que obtengas dos respuestas muy distintas en función de los datos de los que se nutran las contestaciones en cada idioma", señalan los autores.

El estudio ha sido realizado por investigadores de las universidades estadounidenses de Oregón, Purdue, California en San Diego, Nueva York y Princeton.

Los investigadores han rastreado el camino desde los medios de comunicación en línea hasta los datos de entrenamiento de los modelos de IA, pasando por el comportamiento de los chatbots comerciales cuando las personas les han hecho preguntas en diferentes idiomas.

En total, han evaluado las respuestas en 37 idiomas, con un estudio del caso de China para comprender mejor cómo las respuestas varían según la lengua en que se pregunta.

El aprendizaje de la IA no es neutral

Para rastrear esta influencia institucional a través del proceso de entrenamiento, los autores demostraron en primer lugar que los medios influenciados por el Estado aparecen con frecuencia en los datos de entrenamiento reales de los modelos de IA.

"La gente suele hablar como si la IA aprendiera de Internet de una manera neutral. No es así. Aprende de entornos informativos que ya han sido moldeados por las instituciones y el poder, y esos entornos pueden dejar huellas medibles en lo que dicen los modelos", declara una de las autoras, Hannah Waight, socióloga en la Universidad de Oregón.

"El debate público se ha centrado en lo que la IA puede generar, pero este estudio apunta más bien hacia el origen. Antes de que los sistemas de IA puedan influir en la política, la política puede influir en la IA", apunta otro de los autores, Joshua Tucker, investigador de la Universidad de Nueva York.

Los investigadores demuestran además que estos hechos no se limitan a China. En un estudio transnacional de 37 países en los que la lengua nacional se concentra en gran medida dentro de un solo país, los modelos describían a los gobiernos e instituciones de los países con un mayor control de los medios de comunicación en la lengua local que en inglés.

"El contenido promovido por los Gobiernos no se limita a lo que aparece en los medios oficiales. Asimismo, se trata de la recirculación: la misma formulación circula por periódicos, aplicaciones y páginas web hasta que parece formar parte del entorno informativo general. Una vez que el contenido del Gobierno se encuentra en los datos de entrenamiento, el modelo puede blanquearlo para que parezca información objetiva", concluye Brandon Stewart, otro de los autores, afiliado a Princeton.EFE

cam/icn