Se trata de una nueva fase de las campañas de desinformación sobre la que ha alertado el Servicio Europeo de Acción Exterior (SEAE)

Madrid/Bogotá.- En una escena propia de una serie distópica, en 2025 hemos visto cómo una empresa ha llegado a un acuerdo millonario con un país, Israel, para manipular las respuestas de ChatGPT, una muestra mercantil de una tendencia de la desinformación en alza, como han evidenciado varias investigaciones este año.

Se trata de una nueva fase de las campañas de desinformación sobre la que ha alertado el Servicio Europeo de Acción Exterior (SEAE), que señala a Rusia como principal amenaza.

"Hoy, Moscú no se limita a difundir narrativas hechas a medida para sus lectores, sino que el objetivo de sus redes de desinformación son también las máquinas, una estrategia cada vez más relevante dado que muchos usuarios están reemplazando las búsquedas en Google por herramientas de IA como ChatGPT", expone en un reciente artículo el servicio diplomático de la Unión Europea.

En este contexto, diferentes investigadores han analizado los intentos de la red Pravda ("verdad", en ruso) de manipular los bots conversacionales de inteligencia artificial, aunque no es el único actor conocido.

Propaganda y negocio

El ejemplo citado al principio de esta información se refiere a la empresa estadounidense Clock Tower X, que el 27 de agosto firmó con el Gobierno de Israel un acuerdo de seis millones de dólares para difundir narrativas favorables al Estado hebreo, según informó el Quincy Institute for Responsible Statecraft, con sede en Washington.

Como se puede comprobar en el contrato registrado por la Administración estadounidense, los servicios incluyen la creación de sitios web dirigidos a influir en las aplicaciones de IA, además de otras actuaciones en diferentes medios y redes sociales.

Manipular las herramientas conversacionales de IA permite alcanzar una audiencia masiva porque los generadores de inteligencia artificial reciben alrededor de 7.000 millones de visitas mensuales en todo el mundo, de las que ChatGPT aglutina un 80 por ciento, según la empresa de análisis de tráfico en internet Similarweb.

"Me temo que los creadores de desinformación se han percatado de que estos sistemas conversacionales basados en IA pueden convertirse en un vector adicional para inocular sus discursos", explica en declaraciones a EFE Verifica el coordinador del Observatorio Ibérico de Medios Digitales (Iberifier), Ramón Salaverría, sobre la influencia creciente de los chatbots.

El también catedrático de Periodismo de la Universidad española de Navarra advierte de que estas manipulaciones "tienen un potencial lesivo muy grande".

Multiplicar las falsedades para llegar a los bots

La técnica consiste en inundar internet de desinformación para que esta sea detectada e incorporada por los bots conversacionales.

El método recibe en inglés el nombre de LLM Grooming (manipulación de los Grandes Modelos de Lenguaje), según el término acuñado por la organización American Sunlight Project.

En diferentes estudios, este grupo de investigación y NewsGuard, compañía que evalúa la fiabilidad de las noticias en línea, han expuesto su funcionamiento.

La red Pravda, presente en medio centenar de países en decenas de idiomas, produjo en 2024 al menos 3,6 millones de artículos por medio de 150 dominios, lo que equivale a una media de 20.273 publicaciones cada dos días.

La manipulación se centra en los tókenes, las unidades fundamentales de texto que los modelos de IA usan para procesar el lenguaje, los cuales pueden ser "tan pequeños como un solo carácter o tan grandes como una palabra completa", explica NewsGuard.

De ese modo se aumenta la probabilidad de que la inteligencia artificial genere o cite estas narrativas falsas.

Además, los desinformadores utilizan estrategias de optimización de motores de búsqueda (SEO) para la IA.