Desinformación impulsada por la IA: la amenaza inminente a la democracia

7

La era de las torpes granjas de trolls y los correos electrónicos filtrados está llegando a su fin. Un nuevo informe advierte que la inteligencia artificial está a punto de desatar campañas de desinformación de una escala y una sofisticación sin precedentes, amenazando los cimientos de las sociedades democráticas. En lugar de ejércitos de carteles humanos, un solo individuo pronto podría controlar miles de cuentas de redes sociales controladas por IA, capaces de manipular la opinión pública en tiempo real, sin supervisión humana constante.

La evolución de la desinformación

En 2016, la Agencia de Investigación de Internet (IRA) de Rusia empleó a cientos de personas para difundir contenido divisivo en línea. Si bien se informó ampliamente, el impacto de este esfuerzo fue limitado en comparación con filtraciones más específicas. Ahora, se pueden lograr los mismos objetivos con una eficiencia y un alcance exponencialmente mayores. Las últimas herramientas de inteligencia artificial pueden generar publicaciones indistinguibles de apariencia humana, adaptarse dinámicamente a las conversaciones y mantener identidades en línea persistentes.

El cambio no se trata simplemente de automatización; se trata de operaciones de influencia autónomas. Estos “enjambres” de IA no se limitarán a publicar mensajes preescritos; aprenderán, evolucionarán y perfeccionarán sus tácticas basándose en comentarios en tiempo real de las plataformas de redes sociales y las interacciones humanas.

La ciencia detrás de la amenaza

Un nuevo estudio publicado en Science por 22 expertos en inteligencia artificial, ciberseguridad y ciencias sociales detalla este cambio inminente. Los investigadores advierten que la tecnología ahora puede imitar la dinámica social humana con tanta eficacia que podría desencadenar cambios de creencias en toda la sociedad, influir en las elecciones y, en última instancia, socavar los procesos democráticos.

“Los avances en inteligencia artificial ofrecen la posibilidad de manipular creencias y comportamientos a nivel de toda la población”, afirma el informe.

Lukasz Olejnik, investigador principal del King’s College de Londres, está de acuerdo: “Este es un entorno extremadamente desafiante para una sociedad democrática. Estamos en un gran problema”.

Cómo operarán los enjambres de IA

La clave es memoria. A diferencia de los bots tradicionales, estos agentes de IA pueden mantener personajes en línea consistentes a lo largo del tiempo. Se coordinarán para lograr objetivos compartidos mientras aparecen como usuarios individuales, lo que dificultará mucho la detección.

Estos sistemas también explotarán los propios mecanismos de las redes sociales:

  • Pruebas Micro-A/B: Ejecutar millones de variaciones de un mensaje para identificar el encuadre más efectivo.
  • Mensajes dirigidos: Adaptar el contenido a las creencias y señales culturales de comunidades específicas para lograr el máximo impacto.
  • Superación personal: Uso de las respuestas de los usuarios para perfeccionar sus tácticas en tiempo real.

“¿Qué pasaría si la IA no fuera sólo información alucinante, sino que miles de chatbots de IA trabajaran juntos para dar la apariencia de apoyo de base donde no lo había?” pregunta Nina Jankowicz, directora ejecutiva del American Sunlight Project.

La falta de defensa

Los métodos de detección actuales ya están fallando. Las plataformas de redes sociales son cada vez más restrictivas a la hora de compartir datos, lo que hace imposible evaluar plenamente el alcance de esta amenaza. Los expertos creen que la táctica ya se está probando y es probable que se despliegue en las elecciones presidenciales de 2028.

El problema no es sólo técnico; es estructural. Las empresas de redes sociales priorizan el compromiso sobre la verdad, lo que significa que tienen pocos incentivos para identificar o eliminar enjambres de IA. Los gobiernos también carecen de voluntad política para intervenir.

La solución propuesta

El informe sugiere crear un “Observatorio de la influencia de la IA” compuesto por académicos y ONG para estandarizar la evidencia, mejorar la conciencia situacional y coordinar una respuesta rápida. El estudio excluye explícitamente a los ejecutivos de redes sociales, ya que sus modelos de negocio incentivan la desinformación.

Sin embargo, es poco probable que incluso este enfoque sea suficiente. La velocidad y la escala de la desinformación impulsada por la IA pronto superarán cualquier medida defensiva.

El aumento de enjambres de IA no es una amenaza lejana; es una realidad en desarrollo. A menos que se tomen medidas drásticas, el futuro de la democracia puede depender de si la humanidad puede reconocer y resistir la manipulación a la velocidad de una máquina.