A era das fazendas de trolls desajeitadas e dos e-mails vazados está terminando. Um novo relatório alerta que a inteligência artificial está preparada para desencadear campanhas de desinformação de escala e sofisticação sem precedentes, ameaçando os alicerces das sociedades democráticas. Em vez de exércitos de cartazes humanos, um único indivíduo poderá em breve comandar milhares de contas de redes sociais controladas por IA, capazes de manipular a opinião pública em tempo real – sem supervisão humana constante.
A evolução da desinformação
Em 2016, a Agência Russa de Pesquisa na Internet (IRA) empregou centenas de pessoas para espalhar conteúdo polêmico online. Embora amplamente divulgado, o impacto deste esforço foi limitado em comparação com fugas mais direcionadas. Agora, os mesmos objetivos podem ser alcançados com eficiência e alcance exponencialmente maiores. As mais recentes ferramentas de IA podem gerar postagens semelhantes às humanas, adaptar-se dinamicamente às conversas e manter identidades online persistentes.
A mudança não se trata apenas de automação; trata-se de operações de influência autônomas. Esses “enxames” de IA não postarão apenas mensagens pré-escritas; eles aprenderão, evoluirão e refinarão suas táticas com base no feedback em tempo real das plataformas de mídia social e nas interações humanas.
A ciência por trás da ameaça
Um novo estudo publicado na Science por 22 especialistas em IA, segurança cibernética e ciências sociais detalha esta mudança iminente. Os investigadores alertam que a tecnologia pode agora imitar a dinâmica social humana de forma tão eficaz que poderá desencadear mudanças de crenças em toda a sociedade, influenciando as eleições e, em última análise, minando os processos democráticos.
“Os avanços na inteligência artificial oferecem a perspectiva de manipulação de crenças e comportamentos a nível de toda a população”, afirma o relatório.
Lukasz Olejnik, pesquisador sênior do King’s College London, concorda: “Este é um ambiente extremamente desafiador para uma sociedade democrática. Estamos em grandes apuros.”
Como os enxames de IA funcionarão
A chave é memória. Ao contrário dos bots tradicionais, estes agentes de IA podem manter personas online consistentes ao longo do tempo. Eles se coordenarão para alcançar objetivos compartilhados enquanto aparecem como usuários individuais, tornando a detecção muito mais difícil.
Estes sistemas também explorarão os próprios mecanismos das redes sociais:
- Testes micro-A/B: Execução de milhões de variações de uma mensagem para identificar o enquadramento mais eficaz.
- Mensagens direcionadas: Adaptação do conteúdo às crenças e sugestões culturais de comunidades específicas para obter o máximo impacto.
- Autoaperfeiçoamento: usar as respostas dos usuários para refinar suas táticas em tempo real.
“E se a IA não estivesse apenas alucinando informações, mas milhares de chatbots de IA estivessem trabalhando juntos para dar a aparência de apoio popular onde não havia nenhum?” pergunta Nina Jankowicz, CEO do American Sunlight Project.
A falta de defesa
Os métodos de detecção atuais já estão falhando. As plataformas de redes sociais são cada vez mais restritivas na partilha de dados, tornando impossível avaliar completamente a extensão desta ameaça. Os especialistas acreditam que a tática já está sendo testada, com provável implantação nas eleições presidenciais de 2028.
O problema não é apenas técnico; é estrutural. As empresas de redes sociais priorizam o envolvimento em detrimento da verdade, o que significa que têm pouco incentivo para identificar ou remover enxames de IA. Os governos também não têm vontade política para intervir.
A solução proposta
O relatório sugere a criação de um “Observatório de Influência da IA” composto por académicos e ONG para padronizar as evidências, melhorar a consciência situacional e coordenar uma resposta rápida. O estudo exclui explicitamente os executivos das redes sociais, uma vez que os seus modelos de negócio incentivam a desinformação.
No entanto, é pouco provável que mesmo esta abordagem seja suficiente. A velocidade e a escala da desinformação impulsionada pela IA ultrapassarão em breve quaisquer medidas defensivas.
A ascensão dos enxames de IA não é uma ameaça distante; é uma realidade em desenvolvimento. A menos que sejam tomadas medidas drásticas, o futuro da democracia poderá depender da capacidade da humanidade de reconhecer e resistir à manipulação à velocidade da máquina.


























