L’era dei maldestri allevamenti di troll e delle email trapelate sta finendo. Un nuovo rapporto avverte che l’intelligenza artificiale è pronta a scatenare campagne di disinformazione di portata e sofisticatezza senza precedenti, minacciando le fondamenta delle società democratiche. Invece di eserciti di poster umani, un singolo individuo potrebbe presto comandare migliaia di account di social media controllati dall’intelligenza artificiale, in grado di manipolare l’opinione pubblica in tempo reale, senza una costante supervisione umana.
L’evoluzione della disinformazione
Nel 2016, l’Internet Research Agency (IRA) russa ha impiegato centinaia di persone per diffondere contenuti controversi online. Anche se ampiamente riportato, l’impatto di questo sforzo è stato limitato rispetto a fughe di notizie più mirate. Ora, gli stessi obiettivi possono essere raggiunti con efficienza e portata esponenzialmente maggiori. Gli strumenti di intelligenza artificiale più recenti possono generare post indistinguibili dall’aspetto umano, adattarsi dinamicamente alle conversazioni e mantenere identità online persistenti.
Il cambiamento non riguarda solo l’automazione; si tratta di operazioni di influenza autonome. Questi “sciami” di IA non si limiteranno a pubblicare messaggi già scritti; impareranno, evolveranno e perfezioneranno le loro tattiche sulla base del feedback in tempo reale proveniente dalle piattaforme di social media e dalle interazioni umane.
La scienza dietro la minaccia
Un nuovo studio pubblicato su Science da 22 esperti di intelligenza artificiale, sicurezza informatica e scienze sociali descrive dettagliatamente questo imminente cambiamento. I ricercatori avvertono che la tecnologia può ora imitare le dinamiche sociali umane in modo così efficace da innescare cambiamenti di credenze in tutta la società, influenzare le elezioni e, in ultima analisi, minare i processi democratici.
“I progressi nell’intelligenza artificiale offrono la prospettiva di manipolare credenze e comportamenti a livello di tutta la popolazione”, afferma il rapporto.
Lukasz Olejnik, ricercatore senior al King’s College di Londra, è d’accordo: “Questo è un ambiente estremamente stimolante per una società democratica. Siamo in grossi guai”.
Come funzioneranno gli sciami di intelligenza artificiale
La chiave è memoria. A differenza dei bot tradizionali, questi agenti IA possono mantenere personaggi online coerenti nel tempo. Si coordineranno per raggiungere obiettivi condivisi pur apparendo come singoli utenti, rendendo il rilevamento molto più difficile.
Questi sistemi sfrutteranno anche i meccanismi stessi dei social media:
- Test micro-A/B: esecuzione di milioni di varianti di un messaggio per identificare l’inquadratura più efficace.
- Messaggi mirati: adattamento dei contenuti alle credenze e agli spunti culturali di comunità specifiche per il massimo impatto.
- Automiglioramento: utilizzo delle risposte degli utenti per perfezionare le proprie tattiche in tempo reale.
“E se l’intelligenza artificiale non fosse solo un’informazione allucinante, ma migliaia di chatbot di intelligenza artificiale lavorassero insieme per dare una parvenza di supporto dal basso dove non ce n’era?” si chiede Nina Jankowicz, CEO dell’American Sunlight Project.
La mancanza di difesa
Gli attuali metodi di rilevamento stanno già fallendo. Le piattaforme di social media sono sempre più restrittive nella condivisione dei dati, rendendo impossibile valutare appieno la portata di questa minaccia. Gli esperti ritengono che la tattica sia già in fase di test, con un probabile impiego nelle elezioni presidenziali del 2028.
Il problema non è solo tecnico; è strutturale. Le società di social media danno priorità al coinvolgimento piuttosto che alla verità, il che significa che hanno pochi incentivi a identificare o rimuovere gli sciami di IA. Anche i governi non hanno la volontà politica di intervenire.
La soluzione proposta
Il rapporto suggerisce di creare un “Osservatorio sull’influenza dell’intelligenza artificiale” composto da accademici e ONG per standardizzare le prove, migliorare la consapevolezza situazionale e coordinare una risposta rapida. Lo studio esclude esplicitamente i dirigenti dei social media, poiché i loro modelli di business incentivano la disinformazione.
Tuttavia, anche questo approccio difficilmente sarà sufficiente. La velocità e la portata della disinformazione guidata dall’intelligenza artificiale supereranno presto qualsiasi misura difensiva.
L’aumento degli sciami di IA non è una minaccia lontana; è una realtà in evoluzione. A meno che non venga intrapresa un’azione drastica, il futuro della democrazia potrebbe dipendere dalla capacità dell’umanità di riconoscere e resistere alla manipolazione alla velocità della macchina.


























