Le crescenti tensioni tra il Pentagono e gli sviluppatori di intelligenza artificiale stanno aumentando, con i lavoratori di Google che ora si uniscono alla richiesta di rigorosi confini etici su come l’intelligenza artificiale viene utilizzata nelle applicazioni militari. Più di 100 dipendenti di Google che lavorano sulle tecnologie di intelligenza artificiale hanno inviato una lettera alla leadership dell’azienda, facendo eco alle preoccupazioni precedentemente espresse da Anthropic e chiedendo che Google stabilisca chiare “linee rosse” nei suoi contratti governativi.
Aumenta la pressione sulle aziende tecnologiche
La controversia è incentrata sull’insistenza del Dipartimento della Difesa degli Stati Uniti sull’accesso illimitato ai modelli di intelligenza artificiale, tra cui Gemini AI di Anthropic e Google, per scopi che potrebbero includere la sorveglianza di massa dei cittadini e l’impiego in sistemi d’arma completamente autonomi. Anthropic ha resistito a queste richieste, cercando garanzie che la sua tecnologia non verrà utilizzata per applicazioni non etiche o dannose. Questa resistenza sta ora provocando dibattiti interni simili ad altri giganti della tecnologia.
La lettera dei dipendenti di Google, indirizzata al capo scienziato Jeff Dean, chiede specificamente alla società di impedire ai militari di utilizzare l’intelligenza artificiale Gemini per la sorveglianza domestica o in sistemi d’arma che operano senza la supervisione umana. Hanno espresso il desiderio di “essere orgogliosi del nostro lavoro”, suggerendo che la partecipazione a tali progetti danneggerebbe il morale e la posizione etica.
Preoccupazioni più ampie del settore
Questo non è un incidente isolato. Quasi 50 dipendenti di OpenAI, insieme ai 175 colleghi di Google, hanno criticato pubblicamente le tattiche negoziali del Pentagono, esortando i leader del settore a unirsi e respingere le attuali richieste. Il Dipartimento della Difesa detiene attualmente un contratto da 200 milioni di dollari con Anthropic, sfruttando la sua sostanziale influenza sul panorama dell’intelligenza artificiale.
La questione centrale è se le aziende private debbano dare priorità ai profitti derivanti dai contratti governativi rispetto alle considerazioni etiche quando hanno a che fare con tecnologie potenzialmente pericolose. Se il Pentagono riuscisse a garantire un accesso illimitato, potrebbe creare un pericoloso precedente, normalizzando l’uso dell’intelligenza artificiale per la sorveglianza incontrollata e la guerra autonoma.
Questa situazione solleva una domanda fondamentale: Lo sviluppo dell’intelligenza artificiale può essere conciliato con una governance responsabile e i diritti umani? La risposta dipenderà dalla scelta delle aziende tecnologiche di dare priorità ai confini etici rispetto ai guadagni finanziari a breve termine.
È probabile che la situazione di stallo continui, rimodellando potenzialmente il rapporto tra l’industria militare e l’industria dell’intelligenza artificiale, costringendo a una più ampia resa dei conti con le implicazioni etiche delle tecnologie avanzate.

























