La pressione del Pentagono sull’attività antropica: un intervento politico

13

Le recenti azioni del governo degli Stati Uniti contro Anthropic, uno dei principali sviluppatori di intelligenza artificiale, riguardano meno la sicurezza nazionale e più un tentativo deliberato di sopprimere una società il cui allineamento politico non si adatta all’attuale amministrazione. La situazione si è aggravata al punto che il governo ha minacciato di invocare il Defense Production Act, non per garantire le capacità di intelligenza artificiale, ma per punire Anthropic e creare un precedente per altre aziende private di intelligenza artificiale.

L’aumento delle preoccupazioni sulla governance dell’IA

La questione centrale è che man mano che l’intelligenza artificiale diventa sempre più potente, inevitabilmente governerà aspetti più ampi della società. Questo cambiamento solleva domande critiche su chi controlla questi sistemi e su come si allineano con le diverse ideologie politiche. La rapida divergenza tra le amministrazioni statunitensi rende improbabile un unico modello di intelligenza artificiale universalmente “allineato”, rendendo la governance ancora più complessa.

Sono in gioco i principi del Primo Emendamento

Le azioni del governo contro l’Anthropic sollevano preoccupazioni legate al Primo Emendamento. Il principio in gioco è semplice: i governi non dovrebbero dettare l’allineamento dell’IA, poiché ciò soffocerebbe l’innovazione e la libera espressione. Gli attori privati, compresi gli sviluppatori di intelligenza artificiale, dovrebbero definire i propri valori, anche se questi sono in conflitto con le agende politiche.

Motivazioni politiche dietro la pressione

La pressione su Anthropic affonda le sue radici nella politica partigiana. Figure all’interno dell’amministrazione Trump, incluso Elon Musk, hanno attaccato attivamente l’azienda, etichettandola come un’entità della “sinistra radicale”. Questi attacchi non riguardano solo i rischi legati alla catena di approvvigionamento, ma mirano a garantire che i sistemi di intelligenza artificiale siano in linea con le loro preferenze politiche.

La minaccia di assassinio politico

Se attuate, le minacce del governo di distruggere Anthropic costituirebbero una forma di assassinio politico. La mossa non riguarda solo la sicurezza nazionale ma anche l’eliminazione di un concorrente i cui valori sono visti come ostili. Ciò costituisce un pericoloso precedente, in cui le aziende di intelligenza artificiale vengono punite per le loro convinzioni politiche piuttosto che per qualsiasi legittima minaccia alla sicurezza.

In conclusione, le azioni del Pentagono contro Anthropic sono un chiaro esempio di interferenza politica nel settore dell’intelligenza artificiale. La mossa mira meno a proteggere gli interessi nazionali e più a punire un’azienda i cui valori si scontrano con l’attuale amministrazione, sollevando seri interrogativi sul futuro della governance dell’IA.