La società di intelligenza artificiale Anthropic sfida l’esercito americano per l’accesso illimitato alla tecnologia

7

Il governo degli Stati Uniti e Anthropic, una delle principali società di intelligenza artificiale, sono bloccati in una situazione di stallo sui contratti militari, con il Pentagono che chiede accesso illimitato ai sistemi di intelligenza artificiale di Anthropic. La controversia evidenzia una crescente tensione tra gli interessi di sicurezza nazionale e i confini etici dello sviluppo avanzato dell’IA.

Il nocciolo del conflitto

Il CEO di Anthropic, Dario Amodei, ha rifiutato pubblicamente la richiesta del Pentagono di accesso illimitato al suo chatbot, Claude, il 26 febbraio. Amodei ha affermato che alcune applicazioni di intelligenza artificiale “minano, anziché difendere, i valori democratici” e superano le attuali capacità di una tecnologia sicura e affidabile.

Il Dipartimento della Difesa ha fissato una scadenza per venerdì per conformarsi, minacciando di rescindere il contratto da 200 milioni di dollari di Anthropic e di etichettare la società come un “rischio nella catena di fornitura”. Questa designazione escluderebbe di fatto Anthropic dai futuri contratti governativi, tagliando di fatto l’azienda dal lucroso lavoro di difesa.

Tattiche di pressione crescente

Secondo quanto riferito, il Pentagono ha minacciato di invocare il Defense Production Act, garantendo al presidente degli Stati Uniti ampia autorità per obbligare le aziende private a dare priorità alle esigenze di sicurezza nazionale. Questo atto potrebbe costringere Anthropic a cedere la sua tecnologia, indipendentemente dalle sue obiezioni etiche.

La situazione è ulteriormente complicata dal fatto che Anthropic ha già integrato Claude nel software di intelligence statunitense attraverso una partnership con Palantir Technologies. Il chatbot AI è attualmente utilizzato in reti governative classificate, compresi i laboratori nucleari nazionali, e utilizzato per l’analisi di intelligence da parte del Dipartimento della Difesa.

Cambiare la posizione di sicurezza

Questo conflitto emerge quando Anthropic rinuncia alla sua promessa di sicurezza fondamentale. Fondata nel 2021 da ex ricercatori di OpenAI, la società si era precedentemente impegnata a trattenere i rilasci di intelligenza artificiale fino a quando non fossero state garantite rigorose misure di sicurezza.

Tuttavia, Anthropic ora afferma che sospendere lo sviluppo per dare priorità alla sicurezza la lascerebbe indietro nella corsa all’intelligenza artificiale, cedendo potenzialmente terreno a concorrenti meno cauti. Il nuovo quadro politico dell’azienda dà priorità a roadmap di sicurezza “ambiziose ma realizzabili” rispetto alle garanzie assolute, riconoscendo che alcuni rischi sono inevitabili.

Implicazioni per la regolamentazione dell’IA

Questa situazione di stallo sottolinea le sfide più ampie legate alla regolamentazione della tecnologia IA avanzata. Il governo degli Stati Uniti sta spingendo per una rapida integrazione dell’intelligenza artificiale nelle applicazioni militari, mentre Anthropic, una volta posizionata come sviluppatore responsabile dell’intelligenza artificiale, sta ora compromettendo gli standard di sicurezza per rimanere competitiva.

Le tattiche aggressive del Pentagono sollevano interrogativi sui limiti dello strapotere del governo nel settore privato e sul potenziale di uno sviluppo incontrollato dell’intelligenza artificiale in nome della sicurezza nazionale. L’esito di questa controversia costituirà probabilmente un precedente per il modo in cui le aziende di intelligenza artificiale affronteranno conflitti simili in futuro.

La questione fondamentale è chiara: i governi vogliono le capacità dell’intelligenza artificiale adesso, anche se tali capacità non sono ancora pienamente comprese o sicure. Ciò crea una tensione che non farà altro che intensificarsi man mano che l’intelligenza artificiale diventerà più potente e integrata nelle infrastrutture critiche.