La società Anthropic, specializzata nell'intelligenza artificiale, si sta preparando a fronteggiare il governo americano presso il tribunale federale di San Francisco, dove presenterà le sue argomentazioni per ottenere un'ingiunzione preliminare contro il Dipartimento della Difesa degli Stati Uniti e la Casa Bianca. Questa mossa arriva dopo che l'ex presidente americano Donald Trump e il segretario alla Difesa Pete Hegseth hanno annunciato a febbraio la rottura dei rapporti con l'azienda, a seguito del rifiuto di consentire l'uso del suo modello Claude per scopi militari non regolamentati.
Le controversie riguardano l'uso di armi letali autonome senza supervisione umana, oltre alla sorveglianza di massa dei cittadini americani. Di conseguenza, il governo americano ha classificato Anthropic come una minaccia per la catena di approvvigionamento della sicurezza nazionale, ordinando alle agenzie federali di interrompere l'uso del modello Claude.
Dettagli dell'evento
La sessione si terrà davanti alla giudice federale Rita Lin, che ha anticipato la data dell'udienza dal 3 aprile a martedì. Anthropic cerca di contestare la sua classificazione come minaccia per la catena di approvvigionamento, con il co-fondatore e CEO Dario Amodei che ha dichiarato che l'azienda non ha altra scelta se non quella di sfidare in tribunale.
Il 9 marzo, Anthropic ha presentato due cause contro il governo a causa della sua classificazione. Una riguarda la revisione della classificazione secondo la legge attuale del Dipartimento della Difesa, dove Anthropic sostiene che questa classificazione è "senza precedenti e illegale", essendo stata storicamente applicata solo a avversari stranieri come Huawei e non può essere legalmente utilizzata contro un'azienda locale a causa di un disaccordo politico.
Contesto e background
Fondata nel 2020, Anthropic ha attirato l'attenzione del Dipartimento della Difesa degli Stati Uniti firmando un contratto del valore di 200 milioni di dollari nel 2025 per implementare la sua tecnologia in sistemi riservati. Durante le trattative, Anthropic ha confermato di non voler utilizzare i suoi sistemi di intelligenza artificiale per la sorveglianza di massa e che la sua tecnologia non era pronta per essere utilizzata in decisioni di fuoco.
Il 17 marzo, il Dipartimento della Difesa ha dichiarato di essere preoccupato che Anthropic potesse tentare di "disattivare la sua tecnologia o modificare il comportamento del suo modello" prima o durante "operazioni belliche" se avesse ritenuto che le sue "linee rosse" fossero state superate. Anthropic ha sostenuto che queste preoccupazioni non erano emerse durante le trattative, ma sono apparse solo nei documenti del governo presentati in tribunale.
Impatto e conseguenze
Questa causa mette in luce le sfide etiche e legali che le aziende di intelligenza artificiale devono affrontare, sollevando interrogativi su chi dovrebbe stabilire i limiti di questa tecnologia: le aziende tecnologiche guidate da principi di sicurezza interna o le autorità pubbliche che operano in nome della sicurezza nazionale e degli interessi geopolitici?
Molti scienziati e ricercatori nel campo dell'intelligenza artificiale, inclusi quelli di grandi aziende come OpenAI, Google e Microsoft, supportano Anthropic fornendo memorie di sostegno nel caso. In risposta, il Dipartimento della Difesa degli Stati Uniti ha spostato la sua attenzione a collaborare con altre aziende di intelligenza artificiale come xAI e Google.
Significato regionale
Questa causa è significativa per la regione araba, dove gli investimenti nelle tecnologie di intelligenza artificiale stanno aumentando. I risultati di questa causa potrebbero influenzare il modo in cui i paesi arabi interagiscono con le aziende di intelligenza artificiale, soprattutto in un contesto di sfide di sicurezza e politiche.
In conclusione, questa causa riflette la crescente tensione tra innovazione tecnologica e requisiti di sicurezza nazionale, sollevando interrogativi sul futuro dell'intelligenza artificiale nel mondo.