Anthropic défie le gouvernement américain dans une affaire judiciaire

Anthropic se dirige vers le tribunal fédéral pour contester son classement comme risque pour la sécurité nationale par le gouvernement américain.

Anthropic défie le gouvernement américain dans une affaire judiciaire

La société Anthropic, spécialisée dans l'intelligence artificielle, se prépare à affronter le gouvernement américain devant le tribunal fédéral de San Francisco, où elle présentera ses arguments pour obtenir une injonction préliminaire contre le ministère de la Défense et la Maison Blanche. Cette démarche fait suite à l'annonce de l'ancien président américain Donald Trump et du secrétaire à la Défense Pete Hegseth en février dernier, qui ont déclaré avoir rompu les relations avec l'entreprise après son refus de permettre l'utilisation de son modèle Claude à des fins militaires non réglementées.

Les litiges portent sur l'utilisation d'armes autonomes létales sans supervision humaine, ainsi que sur la surveillance de masse des citoyens américains. En conséquence, le gouvernement américain a classé Anthropic comme un risque pour la chaîne d'approvisionnement de la sécurité nationale et a ordonné aux agences fédérales de cesser d'utiliser le modèle Claude.

Détails de l'événement

La séance sera présidée par la juge fédérale Rita Lin, qui a avancé la date de l'audience du 3 avril à mardi. Anthropic cherche à contester son classement comme risque pour la chaîne d'approvisionnement, le co-fondateur et PDG Dario Amodei ayant déclaré que l'entreprise n'avait d'autre choix que de contester en justice.

Le 9 mars, Anthropic a déposé deux recours contre le gouvernement en raison de son classement. L'un concerne la révision de ce classement en vertu de la loi actuelle sur le classement du ministère de la Défense, Anthropic affirmant que ce classement est "sans précédent et illégal", car il a historiquement été appliqué uniquement à des adversaires étrangers comme Huawei et ne peut pas être utilisé légalement contre une entreprise locale en raison d'un désaccord politique.

Contexte et historique

Fondée en 2020, Anthropic a réussi à attirer l'attention du ministère de la Défense américain en signant un contrat d'une valeur de 200 millions de dollars en 2025 pour déployer sa technologie dans des systèmes secrets. Au cours des négociations, Anthropic a affirmé qu'elle ne souhaitait pas utiliser ses systèmes d'intelligence artificielle pour la surveillance de masse et que sa technologie n'était pas prête à être utilisée pour prendre des décisions de tir.

Le 17 mars, le ministère de la Défense a exprimé son inquiétude quant à la possibilité qu'Anthropic tente de "perturber sa technologie ou de modifier le comportement de son modèle" avant ou pendant des "opérations militaires" si elle estimait que ses "lignes rouges" avaient été franchies. Anthropic a soutenu que ces préoccupations n'étaient pas apparues lors des négociations, mais seulement dans les dossiers du gouvernement devant le tribunal.

Conséquences et impact

Cette affaire met en lumière les défis éthiques et juridiques auxquels sont confrontées les entreprises d'intelligence artificielle, soulevant des questions sur qui devrait définir les limites de cette technologie : les entreprises technologiques guidées par des principes de sécurité intérieure, ou les autorités publiques agissant au nom de la sécurité nationale et des intérêts géopolitiques ?

De nombreux scientifiques et chercheurs en intelligence artificielle, y compris ceux de grandes entreprises comme OpenAI, Google et Microsoft, soutiennent Anthropic en présentant des mémoires de soutien dans cette affaire. En revanche, le ministère de la Défense américain a détourné son attention vers d'autres entreprises d'intelligence artificielle comme xAI et Google.

Impact sur la région arabe

Cette affaire est significative pour la région arabe, où les investissements dans les technologies d'intelligence artificielle augmentent. Les résultats de cette affaire pourraient influencer la manière dont les pays arabes interagissent avec les entreprises d'intelligence artificielle, surtout face aux défis sécuritaires et politiques qu'ils rencontrent.

En conclusion, cette affaire reflète la tension croissante entre l'innovation technologique et les exigences de la sécurité nationale, soulevant des questions sur l'avenir de l'intelligence artificielle dans le monde.

Qu'est-ce qu'Anthropic ?
Anthropic est une entreprise spécialisée dans le développement de technologies d'intelligence artificielle.
Pourquoi Anthropic fait-elle la une des journaux ?
Anthropic a fait la une des journaux en raison de son classement comme risque pour la sécurité nationale par le gouvernement américain.
Quelles pourraient être les conséquences de cette affaire ?
Cette affaire pourrait influencer la manière dont l'utilisation de l'intelligence artificielle est réglementée à l'avenir, tant aux États-Unis qu'à l'échelle mondiale.