Anthropic desafía al gobierno estadounidense en un caso legal

La empresa Anthropic busca impugnar su clasificación como riesgo para la seguridad nacional en la corte federal de EE. UU.

Anthropic desafía al gobierno estadounidense en un caso legal

La empresa Anthropic, especializada en inteligencia artificial, se prepara para enfrentar al gobierno de EE. UU. en la corte federal de San Francisco, donde presentará sus argumentos para obtener una orden judicial preliminar contra el Departamento de Defensa y la Casa Blanca. Este movimiento se produce después de que el expresidente estadounidense Donald Trump y el secretario de Defensa Mark Esper anunciaron en febrero la ruptura de relaciones con la empresa tras negarse a permitir el uso de su modelo Claude para fines militares no restringidos.

Las disputas giran en torno al uso de armas autónomas letales sin supervisión humana, así como a la vigilancia masiva de ciudadanos estadounidenses. En consecuencia, el gobierno de EE. UU. clasificó a Anthropic como un riesgo para la cadena de suministro de seguridad nacional, ordenando a las agencias federales que dejaran de usar el modelo Claude.

Detalles del caso legal

La audiencia se llevará a cabo ante la jueza federal Rita Lin, quien ha acelerado la fecha de la sesión del 3 de abril al martes. Anthropic busca impugnar su clasificación como riesgo para la cadena de suministro, ya que el cofundador y CEO Dario Amodei ha declarado que la empresa no tiene otra opción que desafiar en los tribunales.

El 9 de marzo, Anthropic presentó dos demandas contra el gobierno debido a su clasificación. Una de ellas se refiere a la revisión de la clasificación bajo la ley vigente del Departamento de Defensa, donde Anthropic sostiene que esta clasificación es "sin precedentes e ilegal", ya que históricamente solo se ha aplicado a adversarios extranjeros como Huawei y no puede utilizarse legalmente contra una empresa local debido a un desacuerdo sobre política.

Contexto y antecedentes

Fundada en 2020, Anthropic logró captar la atención del Departamento de Defensa de EE. UU. al firmar un contrato por valor de 200 millones de dólares en 2025 para desplegar su tecnología en sistemas clasificados. Durante las negociaciones, Anthropic afirmó que no deseaba utilizar sus sistemas de inteligencia artificial para la vigilancia masiva, y que su tecnología no estaba lista para ser utilizada en la toma de decisiones sobre disparos.

El 17 de marzo, el Departamento de Defensa expresó su preocupación de que Anthropic pudiera intentar "interrumpir su tecnología o cambiar el comportamiento de su modelo" antes o durante "operaciones de combate" si sentía que sus "líneas rojas" habían sido cruzadas. Anthropic argumentó que estas preocupaciones no surgieron durante las negociaciones, sino que aparecieron solo en los documentos del gobierno ante la corte.

Consecuencias e impacto

Este caso destaca los desafíos éticos y legales que enfrentan las empresas de inteligencia artificial, planteando preguntas sobre quién debe establecer los límites de esta tecnología: ¿las empresas tecnológicas guiadas por principios de seguridad interna, o las autoridades públicas que actúan en nombre de la seguridad nacional y los intereses geopolíticos?

Numerosos científicos e investigadores en el campo de la inteligencia artificial, incluidos aquellos de grandes empresas como OpenAI, Google y Microsoft, apoyan a Anthropic al presentar memorandos de apoyo en el caso. A cambio, el Departamento de Defensa de EE. UU. ha redirigido su interés hacia trabajar con otras empresas de inteligencia artificial como xAI y Google.

Relevancia para la región árabe

Este caso es significativo para la región árabe, donde las inversiones en tecnologías de inteligencia artificial están en aumento. Los resultados de este caso podrían influir en cómo los países árabes manejan las empresas de inteligencia artificial, especialmente en el contexto de los desafíos de seguridad y políticos que enfrentan.

En conclusión, este caso refleja la creciente tensión entre la innovación tecnológica y los requisitos de seguridad nacional, lo que plantea preguntas sobre el futuro de la inteligencia artificial en el mundo.

¿Qué es Anthropic?
Anthropic es una empresa especializada en el desarrollo de tecnologías de inteligencia artificial.
¿Por qué Anthropic ha estado en las noticias?
Anthropic ha sido noticia por su clasificación como riesgo para la seguridad nacional por parte del gobierno de EE. UU.
¿Cuáles son las posibles repercusiones de este caso?
Este caso podría influir en cómo se regula el uso de la inteligencia artificial en el futuro, tanto en EE. UU. como a nivel global.