Công ty Anthropic, chuyên về trí tuệ nhân tạo, đang chuẩn bị đối đầu với chính phủ Mỹ tại tòa án liên bang ở San Francisco, nơi họ sẽ trình bày lý lẽ để yêu cầu một lệnh cấm tạm thời đối với Bộ Quốc phòng Mỹ và Nhà Trắng. Động thái này diễn ra sau khi cựu Tổng thống Mỹ Donald Trump và Bộ trưởng Quốc phòng Mark Esper vào tháng Hai đã thông báo cắt đứt quan hệ với công ty do họ từ chối cho phép sử dụng mô hình Claude cho mục đích quân sự không bị hạn chế.
Các tranh cãi liên quan đến việc sử dụng vũ khí tự động chết người mà không có sự giám sát của con người, cùng với việc giám sát hàng loạt công dân Mỹ. Sau đó, chính phủ Mỹ đã phân loại Anthropic là mối đe dọa đối với chuỗi cung ứng an ninh quốc gia và đã ra lệnh cho các cơ quan liên bang ngừng sử dụng mô hình Claude.
Chi tiết vụ kiện
Phiên tòa sẽ được tổ chức trước thẩm phán liên bang Rita Lin, người đã đẩy nhanh thời gian phiên tòa từ ngày 3 tháng 4 đến thứ Ba. Anthropic đang tìm cách kháng cáo phân loại của mình là mối đe dọa đối với chuỗi cung ứng, với tuyên bố của đồng sáng lập và Giám đốc điều hành Dario Amodei rằng công ty không còn lựa chọn nào khác ngoài việc thách thức tại tòa án.
Vào ngày 9 tháng 3, Anthropic đã đệ đơn kiện chính phủ về phân loại của mình. Một trong những vụ kiện liên quan đến việc xem xét lại phân loại theo luật hiện hành của Bộ Quốc phòng, trong đó Anthropic khẳng định rằng phân loại này là "chưa từng có và bất hợp pháp", vì nó chỉ được áp dụng lịch sử cho các đối thủ nước ngoài như Huawei và không thể được sử dụng hợp pháp chống lại một công ty nội địa chỉ vì một cuộc tranh cãi về chính sách.
Bối cảnh và nền tảng
Anthropic được thành lập vào năm 2020 và đã thu hút sự chú ý của Bộ Quốc phòng Mỹ bằng cách ký hợp đồng trị giá 200 triệu USD vào năm 2025 để triển khai công nghệ của mình trong các hệ thống bí mật. Trong các cuộc đàm phán, Anthropic đã khẳng định rằng họ không muốn sử dụng hệ thống trí tuệ nhân tạo của mình cho giám sát hàng loạt, và công nghệ của họ chưa sẵn sàng để sử dụng trong việc ra quyết định bắn.
Vào ngày 17 tháng 3, Bộ Quốc phòng đã thông báo rằng họ lo ngại rằng Anthropic có thể cố gắng "làm gián đoạn công nghệ của mình hoặc thay đổi hành vi của mô hình" trước hoặc trong "các hoạt động quân sự" nếu họ cảm thấy rằng "các đường đỏ" của họ đã bị vượt qua. Anthropic đã lập luận rằng những lo ngại này không xuất hiện trong các cuộc đàm phán, mà chỉ xuất hiện trong hồ sơ của chính phủ trước tòa án.
Tác động và hệ quả
Vụ kiện này làm nổi bật những thách thức về đạo đức và pháp lý mà các công ty trí tuệ nhân tạo đang phải đối mặt, và đặt ra câu hỏi về ai nên xác định giới hạn của công nghệ này: các công ty công nghệ được hướng dẫn bởi các nguyên tắc an toàn nội bộ, hay các cơ quan công quyền hoạt động nhân danh an ninh quốc gia và lợi ích địa chính trị?
Nhiều nhà khoa học và nhà nghiên cứu trong lĩnh vực trí tuệ nhân tạo, bao gồm cả những người từ các công ty lớn như OpenAI, Google và Microsoft, đã ủng hộ Anthropic bằng cách gửi các bản ghi nhớ hỗ trợ trong vụ kiện. Ngược lại, Bộ Quốc phòng Mỹ đã chuyển sự chú ý của mình sang làm việc với các công ty trí tuệ nhân tạo khác như xAI và Google.
Tác động đến khu vực Arab
Vụ kiện này có ý nghĩa quan trọng đối với khu vực Arab, nơi đang gia tăng đầu tư vào công nghệ trí tuệ nhân tạo. Kết quả của vụ kiện này có thể ảnh hưởng đến cách các quốc gia Arab đối phó với các công ty trí tuệ nhân tạo, đặc biệt trong bối cảnh các thách thức an ninh và chính trị mà họ đang phải đối mặt.
Cuối cùng, vụ kiện này phản ánh sự căng thẳng ngày càng tăng giữa đổi mới công nghệ và yêu cầu an ninh quốc gia, đặt ra câu hỏi về tương lai của trí tuệ nhân tạo trên toàn cầu.