Xác nhận không thể tắt mô hình Claude trong chiến tranh

Anthropic khẳng định không thể tắt mô hình 'Claude' khi quân đội Mỹ triển khai, trong bối cảnh tranh cãi với Bộ Quốc phòng về rủi ro chuỗi cung ứng.

Xác nhận không thể tắt mô hình Claude trong chiến tranh

Công ty Anthropic đã thông báo trong một phiên tòa vào thứ Sáu rằng họ không có khả năng tắt mô hình AI sinh ra của mình, 'Claude', sau khi nó được quân đội Mỹ triển khai. Những tuyên bố này được đưa ra nhằm phản bác lại các cáo buộc từ chính quyền trước đó của Tổng thống Trump rằng công ty có thể can thiệp vào các công cụ của mình trong các tình huống chiến tranh.

Thiyagu Ramasamy, Giám đốc bộ phận dịch vụ công của Anthropic, cho biết công ty “không bao giờ có khả năng khiến Claude ngừng hoạt động, thay đổi chức năng, cắt quyền truy cập hoặc ảnh hưởng đến các hoạt động quân sự theo bất kỳ cách nào”. Ông cũng nhấn mạnh rằng Anthropic “không có quyền tắt công nghệ hoặc thay đổi hành vi của mô hình trước hoặc trong quá trình hoạt động”.

Cuộc xung đột giữa Bộ Quốc phòng và Anthropic

Cuộc tranh cãi giữa Bộ Quốc phòng Mỹ và phòng thí nghiệm Anthropic đã gia tăng trong nhiều tháng qua về cách thức công ty sử dụng công nghệ của mình cho các mục đích an ninh quốc gia và các giới hạn cần thiết cho việc sử dụng này. Trong tháng này, Bộ trưởng Quốc phòng Pete Hegseth đã mô tả Anthropic là một mối đe dọa đối với chuỗi cung ứng, một phân loại ngăn cản bộ này sử dụng phần mềm của công ty, bao gồm cả thông qua các nhà thầu, trong những tháng tới, dẫn đến việc một số cơ quan chính phủ khác đã rút lui khỏi việc sử dụng Claude.

Công ty đã phản ứng bằng cách đệ đơn kiện hai vụ để thách thức tính hợp hiến của lệnh cấm và yêu cầu một lệnh khẩn cấp để đảo ngược quyết định này. Tuy nhiên, một số khách hàng đã bắt đầu hủy hợp đồng. Một phiên điều trần trong một trong các vụ kiện này dự kiến sẽ diễn ra vào ngày 24 tháng 3 tại Tòa án quận liên bang ở San Francisco, và thẩm phán có thể sớm đưa ra một quyết định tạm thời đảo ngược lệnh cấm.

Quan điểm của Bộ Quốc phòng

Trong một hồ sơ trước đó vào đầu tuần này, các luật sư của chính phủ đã viết rằng Bộ Quốc phòng “không có nghĩa vụ phải chấp nhận rủi ro làm tổn hại đến các hệ thống quân sự quan trọng trong những khoảnh khắc quyết định cho quốc phòng và các hoạt động quân sự đang diễn ra”. Bộ Quốc phòng đã sử dụng Claude để phân tích dữ liệu, viết báo cáo và hỗ trợ trong việc tạo ra các kế hoạch chiến đấu, theo một báo cáo từ tạp chí WIRED.

Các đối thủ của Anthropic cho rằng công ty có thể làm gián đoạn các hoạt động quân sự hiện tại bằng cách ngăn chặn quyền truy cập vào Claude hoặc đẩy các bản cập nhật có hại nếu họ không đồng ý với một số cách sử dụng. Tuy nhiên, Ramasamy đã phủ nhận khả năng này, khẳng định rằng “Anthropic không giữ bất kỳ cánh cửa sau nào hoặc chìa khóa tắt từ xa”, và nhân viên của Anthropic “không thể, ví dụ, đăng nhập vào hệ thống của Bộ Quốc phòng để sửa đổi hoặc tắt các mô hình trong quá trình hoạt động; công nghệ đơn giản là không hoạt động theo cách đó”.

Nguyên tắc và điều kiện hợp tác

Ramasamy cũng đã giải thích rằng bất kỳ bản cập nhật nào mà Anthropic có thể cung cấp sẽ phải được sự đồng ý của chính phủ và nhà cung cấp dịch vụ đám mây, trong trường hợp này là Dịch vụ Web Amazon, đồng thời nhấn mạnh rằng công ty không thể truy cập vào các bộ định tuyến hoặc dữ liệu mà người dùng quân sự nhập vào Claude.

Trong các lập luận của mình trước tòa, ban lãnh đạo Anthropic khẳng định rằng họ không tìm cách tự trao cho mình quyền phủ quyết đối với các quyết định tác chiến quân sự. Sarah Heck, Giám đốc chính sách của công ty, đã nói trong một phiên tòa vào thứ Sáu rằng Anthropic đã đề nghị bao gồm một điều khoản bảo đảm trong hợp đồng được đưa ra vào ngày 4 tháng 3, trong đó nêu rõ rằng họ không có quyền kiểm soát hoặc phủ quyết các quyết định hoạt động hợp pháp của Bộ Quốc phòng. Cô cũng cho biết công ty đã sẵn sàng chấp nhận các điều khoản giải quyết những lo ngại của họ về việc sử dụng Claude trong việc thực hiện các cuộc tấn công gây chết người mà không có sự giám sát của con người, nhưng các cuộc đàm phán cuối cùng đã không thành công.

Biện pháp của Bộ Quốc phòng để giảm thiểu rủi ro

Bộ Quốc phòng trong các lập luận của mình đã cho biết họ đang thực hiện các biện pháp bổ sung để giảm thiểu rủi ro chuỗi cung ứng bằng cách “làm việc với các nhà cung cấp dịch vụ đám mây bên thứ ba để đảm bảo rằng ban lãnh đạo Anthropic không thể thực hiện các thay đổi đơn phương” đối với các hệ thống Claude hiện tại.

Cuộc tranh cãi này không chỉ ảnh hưởng đến mối quan hệ giữa Anthropic và Bộ Quốc phòng mà còn có thể tạo ra những tiền lệ quan trọng cho việc sử dụng công nghệ AI trong các hoạt động quân sự trong tương lai. Sự phát triển này sẽ cần được theo dõi chặt chẽ, vì nó có thể định hình cách mà các công ty công nghệ tương tác với các cơ quan chính phủ trong các lĩnh vực nhạy cảm như an ninh quốc gia.

Anthropic có thể tắt mô hình Claude không?
Không, Anthropic khẳng định họ không có khả năng tắt mô hình này.
Bộ Quốc phòng đã làm gì với Anthropic?
Bộ Quốc phòng đã cấm sử dụng phần mềm của Anthropic do lo ngại về chuỗi cung ứng.
Có phiên điều trần nào sắp diễn ra không?
Có, phiên điều trần dự kiến diễn ra vào ngày 24 tháng 3.