CEO Anthropic, ông Dario Amodei, vừa công khai từ chối yêu cầu của Lầu Năm Góc vào thứ Năm. Bộ Quốc phòng Mỹ muốn được sử dụng công nghệ AI của công ty này cho mục đích quân sự mà không bị hạn chế. Thời hạn chót chỉ còn vài giờ nữa, nếu không đáp ứng, startup trị giá 380 tỷ USD này có thể bị loại khỏi chuỗi cung ứng của quân đội Mỹ.
Cuộc đối đầu này đánh dấu lần đầu tiên một công ty AI lớn công khai chống lại yêu cầu kiểm soát công nghệ của chính phủ Mỹ.
Trong một bài đăng blog trên trang web của Anthropic, Amodei cho rằng các đe dọa từ phía Lầu Năm Góc là “tự mâu thuẫn”, bởi một mặt coi Anthropic là rủi ro an ninh, mặt khác lại xem Claude là công nghệ thiết yếu cho an ninh quốc gia.
“Dù sao đi nữa, những đe dọa này cũng không làm thay đổi quan điểm của chúng tôi: Chúng tôi không thể đồng ý với yêu cầu đó một cách có lương tâm,” Amodei viết.
Mâu thuẫn tập trung vào hai điều kiện Anthropic đưa ra cho việc sử dụng Claude trong quân sự. Công ty không cho phép tự động nhắm mục tiêu vào đối phương và cũng cấm giám sát hàng loạt với công dân Mỹ. Lầu Năm Góc coi đây là những hạn chế không thể chấp nhận đối với hoạt động quân sự hợp pháp.
Anthropic cho biết “đề nghị cuối cùng” của Lầu Năm Góc, được gửi vào đêm thứ Tư, vẫn không giải quyết những quan ngại cốt lõi. “Các từ ngữ mới tưởng như là sự thỏa hiệp lại đi kèm với ngôn ngữ pháp lý cho phép bỏ qua những biện pháp bảo vệ này bất cứ lúc nào,” đại diện Anthropic chia sẻ trong một thông cáo, theo The Hill.
Người phát ngôn Bộ Quốc phòng, ông Sean Parnell, đã đưa ra tối hậu thư công khai vào thứ Năm. Ông yêu cầu Anthropic cung cấp quyền truy cập không giới hạn vào Claude Gov trước 5:01 chiều ET thứ Sáu — nếu không sẽ chấm dứt hợp tác và coi Anthropic là rủi ro chuỗi cung ứng.
“Chúng tôi sẽ không để bất kỳ công ty nào quyết định cách chúng tôi đưa ra quyết định hoạt động,” Parnell viết trên X.
Vào thứ Ba, Amodei đã gặp trực tiếp Bộ trưởng Quốc phòng Pete Hegseth, tại đó giới chức Lầu Năm Góc nêu ra ba hậu quả nếu không tuân thủ. Thứ nhất, loại Anthropic khỏi các hệ thống quân sự. Thứ hai, chỉ định rủi ro chuỗi cung ứng, ngăn các nhà thầu quốc phòng khác sử dụng sản phẩm của Anthropic. Thứ ba, viện dẫn Đạo luật Sản xuất Quốc phòng từ năm 1950 để ép công ty giao nộp công nghệ một cách hợp pháp.
Amodei giải thích trong blog rằng việc từ chối của mình còn xuất phát từ lý do kỹ thuật. “Các hệ thống AI tiền tuyến hiện nay chưa đủ ổn định để vận hành vũ khí tự động hoàn toàn,” ông viết, đồng thời cho rằng nếu không được kiểm soát chặt, các hệ thống này “không thể thay thế sự phán đoán quan trọng mà binh lính chuyên nghiệp của chúng ta thể hiện mỗi ngày.”
Thượng nghị sĩ Cộng hòa Thom Tillis chỉ trích cách xử lý vụ việc của Lầu Năm Góc. “Sao chúng ta lại bàn chuyện này công khai như vậy? Đây không phải là cách làm việc với một đối tác chiến lược,” Tillis nói với báo chí.
Với Anthropic, nguy cơ trước mắt là hợp đồng quân sự trị giá 200 triệu USD. Tuy nhiên, việc bị coi là rủi ro chuỗi cung ứng sẽ kéo theo hệ lụy lớn hơn nhiều, bởi tất cả nhà thầu quốc phòng sẽ phải xác minh mình không sử dụng sản phẩm của Anthropic trong hoạt động của mình.
Bối cảnh cạnh tranh đang thay đổi rất nhanh. xAI của Elon Musk đã ký thỏa thuận đưa Grok vào các hệ thống bảo mật, theo Axios, chấp nhận tiêu chuẩn “mọi mục đích hợp pháp” cho các dự án mật. OpenAI và Google cũng đang đẩy mạnh thỏa thuận gia nhập lĩnh vực này. Anthropic, từng là hãng AI duy nhất được phép xử lý tài liệu mật, nay đang đứng trước nguy cơ mất hoàn toàn lợi thế tiên phong.
Việc Lầu Năm Góc sẵn sàng viện dẫn Đạo luật Sản xuất Quốc phòng đối với một công ty công nghệ tạo tiền lệ không chỉ với riêng ngành AI. Nếu chính phủ có thể hợp pháp ép buộc một công ty AI dỡ bỏ giới hạn an toàn với lý do an ninh quốc gia, thì họ cũng có thể dùng lý luận này để yêu cầu các công ty crypto làm suy yếu các tính năng bảo mật hoặc thay đổi cơ chế giao dịch.
Sự căng thẳng này cũng càng củng cố cho lập luận phát triển AI theo hướng phi tập trung. Một nhà cung cấp AI tập trung có thể bị chính phủ gây áp lực — hoặc ép buộc hợp pháp — phải tháo dỡ các rào chắn bảo vệ. Điều này củng cố quan điểm rằng các giải pháp phi tập trung sẽ có khả năng chống chịu tốt hơn trước sức ép từ nhà nước.
Anthropic tăng trưởng quá nhanh đã làm dấy lên nhiều lo ngại trong cộng đồng đầu tư crypto. Giá trị lên đến 380 tỷ USD và việc AI thay thế nguồn thu truyền thống từ phần mềm đang gây áp lực lên dòng vốn tín dụng cá nhân vốn có liên hệ mật thiết với Bitcoin.
Anthropic cũng từng có dấu ấn với lĩnh vực crypto: Quỹ phá sản của FTX từng nắm giữ phần lớn cổ phần ban đầu của công ty này, sau đó đã bán đi để trả nợ cho các chủ nợ.
Thời hạn cuối vào thứ Sáu sẽ trôi qua, nhưng câu hỏi thực sự chỉ bắt đầu sau đó: Liệu Lầu Năm Góc có thực hiện đúng như lời cảnh báo, và điều đó sẽ tác động ra sao đến những công ty công nghệ đang lựa chọn giữa hợp đồng chính phủ với việc giữ vững giá trị sản phẩm?