Trong đơn kiện trình lên tòa án quận phía bắc California và tòa phúc thẩm liên bang khu vực Washington DC ngày 8/3, Anthropic cho rằng việc công ty bị dán nhãn rủi ro chuỗi cung ứng là bất hợp pháp, vi phạm quyền tự do ngôn luận và quyền được xét xử công bằng dựa theo Tu chính án thứ nhất.
"Những hành động này chưa từng có tiền lệ và bất hợp pháp", nội dung đơn kiện có đoạn. "Hiến pháp không cho phép chính phủ sử dụng quyền lực khổng lồ của mình để trừng phạt một công ty vì quyền tự do ngôn luận được pháp luật bảo vệ".
Claude, mô hình AI chủ lực của Anthropic, đã tích hợp sâu rộng trong các hệ thống của Bộ Quốc phòng Mỹ từ năm 2025. Đây cũng là mô hình AI duy nhất được quân đội Mỹ phê duyệt sử dụng trong các hệ thống mật, gồm cả việc quyết định mục tiêu tấn công tên lửa trong cuộc chiến chống lại Iran.
Trong đơn kiện, Anthropic nhấn mạnh họ vẫn cam kết cung cấp AI cho mục đích an ninh quốc gia, và từng hợp tác với Bộ Quốc phòng trong việc điều chỉnh hệ thống cho các trường hợp sử dụng đặc thù. Về cơ bản, công ty vẫn muốn tiếp tục đàm phán với chính phủ.
"Yêu cầu xem xét lại vấn đề tư pháp không làm thay đổi cam kết lâu dài của chúng tôi trong việc sử dụng AI để bảo vệ an ninh quốc gia, nhưng đây là bước đi cần thiết để bảo vệ hoạt động kinh doanh, khách hàng và đối tác của chúng tôi", người phát ngôn của Anthropic nói với Guardian. "Chúng tôi sẽ tiếp tục theo đuổi mọi con đường để giải quyết vấn đề, gồm cả đối thoại với chính phủ".
Cũng theo đơn kiện, Anthropic cho biết hành động trừng phạt của chính quyền Mỹ đang "gây tổn hại không thể khắc phục". Tuy vậy, cáo buộc phần nào mâu thuẫn với tuyên bố của CEO Dario Amodei. Trên CBS News tuần trước, ông nói tác động của việc bị dán nhãn đe dọa chuỗi cung ứng "khá nhỏ" và công ty "sẽ ổn thôi".
Bộ Quốc phòng Mỹ chưa đưa ra bình luận.
Logo Anthropic hiển thị trên màn hình smartphone. Ảnh: Bảo Lâm
Giữa tuần trước, Bộ Quốc phòng Mỹ thông báo với Anthropic rằng công ty và những sản phẩm liên quan chính thức bị xếp vào diện rủi ro chuỗi cung ứng. Quyết định được đưa ra sau nhiều tuần xung đột giữa đôi bên, khi Amodei từ chối cho phép quân đội sử dụng AI của họ để giám sát hàng loạt người Mỹ hoặc vận hành vũ khí tự động.
Theo giới chuyên gia, việc xếp hạng rủi ro chuỗi cung ứng đối với một công ty Mỹ có thể gây ảnh hưởng tiêu cực đến các doanh nghiệp khác muốn kinh doanh với chính phủ. Thông thường, danh sách này chỉ nhắm đến công ty nước ngoài.
Anthropic được dự đoán sẽ gặp khó khăn thời gian tới, kể cả với các sản phẩm phi quân sự. "Điều này có thể gây ra tác động dây chuyền đối với Anthropic và Claude trên thị trường doanh nghiệp những tháng tới, vì một số doanh nghiệp sẽ phải dừng triển khai Claude để chờ mọi thứ được giải quyết tại tòa án", nhà phân tích Dan Ives của Wedbush nói với Reuters.
Ngày 9/3, sau khi đơn kiện được nộp, một nhóm gồm 37 nhà nghiên cứu và kỹ sư từ OpenAI và Google, gồm cả nhà khoa học trưởng Jeff Dean của Google, đã đệ trình bản kiến nghị ủng hộ Anthropic. Trong đó, nhóm cho rằng động thái của Lầu Năm Góc có thể khiến các chuyên gia ngần ngại tranh luận công khai về rủi ro và lợi ích của AI.
"Bằng cách bịt miệng một phòng thí nghiệm, chính phủ đã làm giảm tiềm năng và các giải pháp đổi mới trong ngành công nghiệp AI", nhóm cho biết.
Trước đó, theo TechCrunch, hàng trăm nhân viên OpenAI và Google cũng kêu gọi Bộ Quốc phòng rút lại quyết định và yêu cầu Quốc hội Mỹ phản đối "điều có thể bị coi là lạm dụng quyền lực không phù hợp đối với một công ty công nghệ Mỹ".
tổng hợp







