Anthropic vừa ra mắt Claude Opus 4.7, mô hình AI tiên tiến nhất của họ cho đến hiện tại, mang lại nâng cấp đáng kể về khả năng suy luận dài hạn, xử lý hình ảnh và tự động thực hiện tác vụ.
Thông tin này được công bố vào ngày 16/04/2026, giúp Anthropic củng cố vị thế trong cuộc đua AI cho doanh nghiệp vốn đang diễn ra rất nhanh, nơi các đối thủ đều liên tục mở rộng khả năng lập trình, phân tích dữ liệu và các quy trình đa phương tiện.
Claude Opus 4.7 được thiết kế để xử lý các nhiệm vụ phức tạp kéo dài với độ chính xác cao hơn và cần ít sự giám sát hơn, đáp ứng nhu cầu quan trọng của các lập trình viên doanh nghiệp và chuyên gia phân tích tài chính.
Theo Anthropic, mô hình này “tự kiểm tra kết quả trước khi gửi trả về,” giúp tăng tính tin cậy trong các hoạt động quan trọng như lập trình phần mềm và xây dựng mô hình dữ liệu.
Bản cập nhật này cũng bổ sung mức độ suy luận mới “xhigh”, giúp nhà phát triển kiểm soát tốt hơn sự cân bằng giữa tốc độ phản hồi và mức độ sâu của quá trình xử lý.
Một tính năng thử nghiệm có tên “task budgets” cho phép doanh nghiệp quản lý việc sử dụng token trong các tác vụ AI kéo dài.
Một điểm cải tiến đáng chú ý là về khả năng hiểu hình ảnh. Opus 4.7 có thể xử lý ảnh với kích thước lên tới 2,576 pixel ở cạnh dài (~3.75 megapixel), tức là gấp hơn ba lần độ phân giải hỗ trợ ở các phiên bản trước đó.
Nhờ nâng cấp này, người dùng có thể ứng dụng model vào các trường hợp sử dụng mới như:
Anthropic cho biết model tạo ra kết quả tinh gọn hơn cho các bài thuyết trình chuyên nghiệp cũng như các tác vụ thiết kế trong môi trường doanh nghiệp.
Bên cạnh model mới, Anthropic cũng nâng cấp một số tính năng cho nền tảng của mình. Trên Claude Code, lệnh ultrareview mới sẽ tự động rà soát, đánh giá mã nguồn chuyên sâu và phát hiện các lỗi giống như các lập trình viên cấp cao làm thủ công.
Trên các nền tảng đám mây như Amazon Bedrock, Google Cloud Vertex AI và Microsoft Foundry, Opus 4.7 được cung cấp với mức giá ngang với phiên bản trước: 5 USD cho mỗi một triệu input token và 25 USD cho mỗi một triệu output token.
Công ty cũng nhấn mạnh sự cải thiện về khả năng làm theo chỉ dẫn, đồng thời lưu ý rằng các yêu cầu đầu vào cần chính xác hơn vì model thực hiện lệnh một cách sát sao hơn các phiên bản trước đó.
Anthropic khẳng định Opus 4.7 vẫn giữ mức độ an toàn tương tự Opus 4.6, đồng thời tăng khả năng chống lại tấn công prompt injection và giảm thiểu các kết quả đánh lạc hướng qua kiểm nghiệm nội bộ. Tuy nhiên, công ty vẫn thừa nhận vẫn còn một số vấn đề như phản hồi quá chi tiết về nội dung gây hại, cho thấy còn những thách thức về điều chỉnh phù hợp với mong muốn người dùng.
Một chương trình xác minh an ninh mạng mới sẽ cho phép các chuyên gia bảo mật kiểm tra model trong môi trường được kiểm soát nhằm mục đích đánh giá lỗ hổng và thực hiện hoạt động kiểm tra xâm nhập hệ thống.
Opus 4.7 cho thấy xu hướng AI tự động, sử dụng nhiều công cụ đang được xây dựng để đáp ứng các quy trình liên tục trong doanh nghiệp thay vì chỉ dừng ở các tương tác ngắn.
Với việc các đối thủ cũng đang phát triển khả năng đa phương tiện và tác nhân thông minh, giai đoạn tiếp theo của cuộc đua sẽ tập trung vào tính tin cậy, tiết kiệm chi phí và khả năng triển khai an toàn ở quy mô lớn.
Đối với doanh nghiệp, điều này đồng nghĩa các hệ thống AI đang chuyển mình từ vai trò trợ lý sang thành các tác nhân vận hành liên tục, thay đổi cách thức làm việc số phức tạp trong lĩnh vực phần mềm, tài chính và phân tích dữ liệu.
Song song đó, một số nguồn tin cho biết Coinbase đang chủ động tiếp cận Anthropic để tăng cường hạ tầng bảo mật cho sàn giao dịch. Đặc biệt, Coinbase được cho là đang tìm cách truy cập vào model Mythos AI phiên bản giới hạn của Anthropic, lấy cảm hứng từ chương trình an ninh mạng Project Glasswing vừa ra mắt.
Dù Anthropic quảng bá Opus 4.7 là cột mốc đột phá, sự kiện này cũng chưa thể xóa đi những lần gián đoạn nghiêm trọng vừa qua khiến hàng nghìn người không truy cập được Claude.ai và các công cụ liên quan trong tuần này. Sự kỳ vọng về quy mô vẫn đang vượt xa tốc độ phát triển của hạ tầng thực tế.
Bên cạnh đó, tranh chấp gần đây của Anthropic với chính quyền Trump về việc quân đội tiếp cận AI đã khiến công ty vừa được đánh giá là có nguyên tắc, vừa trở nên dễ tổn thương, đặt ra câu hỏi về việc liệu cam kết an toàn của họ thực sự vì người dùng hay chỉ là chiến lược truyền thông.