Các vụ lừa đảo deepfake AI đang trở thành mối đe dọa ngày càng tăng trong ngành công nghiệp tiền điện tử. Trong một trường hợp gần đây, tin tặc đã đánh cắp 2 triệu USD bằng cách giả mạo người sáng lập Plasma, một blockchain stablecoin chuyên biệt, và sử dụng âm thanh giả để thuyết phục mục tiêu tải xuống phần mềm độc hại nguy hiểm.
Thêm vào đó, mã hóa AI đang giúp những kẻ tấn công có kỹ năng thấp tạo ra các giao thức tinh vi cho tội phạm của họ.
Với mức độ tội phạm tiền điện tử gia tăng hiện nay, các vụ lừa đảo và gian lận tinh vi đang gia tăng. Tội phạm đã sử dụng kỹ thuật xã hội nâng cao để lừa đảo người dùng, nhưng các giải pháp AI đã mở ra một hướng tấn công mới.
Cụ thể, tin tặc đang sử dụng deepfake AI để thực hiện các vụ lừa đảo này, lừa đảo các mục tiêu nổi bật.
Cụ thể hơn, tin tặc đã giả mạo CEO của Plasma, một blockchain layer-1 cho stablecoin, đã trở nên nổi tiếng trong những tháng gần đây nhờ ICO 500 triệu USD.
Deepfake đã là một hướng tấn công lớn cho tội phạm tiền điện tử, với 200 triệu USD thiệt hại chỉ trong quý 1 năm 2025. Nhờ tốc độ phát triển AI chưa từng có gần đây, các deepfake này dễ tiếp cận hơn bao giờ hết, cho phép các vụ lừa đảo tiền điện tử với rào cản gia nhập rất thấp.
Ngay cả khi không có deepfake, AI vẫn đang thúc đẩy nhiều vụ lừa đảo tiền điện tử. Tính chất kỹ năng thấp của các chiến lược mới này đặc biệt hấp dẫn đối với tội phạm. Ví dụ, các cơ quan giám sát an ninh mạng gần đây đã phát hiện một công cụ rút tiền ví mới được công bố bởi “Kodane” ẩn danh. Nó có thể đã được tạo ra hoàn toàn bởi AI.
Khi kiểm tra mã, các chuyên gia bảo mật cho rằng phần mềm độc hại này có vẻ kỹ thuật cao, mặc dù rõ ràng là do AI tạo ra. Tuy nhiên, những kẻ lừa đảo con người không đủ khả năng, đặt tên cho chương trình là “ENHANCED STEALTH WALLET DRAINER.” Sự thiếu khả năng rõ ràng của tội phạm này làm nổi bật mối nguy hiểm thực sự trong hướng tấn công mới này.
Vậy, giữa phần mềm độc hại AI và deepfake mới, có cách nào để người dùng tiền điện tử tránh được các vụ lừa đảo không? Như một sự kiện lập trình gần đây đã cho thấy, các chương trình này giỏi tấn công hơn là phòng thủ.
Trong một cuộc gọi mở gần đây để hack các tác nhân AI để giành giải thưởng tiền mặt, khả năng phòng thủ của các giao thức này rất kém:
Giữa các lĩnh vực như mua sắm, du lịch, chăm sóc sức khỏe và nhiều lĩnh vực khác, tác nhân an toàn nhất vẫn bị xâm nhập bởi 1.5% các cuộc tấn công hack.
Nhiều lỗ hổng được xác định là phổ biến và có thể chuyển giao, xuyên qua tất cả các tác nhân bất kể mô hình cơ bản của chúng. Những kết quả như vậy sẽ là thảm họa đối với một doanh nghiệp thực sự.
Tất cả những điều đó cho thấy, có một lý do rõ ràng và hiện hữu để giữ các nhà phát triển con người ở một bên của cuộc chiến này. Ngay cả khi các vụ lừa đảo tiền điện tử sử dụng phần mềm độc hại AI rẻ tiền và deepfake, chúng sẽ đối đầu với các nhà phát triển con người. Nếu điều đó xảy ra, nhân viên bảo mật tận tâm sẽ có thể ngăn chặn chúng.
Trong trường hợp Plasma đã đề cập, các biện pháp đối phó hiện có gần như đã ngăn chặn được cuộc tấn công. Phần mềm độc hại chỉ xâm nhập sau khi nạn nhân cố gắng tải xuống hai lần.
Nói cách khác, một doanh nghiệp Web3 với đội ngũ bảo mật con người nên an toàn. Người dùng tiền điện tử vẫn dễ bị tổn thương chủ yếu trên cơ sở cá nhân.