Một cảnh báo mới từ nhà nghiên cứu bảo mật Hariharan Shanmugam đang khiến cộng đồng an ninh mạng phải đặc biệt chú ý. Theo ông, thế hệ phần mềm độc hại tiếp theo có thể đang lẩn ẩn trong chính các mô hình trí tuệ nhân tạo (AI), đặc biệt là trong những ứng dụng được người dùng tin tưởng hàng ngày.
Thay vì tập trung vào các cuộc tấn công sử dụng AI một cách trực tiếp, Shanmugam chỉ ra rằng mã độc có thể đang lặng lẽ ẩn náu trong các mô hình AI như công cụ Core ML của Apple. Tại hội nghị bảo mật Black Hat USA 2025 vào ngày 7 tháng 8 tới đây, ông sẽ trình bày nghiên cứu chi tiết về cách các mô hình AI có thể bị ‘vũ khí hóa’ mà không cần đến sự hỗ trợ của các lỗ hổng phần mềm.
Vấn đề cốt lõi nằm ở chỗ phần lớn các công cụ bảo mật hiện tại không được thiết kế để quét sâu vào bên trong mô hình học máy hoặc thư viện AI. Đây chính là nơi mà mã độc có thể bị giấu kín trong hình ảnh hoặc tệp âm thanh. Từ đó, các chuyên gia bảo mật có thể dễ dàng bỏ lỡ những dấu hiệu đáng ngờ.
Shanmugam đã phát triển một framework tấn công có tên MLArc. Công cụ này sử dụng chính các thành phần học máy của Apple để thực hiện kiểm soát và ra lệnh (Command & Control – C2). Bằng cách tận dụng Core ML, Vision – xử lý ảnh, và AVFoundation – xử lý âm thanh, mã độc có thể ẩn mình dưới dạng dữ liệu hợp pháp. Điều này cho phép mã độc lọt qua mọi hệ thống kiểm tra và thậm chí được kích hoạt mà không để lại bất kỳ dấu vết rõ ràng nào.
Điều đáng lo ngại hơn nữa là những cuộc tấn công như vậy không cần bất kỳ lỗi bảo mật nào trong hệ thống của Apple hay ứng dụng AI. Thay vào đó, kẻ tấn công có thể phát hành một ứng dụng AI ‘trông có vẻ hợp pháp’, được lưu hành công khai trên các kho phần mềm. Tuy nhiên, bên trong ứng dụng lại chứa mã độc giấu kín. Khi ứng dụng chạy, payload độc hại sẽ được thực thi hoàn toàn trong bộ nhớ, tránh xa mọi bộ quét truyền thống.
Shanmugam cảnh báo rằng bất kỳ tổ chức nào cũng có thể trở thành nạn nhân nếu vô tình tích hợp một mô hình AI bị ‘nhiễm độc’. Đây là rủi ro nghiêm trọng trong chuỗi cung ứng phần mềm hiện đại, nơi AI ngày càng được sử dụng phổ biến trong xử lý ảnh, âm thanh, chatbot và nhiều ứng dụng khác.
Nhà nghiên cứu gọi đây là một chiến thuật ‘nhóm đỏ’. Mục đích là giúp cộng đồng bảo mật nhận ra rằng mô hình AI không chỉ là dữ liệu thụ động mà có thể trở thành kênh truyền tải dữ liệu nguy hiểm. Ông sẽ công bố các chỉ số xâm nhập (IoC) liên quan trong blog nghiên cứu của mình cùng thời điểm với buổi thuyết trình tại Black Hat USA 2025.
‘Thế hệ cấy ghép độc hại tiếp theo đang tìm nơi ẩn náu trong AI, và hiện tại chúng ta chưa đủ sẵn sàng để phát hiện,’ ông kết luận. Việc nhận thức được những rủi ro này là bước đầu tiên quan trọng để cộng đồng bảo mật có thể chủ động xây dựng các giải pháp bảo vệ hiệu quả hơn trong tương lai.