Mặc dù việc các mô hình AI thế hệ mới như ChatGPT và Gemini đến một thời điểm nào đó trở nên có nhận thức hoặc khiến nhiều người mất việc làm có vẻ đáng lo ngại, nhưng vẫn còn những mối quan tâm cấp bách hơn nhiều.
Cụ thể, ba nhà nghiên cứu an ninh đến từ Mỹ và Israel gần đây đã tạo ra một sâu máy tính (worm) độc hại có khả năng nhắm mục tiêu vào các dịch vụ AI để thực hiện các hoạt động độc hại, gồm trích xuất dữ liệu cá nhân, phát tán tin giả hoặc thực hiện các cuộc tấn công lừa đảo.
Các nhà nghiên cứu tạo ra sâu máy tính có khả năng lợi dụng các công cụ AI tiên tiến.
Được đặt tên là Morris II, theo tên của loại sâu máy tính Morris đầu tiên của năm 1988. Các nhà nghiên cứu tạo ra sâu máy tính này để cảnh báo các công ty công nghệ về các mối đe dọa tiềm ẩn khi các công cụ AI ngày trở nên phổ biến. Nhưng phần mềm độc hại AI mà nhóm này phát triển vẫn tiềm ẩn những nguy hiểm.
Theo đó, kẻ tấn công có thể sử dụng một sâu máy tính tương tự để nhắm mục tiêu vào các dịch vụ AI bằng cách nhập các câu lệnh (Prompt) có khả năng tự sao chép, khi đó các mô hình xử lý và đưa ra kết quả, tại thời điểm đó chúng có thể được sử dụng để tham gia vào các hoạt động độc hại.
Trong nghiên cứu, họ đã trình diễn phần mềm độc hại bằng cách nhắm mục tiêu vào các trợ lý email được hỗ trợ bởi AI. Trong đó, họ có thể biến một hình ảnh đính kèm trong email thành công cụ spam cho người dùng cuối. Ở một trường hợp khác, họ đã sử dụng văn bản trong email để “đầu độc” cơ sở dữ liệu của ứng dụng email của khách hàng và đánh cắp dữ liệu nhạy cảm.
Các nhà nghiên cứu giải thích rằng nghiên cứu này không nhằm mục đích phản bác việc phát triển, triển khai và tích hợp các khả năng của AI tạo sinh trong thực tế. Cũng như không có ý định gây tâm lý hoang mang cho người dùng. Họ chỉ muốn trình bày một mối đe dọa cần được lường trước trong tương lai.
Phong Nguyễn - BGR