Ba cách AI đang được tội phạm mạng sử dụng để đánh cắp dữ liệu của người dùng

Sự phát triển vượt bậc của AI đã cách mạng hóa mọi khía cạnh cuộc sống tuy nhiên chúng cũng “mở đường” cho các cuộc tấn công mới tinh vi và nguy hiểm hơn, trong cả đời sống cá nhân lẫn doanh nghiệp.

Ảnh minh hoạ. (Nguồn: Kaspersky)
Ảnh minh hoạ. (Nguồn: Kaspersky)

Làn sóng Trí tuệ nhân tạo (AI) đã tạo ra một cuộc cách mạng trong ngành công nghệ. Tuy nhiên, sự tiến bộ này không chỉ mang đến những lợi ích mà còn tiềm ẩn những rủi ro nghiêm trọng, đặc biệt là trong lĩnh vực an ninh mạng. Một trong những mối nguy hiểm lớn nhất xuất phát từ việc AI có thể bị lợi dụng để thực hiện các cuộc tấn công phi kỹ thuật (social engineering attack) với mức độ tinh vi ngày càng cao.

Tấn công mạng sử dụng AI ngày càng gia tăng

Báo cáo Identity Fraud năm 2025 cho biết trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra. Diễn đàn Kinh tế Thế giới (World Economic Forum) dự báo, đến năm 2026 có thể tới 90% nội dung trực tuyến sẽ được tạo ra bằng AI.

Chuyên gia của Hãng bảo mật Kaspersky đã quan sát và phát hiện ra rằng tội phạm mạng đang sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo nội dung cho các cuộc tấn công phishing và lừa đảo quy mô lớn.

Những cuộc tấn công này thường để lại dấu vết đặc trưng của AI. Những dấu hiệu trên đã tiết lộ nội dung giả mạo đó được tạo ra bởi LLM. Việc ứng dụng LLM để tạo nội dung, khiến kẻ xấu dễ dàng tự động hóa tạo ra hàng chục, thậm chí hàng trăm trang web phishing và lừa đảo với nội dung thuyết phục, khiến các cuộc tấn công này càng trở nên khó phát hiện hơn.

Ngoài việc tấn công theo hình thức phishing, đã có nhiều bài học về các vụ lừa đảo sử dụng công nghệ deepfake. Deepfake cũng được sử dụng để tạo ra những quảng cáo giả mạo phát tán trên nhiều nền tảng, có sự xuất hiện của các nhân vật nổi tiếng, chẳng hạn như diễn viên toàn cầu hoặc chính trị gia.

Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video. Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.

anh-kaspersky-2-from-phishing-to-deepfakes-how-ai-is-fueling-a-new-wave-of-cyber-scams.jpg
Ảnh minh hoạ. (Nguồn: Kaspersky)

Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói.

Nhiều người có thể cho rằng mục tiêu chính của các cuộc tấn công deepfake và phishing AI là những người nổi tiếng hay các nhân vật có tiếng tăm.

Tuy nhiên, theo các chuyên gia từ Kaspersky mục tiêu và động cơ chính vẫn là người dùng phổ thông với thông tin cá nhân, ngân hàng, và thanh toán. Một đối tượng khác cũng dễ bị 'tổn thương' chính là các doanh nghiệp – nơi lưu giữ dữ liệu và tài sản có giá trị.

3 cách AI được lợi dụng để tấn công mạng

Hãng bảo mật Kaspersky cũng đã chỉ ra 3 cách AI đang được các tội phạm mạng sử dụng để đánh cắp dữ liệu của người dùng.

Phishing là một hình thức lừa đảo trên Internet nhằm dụ dỗ nạn nhân tiết lộ thông tin đăng nhập hoặc chi tiết thẻ ngân hàng. Hình thức này có thể nhắm tới cả cá nhân lẫn doanh nghiệp và được thực hiện trên diện rộng hoặc cá nhân hóa theo từng đối tượng. Tin nhắn phishing thường giả danh thông báo từ ngân hàng, nhà cung cấp dịch vụ, hệ thống thanh toán điện tử, hoặc các tổ chức khác. Trong trường hợp lừa đảo theo hình thức phishing nhắm mục tiêu cụ thể, kẻ lừa đảo thậm chí còn giả mạo người quen biết của nạn nhân.

Trước đây, các nội dung phishing thường sơ sài, đầy lỗi sai với nội dung thiếu thuyết phục. Giờ đây, các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục, với ngữ pháp chính xác, cấu trúc logic, và các đoạn văn mượt mà.

Ngày nay, khi phishing trở thành mối đe dọa toàn cầu, những kẻ tấn công còn có thể nhắm đến các cá nhân sử dụng ngôn ngữ mà chúng không thành thạo, nhờ vào khả năng sáng tạo nội dung của AI. Thêm vào đó, chúng có thể sao chép phong cách viết của cá nhân cụ thể chẳng hạn như đối tác kinh doanh hay đồng nghiệp bằng cách phân tích bài đăng mạng xã hội hoặc các nội dung khác liên quan đến cá nhân đó.

Hơn nữa, trong thời đại số hiện đại, công nghệ AI còn cho phép tạo ra các hình ảnh bắt mắt hoặc thậm chí dựng toàn bộ Landing Page một cách dễ dàng. Đáng nói, những công cụ này cũng bị tội phạm mạng lợi dụng để sản xuất các tài liệu đầy tính thuyết phục nhằm phục vụ cho việc lừa đảo theo hình thức phishing.

Deepfake âm thanh là công nghệ sử dụng trí tuệ nhân tạo để tạo ra những đoạn âm thanh giả mạo giọng nói của người khác một cách chân thực. Chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra các bản audio y hệt giọng nói của ai đó thân quen, chẳng hạn như bạn bè hoặc người thân.

anh-kaspersky-3-from-phishing-to-deepfakes-how-ai-is-fueling-a-new-wave-of-cyber-scams.jpg
Ảnh minh hoạ. (Nguồn: Kaspersky)

Kẻ tấn công sau khi chiếm được tài khoản trên một ứng dụng nhắn tin của người dùng, sau đó sử dụng các đoạn tin nhắn thoại trong cuộc trò chuyện để tạo ra bản ghi âm giả mạo giọng nói của họ. Chúng có thể gửi các tin nhắn này đến bạn bè hoặc người thân của bạn. Điều đáng sợ là, với công nghệ ngày càng phát triển, những cuộc tấn công này hoàn toàn có thể xảy ra. Kẻ tấn công có thể lợi dụng giọng nói của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.

Kẻ tấn công còn có thể sử dụng công cụ AI để tạo ra các đoạn video giả mạo deepfake chỉ từ một bức ảnh duy nhất.

Chỉ với vài hướng dẫn cơ bản, hacker có thể sử dụng dễ dàng những phần mềm phức tạp, để hoán đổi khuôn mặt trong video, đồng bộ chuyển động môi, tinh chỉnh các lỗi AI tạo ra, và thêm giọng nói chân thực cho nhân vật.

Với những công cụ này trong tay, kẻ tấn công có thể nghĩ ra những âm mưu tưởng chừng như không thể – chẳng hạn như tạo ra các quảng cáo giả mạo, thực hiện các cuộc gọi lừa đảo, hoặc thậm chí tổ chức các cuộc gọi video trực tiếp, giả danh một cộng sự đáng tin cậy hoặc một người thân thiết. Những hành vi này gây ra tổn thất tài chính nghiêm trọng cho các nạn nhân./.

(Vietnam+)

Tin cùng chuyên mục

Ảnh minh họa. (Nguồn: technode)

Hàn Quốc: Kỷ nguyên robot đang đến gần

Giai đoạn cuối năm 2024 cũng chưa có nhiều người có thể dự đoán rằng robot sẽ trở thành ngôi sao bất ngờ trên thị trường chứng khoán Hàn Quốc vào đầu năm 2025.