AI không chỉ là công nghệ mà nó còn là “vũ khí mới” trên không gian mạng
Tổng quan
AI trong tội phạm mạng đang phát triển một cách chóng mặt, thúc đẩy các cuộc tấn công lừa đảo AI, các cuộc gọi lừa đảo AI, AI Cloning lừa đảo rồi đến các cuộc tấn công bằng Deepfake. Trong những năm qua tổn thất to lớn mà tội phạm AI gây ra là vô cùng đáng ngại. Đơn giản như với việc Deepfake ngày càng tinh vi, người dùng và doanh nghiệp mất khả năng phân biệt thật – giả trong các cuộc gọi, họp online, video.
Theo Cybersecurity Ventures, tội phạm mạng toàn cầu sẽ gây thiệt hại ước tính 10.5 nghìn tỷ USD/năm vào năm 2025, và phần lớn trong đó sẽ được “tấn công” bởi AI. Và một báo cáo của Europol (2024) cũng cho rằng: “AI đang làm xóa mờ ranh giới giữa kẻ tấn công nghiệp dư và chuyên nghiệp”, đe dọa hệ thống an ninh mạng quốc gia.
Theo như Group‑IB – một công ty an ninh mạng hàng đầu toàn cầu cũng đã chỉ ra 5 xu hướng nổi bật mà AI đang được áp dụng trong tội phạm mạng:
- AI phishing tinh vi.
- Cuộc gọi lừa đảo (scam calls) có hỗ trợ AI.
- Giả mạo giọng nói (voice cloning scams).
- Tích hợp AI vào công cụ tấn công mạng
- Dark LLMs – các mô hình ngôn ngữ lớn đã bị “lột bỏ” các cơ chế kiểm soát để phục vụ mục đích bất hợp pháp.
Tác động chính của AI trong tội phạm
- Tăng tỷ lệ lừa đảo thành công
- Giả mạo người thật hiệu quả hơn
- Rút ngắn chu kỳ tấn công
- Phổ cập tội phạm AI đến nhiều nhóm tin tặc mới nổi
- Điều tra trở nên khó khăn
Chi tiết các xu hướng
-
Giả mạo giọng nói (voice cloning scams)
- Trong số tất cả các xu hướng về tấn công bằng AI thì Deepfake nổi lên như một công cụ mạnh mẽ và nguy hiểm tiềm tàng. Các nhóm tin tặc liên tục đẩy mạnh các cuộc tấn công mạng bằng Deepfake để thấy được mức độ ưu tiên của nó hiện nay như thế nào. Chỉ tính riêng trong Quý 2 năm 2025, thiệt hại do Deepfake gây ra được ước tính lên tới 350 triệu đô.
- Trong các cuộc tấn công Deepfake thì chủ yếu tin tặc sẽ sử dụng các phương thức tấn công phổ biến như sau:
- Executive Impersonation: Deepfake video sẽ trực tiếp mạo danh các CEO, CFO hoặc khách hàng đáng tin cậy trong các cuộc gọi thời gian thực, nhằm gây áp lực buộc nạn nhân thực hiện chuyển khoản hoặc tiết lộ dữ liệu. Thường được kết hợp với hình thức lừa đảo qua email doanh nghiệp (Business Email Compromise – BEC).
- Romance and Investment Scams: Các nhóm tin tặc giả mạo do AI tạo ra xây dựng lòng tin và thao túng nạn nhân trong thời gian dài.
- KYC Bypass: Video và hình ảnh deepfake đánh lừa quy trình xác minh danh tính trong quá trình tạo tài khoản hoặc đăng ký dịch vụ tài chính.
- Các dịch vụ Deepfake và Lip-Sync đã xuất hiện được vài năm từ các tiền điện tử Elon Musk giả cho đến các chính trị gia giải thích luật thuế giả. Đến thời điểm hiện tại các Video Deepfake giả mạo còn được rao bán tràn lan trên các nền tảng xã hội chỉ từ 5 đến 50 đô la. Chính vì vậy mà những chiến dịch AI Deepfake càng ngày càng nguy hiểm và phổ cập rộng rãi.
- Những kẻ tấn công ban đầu đã lợi dụng AI tạo ra các video mạo danh cá nhân hợp phát với cử chỉ, hành động một cách tự nhiên nhất trong các cuộc họp. Chính vì thế mà người dùng đã lầm tưởng cũng như tin rằng họ đang thực hiện các cuộc gọi xác thực với cấp trên và chuyển khoản một số tiền lớn. Trong hai năm qua, nhiều trường hợp cao cấp liên quan đến hàng triệu lần chuyển nhượng gian lận đã nổi lên, chẳng hạn như vụ án CFO của Arup gây tổn thất 25 triệu đô la trong một cuộc họp Zoom Deepfake.
- Trong các báo cáo gần nhất ghi nhận được, tin tặc rất ưa chuộc hình thức: “Impersonation-as-a-Service” – IaaS chuyên cung cấp dịch vụ mạo danh người khác cho các tội phạm khác sử dụng, thường để thực hiện các hành vi lừa đảo, gian lận tài chính, truy cập trái phép vào hệ thống, hoặc đánh cắp danh tính.
- Mạo danh kỹ sư IT.
- Mạo danh ngân hàng.
- Mạo danh CEO (CEO fraud).
- Deepfake voice/video.
- Mạo danh khách hàng.
-
Cuộc gọi lừa đảo (scam calls) có hỗ trợ AI
- Trong thời gian gần đây xu hướng này đang gia tăng mạnh mẽ. Những kẻ phạm tội đã lợi dụng việc AI có thể học giọng nói của một người từ một đoạn ghi âm ngắn (chỉ vài giây) sau đó dùng giọng nói đó để:
- Gọi điện giả làm người thân yêu cầu chuyển tiền.
- Mạo danh sếp yêu cầu nhân viên tài chính thực hiện lệnh chuyển khoản (Business Email Compromise dạng voice).
- Giả giọng kỹ sư IT hoặc nhân viên ngân hàng để lấy OTP hoặc thông tin đăng nhập.
- Bên cạnh đó tội phạm sử dụng AI voicebot để tạo cuộc gọi tự động thông minh giả danh:
- Cảnh sát.
- Ngân hàng.
- Cơ quan thuế.
- Hãng vận chuyển (ví dụ: giả mạo FedEx, DHL…).
- Sau đó chúng sẽ hỏi nạn nhân cung cấp mã OTP, thông tin thẻ, CMND, tài khoản ngân hàng… ,thậm chí có thể nghe và phản hồi tự nhiên như con người.
-
Dark LLMs
- Dark LLMs đang trỗi dậy một cách mạnh mẽ trong thế giới ngầm tội phạm mạng. Dark LLMs (Dark Large Language Models) được biết đến như một mô hình ngôn ngữ lớn (LLM) được tội phạm mạng tùy biến, gỡ bỏ mọi rào cản đạo đức, chính sách an toàn, nhằm hỗ trợ các hoạt động phi pháp, gian lận, hoặc tấn công mạng.
- Dark LLMs trỗi dậy một cách mạnh mẽ một phần do bản thân nó hỗ trợ rất nhiều cho kẻ tấn công trong các hoạt động tội phạm:
- Tạo nội dung lừa đảo (Scam/Fraud Content Generation).
- Social Engineering & Phishing Kit.
- Hỗ trợ phát triển mã độc (Malware Support).
- Reconnaissance & Initial Access.
- Theo các báo cáo ghi nhận, hiện nay có ít nhất 3 nhà cung cấp Dark LLMs đang hoạt động tích cực với chi phí thuê chỉ từ 30 đến 200 USD/tháng chính vì thế mà càng ngày càng có nhiều mối nguy hại tiềm tàng từ hình thức tấn công AI này.
- Điểm đáng chú ý của xu hướng này là tội phạm không dùng API công khai (như OpenAI, Anthropic…) vì dễ bị theo dõi, thu thập dữ liệu. Thay vào đó chúng sẽ tự host LLM trên hạ tầng riêng hoặc dark web, nhằm:
- Ẩn danh.
- Tối ưu hóa theo nhu cầu riêng.
- Khó bị shutdown.
-
AI phishing tinh vi.
- Đây là một xu hướng liên quan tới việc kẻ tấn công sẽ dùng các công cụ gửi email lừa đảo và spam được hỗ trợ bởi AI, với khả năng thông minh hơn, tự động hơn, và mở rộng quy mô mạnh hơn trong các chiến dịch tấn công social engineering.
- Khác biết so với những hình thức Spam Maill thông thường, AI-powered mailers là những hệ thống gửi email hàng loạt được tích hợp mô hình ngôn ngữ lớn (LLMs) hoặc AI NLP, nhằm:
- Tự động tạo nội dung email lừa đảo phù hợp với từng mục tiêu.
- Tùy biến cá nhân hóa nội dung (tên, công ty, chức vụ…).
- Tối ưu hóa tiêu đề, giọng điệu, thời điểm gửi để tăng tỷ lệ mở (open rate) và tương tác (click-through rate).
- Không chỉ dừng lại ở đó hiện nay trên dark web, các nền tảng spam mới bắt đầu xuất hiện theo mô hình “Mailer-as-a-Service”, trong đó:
- Người dùng trả tiền thuê bot hoặc AI để spam theo yêu cầu
- Gói dịch vụ bao gồm:
- Gửi 10.000 email/tháng.
- Cá nhân hóa nội dung bằng AI.
- Báo cáo hiệu suất spam.
- Tùy chọn gửi từ danh sách địa chỉ email bị đánh cắp.
-
Tích hợp AI vào công cụ tấn công mạng
- Đây là xu hướng đặc biệt quan trọng trong tội phạm mạng hiện đại, nơi AI được tích hợp vào công cụ tấn công mạng, nhưng chưa tự hoạt động hoàn toàn độc lập.
- Trước đây tội phạm mạng sử dụng chatbot như ChatGPT hoặc WormGPT để sinh đoạn mã độc một lần, ví dụ: một mã PowerShell obfuscation hoặc email phishing. Nhưng hiện nay AI sẽ được tích hợp trực tiếp vào malware builders, phishing toolkits, reconnaissance frameworks… và thậm chí khai thác API công khai từ các chatbot AI hợp pháp (như OpenAI, Google, etc.) hoặc dùng Dark LLMs riêng.
- Một chiến dịch sẽ trải qua 6 giai đoạn chính:
- Reconnaissance (Do thám ban đầu): Phân tích hệ thống mục tiêu, liệt kê tài nguyên, đánh giá các điểm yếu.
- Vulnerability Scanning: Sinh câu truy vấn tự động cho Shodan/Censys hoặc viết PoC tấn công từ CVE.
- Exploitation & Evasion: Sinh đoạn mã khai thác phù hợp hệ điều hành, dùng AI để obfuscate payloads nhằm tránh bị EDR phát hiện.
- Persistence & Privilege Escalation: Gợi ý cách giữ chỗ và leo thang đặc quyền dựa trên môi trường hệ thống.
- Tactical Code Generation: Sinh shellcode, backdoor, dropper bằng AI theo đặc tả.
- Phishing/Social Engineering: Viết nội dung email, chatbot scam, voice phishing kèm giọng giả AI.
Khuyến nghị
-
Phòng thủ đa lớp thông minh
- Triển khai phòng thủ đa lớp kết hợp các yếu tố như: phân tích hành vi, xác thực sinh trắc học, phân tích phiên truy cập (session analysis), và phát hiện bất thường (anomaly detection).
- Sử dụng các ứng dụng AI có khả năng giải thích (explainable AI), để giám sát hành vi người dùng, thiết bị, và xác định các gian lận phức tạp có yếu tố AI.
-
Giám sát hệ sinh thái ngầm
- Đầu tư vào nền tảng Threat Intelligence chuyên sâu để:
- Giám sát các diễn đàn, chợ đen, dịch vụ ngầm.
- Cảnh báo sớm về công cụ AI mới, chiến thuật tấn công, và dịch vụ tội phạm thuê ngoài (Crime-as-a-Service).
-
Đào tạo nâng cao nhận thức
- Cảnh báo theo ngữ cảnh: Phân tích nội dung và tình huống (ví dụ: yêu cầu gấp, nhấn mạnh quyền lực).
- Luồng báo cáo và xác minh rõ ràng: Hướng dẫn nhân viên cách phản hồi và escalates các yêu cầu nghi ngờ.
- Khuyến khích tư duy hoài nghi: Nhận diện các hành vi tạo cảm giác gấp gáp, áp lực hay vượt quyền.
-
Ứng dụng AI phòng thủ
- Tích hợp AI vào hệ thống giám sát để:
- Phát hiện bất thường trên diện rộng
- Tự động hóa phân loại, cảnh báo và phản ứng ban đầu
- Áp dụng mô hình học máy để giảm thời gian từ phát hiện đến xử lý (MTTD/MTTR).
Kết luận
AI đang ngày càng biến đổi cách thức hoạt động của tội phạm mạng, từ việc tinh vi hóa phishing đến tạo Deepfake và tự động hóa tấn công thông qua Dark LLMs. Nhận thức rõ các mối đe dọa và triển khai đối sách toàn diện (con người, kỹ thuật, hợp tác) sẽ giúp giảm thiểu thiệt hại và giữ vững an toàn số trong thời đại AI.
Tham khảo
From Deepfakes to Dark LLMs: 5 use-cases of how AI is Powering Cybercrime | Group-IB Blog
AI in Cybersecurity: How AI Is Impacting the Fight Against Cybercrime
| Bài viết độc quyền của chuyên gia FPT IS
Lưu Tuấn Anh – Trung tâm An toàn, bảo mật thông tin FPT |






