Phishing Bằng DeepFake – Cảnh giác chiêu trò lấy hình ảnh ghép video nhạy cảm để lừa đảo

Thời gian gần đây, trên toàn quốc đã xuất hiện những phương thức lừa đảo và cưỡng đoạt tài sản sử dụng công nghệ cao rất tinh vi và nguy hiểm. Các đối tượng đã lợi dụng công nghệ Trí tuệ nhân tạo (AI) và Deepfake để tạo ra những hình ảnh và video “nhạy cảm” giả mạo, nhằm đe dọa và tống tiền nạn nhân.

Trước khi vào tìm hiểu Deepfake và sử dụng các kỹ thuật để thực hiện phishing, ta có thể xem thêm các video đang nói về nguy cơ lạm dụng Deepfake như thế nào:

DeepFake Là Gì?🤔

DeepFake thực chất là công nghệ kết hợp giữa học sâu (Deep Learning) và giả mạo (Fake), sử dụng AI để tạo ra hoặc chỉnh sửa video, hình ảnh, âm thanh trông giống hệt người thật. Ví dụ, kẻ gian có thể ghép khuôn mặt của bạn vào một video không có thật hoặc giả giọng nói của bạn để nói những điều bạn chưa từng nói.

Phương thức, thủ đoạn điển hình của tội phạm phishing sử dụng DeepFake

Các đối tượng lừa đảo thường thực hiện hành vi phạm tội theo các bước sau:

1️⃣ Thu thập thông tin và hình ảnh: Tìm kiếm, thu thập thông tin cá nhân (số điện thoại, tài khoản mạng xã hội…) và hình ảnh công khai của nạn nhân (đặc biệt là doanh nhân, cán bộ, công chức hoặc bất kỳ ai có hình ảnh trên mạng).

2️⃣ Tạo dựng nội dung giả mạo: Sử dụng công nghệ AI, DeepFake để cắt ghép, tạo ra các hình ảnh, video “nhạy cảm” giả mạo có khuôn mặt của nạn nhân với độ chính xác ngày càng cao, khiến nạn nhân và người xem khó phân biệt thật – giả.

3️⃣ Tiếp cận và đe dọa: Thông qua các số điện thoại lạ (SIM rác, số nước ngoài chuyển vùng) hoặc tài khoản mạng xã hội ảo, đối tượng gửi các hình ảnh/video giả mạo này cho nạn nhân.

4️⃣ Tống tiền: Kèm theo hình ảnh/video là lời đe dọa sẽ phát tán lên mạng xã hội, gửi cho gia đình, bạn bè, đồng nghiệp, cơ quan công tác nếu nạn nhân không chuyển tiền theo yêu cầu vào tài khoản ngân hàng hoặc ví điện tử do chúng cung cấp. Thủ đoạn này nhằm gây sức ép tâm lý, lo sợ bị mất danh dự, buộc nạn nhân phải chuyển tiền.

Một Số Kịch Bản Phishing DeepFake Phổ Biến 🎬

Kẻ gian thường sử dụng DeepFake thông qua một số kịch bản lừa đảo phổ biến như sau:

  • Giả danh người thân vay tiền: Gọi video sử dụng deepfake giả khuôn mặt người thân chỉ vài giây chập chờn rồi tắt, sau đó kiếm lý do sóng kém rồi chuyển sang nhắn tin vay tiền gấp.
  • Giả danh người thân cầu cứu: Video call từ “người thân” thông báo đang gặp nguy hiểm như tai nạn hay bị bắt cóc, cần tiền chuộc ngay lập tức.
  • Giả mạo sếp yêu cầu chuyển tiền hoặc bộ phận HTKT yêu cầu cung cấp thông tin tài khoản hoặc reset tài khoản/2FA: Một video “sếp” xuất hiện với lý do thuyết phục, yêu cầu nhân viên chuyển tiền khẩn cấp cho đối tác hoặc dự án hoặc giả mạo 1 nhân viên thuộc HTKT yêu cầu nạn nhân cung cấp OTP và các thông tin reset tài khoản
  • Tống tiền bằng video giả: Kẻ gian tạo video giả mạo có nội dung nhạy cảm để đe dọa phát tán nếu không nhận được tiền, chẳng hạn như ghép mặt nạn nhân vào các video “nóng” hoặc tạo cảnh quay giả về hành vi không đúng mực của nạn nhân tại nơi làm việc.
  • Lừa đảo đầu tư hoặc tuyển dụng: Giả mạo nhân vật nổi tiếng hoặc CEO uy tín qua video để mời chào đầu tư sinh lời cao hoặc tuyển dụng với điều kiện hấp dẫn, sau đó yêu cầu chuyển tiền phí hoặc cung cấp thông tin cá nhân.

Năm dấu hiệu nhận biết cuộc gọi lừa đảo DeepFake. Nguồn: Cục An toàn thông tin

✅ Phòng Chống Phishing DeepFake 🛡️

Phòng Chống Trước Khi Bị Lừa

  1. Luôn cảnh giác với video, hình ảnh, giọng nói “quen” xuất hiện trong bối cảnh bất thường, đặc biệt khi kèm yêu cầu chuyển tiền hay cung cấp thông tin. Luôn xác thực thông tin đa nguồn.
  2. Hạn chế đăng ảnh, video cá nhân và thông tin nhạy cảm công khai trên mạng xã hội. Sử dụng cài đặt riêng tư để kiểm soát người xem và việc tag liên quan.
  3. Không tùy ý kết bạn trai xinh, gái đẹp trên MXH mà mình không quen biết. Hãy chỉ kết bạn với người quen ngoài đời thật hoặc các tài khoản đã biết rõ ràng
  4. Tuyệt đối không cung cấp thông tin cá nhân (CCCD, giọng nói, ảnh…) cho người lạ. Cẩn trọng với cuộc gọi video từ tài khoản lạ có thể là DeepFake giả mạo.
  5. Trước khi chuyển tiền, nếu có yêu cầu từ người thân hay cơ quan chức năng, hãy gọi điện trực tiếp để xác minh, không dựa vào tin nhắn hay video trên mạng xã hội.
  6. Khi phát hiện dấu hiệu giả mạo, hãy lưu bằng chứng và báo ngay cơ quan công an để được hỗ trợ, đồng thời cảnh báo bạn bè, người thân.
  7. Liên tục cập nhật kiến thức về DeepFake, AI và an ninh mạng từ các nguồn chính thống như Bộ Công an, Bộ Thông tin và truyền thông.
  8. Sử dụng xác thực đa yếu tố (2FA) cho tài khoản mạng xã hội, email…

Khắc Phục Khi Bị Lừa

  • Nếu không may bị lừa, việc đầu tiên là giữ bình tĩnh, không hoảng sợ, ghi lại mọi bằng chứng như tin nhắn hay video, sau đó ngừng liên lạc với kẻ gian.
  • Hãy báo ngay cho Ban ANTT hoặc công an để được hỗ trợ, đồng thời thông báo ngân hàng nếu có giao dịch tài chính để kịp thời khóa tài khoản.
  • Cảnh báo đồng nghiệp, bạn bè để họ không rơi vào tình huống tương tự.
  • Và trong bất kỳ trường hợp nào, chúng ta nên hỗ trợ lẫn nhaukhông bàn tán, trêu đùa nạn nhân để tránh làm tình hình thêm rối ren, ảnh hưởng xấu đến tâm lý của người bị hại.

Kết Luận: Tỉnh Táo Là Chìa Khóa 🔑

Hình thức lừa đảo bằng DeepFake thực sự rất nguy hiểm, nhưng không phải là không thể phòng tránh. Chỉ cần chúng ta luôn giữ được sự bình tĩnh và tỉnh táo, chúng ta hoàn toàn có thể bảo vệ bản thân và đồng nghiệp. Nếu có bất kỳ nghi ngờ nào, đừng ngần ngại hỏi ý kiến từ Ban ANTT. Hãy cùng nhau xây dựng một môi trường làm việc an toàn và đáng tin cậy! 💪