Công an Thành phố Hà Nội đã liên tục đưa ra cảnh báo về một hình thức lừa đảo tinh vi sử dụng công nghệ Deepfake để giả mạo video, hình ảnh và giọng nói của người thân, bạn bè nhằm chiếm đoạt tài sản. Thủ đoạn này đã khiến nhiều người dân mất cảnh giác, với số tiền thiệt hại lên đến hàng tỷ đồng.
Thủ đoạn lừa đảo bằng công nghệ Deepfake
Công nghệ Deepfake cho phép tạo ra các video giả mạo với hình ảnh và giọng nói giống hệt người thật, khiến nạn nhân khó phát hiện. Các đối tượng lừa đảo lợi dụng công nghệ này để giả danh người thân hoặc bạn bè, nhắn tin hoặc gọi điện yêu cầu nạn nhân chuyển tiền với lý do khẩn cấp như vay mượn, trả nợ, hoặc hỗ trợ tài chính. Để che giấu các sai sót như hình ảnh mờ, âm thanh không khớp, hoặc biểu cảm khuôn mặt thiếu tự nhiên, các đối tượng thường viện cớ như "bận công việc", "sóng yếu" để nhanh chóng kết thúc cuộc gọi, khiến nạn nhân không kịp nhận ra sự bất thường.
Theo báo cáo từ Phòng An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao, các vụ lừa đảo sử dụng Deepfake tại Việt Nam đang gia tăng, với mức độ tinh vi vượt xa khả năng nhận diện của người dùng thông thường. Báo cáo quý 1/2025 của Resemble AI cho biết, thiệt hại toàn cầu do Deepfake gây ra đã vượt 200 triệu USD, trong đó Việt Nam nằm trong nhóm quốc gia chịu ảnh hưởng nặng nề.
Vụ việc điển hình tại Long Biên, Hà Nội
Một trường hợp điển hình xảy ra tại quận Long Biên, Hà Nội vào ngày 28/3/2025. Bà T (HKTT: Long Biên, Hà Nội) nhận được cuộc gọi nhỡ từ tài khoản Viber của con gái. Khi bà gọi lại bằng video call, hình ảnh hiển thị là con gái, nhưng cuộc gọi nhanh chóng bị ngắt.
Tài khoản này sau đó nhắn tin với lý do "sóng yếu", hình ảnh kém, và yêu cầu bà T chuyển tiền để đổi ngoại tệ lấy phí chiết khấu. Tin tưởng đây là con gái mình, bà T đã chuyển hơn 1,3 tỷ đồng theo hướng dẫn mà không kiểm tra lại. Sau đó, bà phát hiện toàn bộ tin nhắn từ tài khoản này đã bị xóa và nghi ngờ tài khoản của con gái bị hack. Bà T đã đến cơ quan công an trình báo sự việc.

Hình minh họa. Ảnh: CNA
Cách phòng tránh lừa đảo
Để bảo vệ bản thân và tài sản trước thủ đoạn lừa đảo tinh vi này, Công an Thành phố Hà Nội và các chuyên gia khuyến cáo người dân cần thực hiện các biện pháp sau:
- Xác minh thông tin: Khi nhận được tin nhắn hoặc cuộc gọi yêu cầu chuyển tiền, đặc biệt với lý do khẩn cấp, hãy bình tĩnh gọi lại qua số điện thoại chính thức hoặc gặp mặt trực tiếp để kiểm chứng. Không nên tin tưởng ngay vào các cuộc gọi video, vì hình ảnh và giọng nói có thể là giả mạo
- Chú ý dấu hiệu bất thường: Quan sát kỹ các dấu hiệu trong video call như khuôn mặt thiếu cảm xúc, âm thanh không đồng bộ với khẩu hình, ánh sáng bất thường, hoặc cử động không tự nhiên. Đây có thể là dấu hiệu của video Deepfake.
- Bảo vệ thông tin cá nhân: Hạn chế đăng tải hình ảnh, video hoặc giọng nói lên mạng xã hội. Đặt tài khoản ở chế độ riêng tư để tránh bị đối tượng xấu thu thập dữ liệu phục vụ Deepfake.
- Kiểm tra tài khoản ngân hàng: Trước khi chuyển tiền, luôn kiểm tra kỹ thông tin tài khoản ngân hàng để đảm bảo tên người nhận khớp với người bạn định chuyển.
- Tránh bấm vào link lạ: Không nhấp vào các đường dẫn không rõ nguồn gốc, ngay cả khi được gửi từ tài khoản của người quen.
- Sử dụng công cụ phát hiện Deepfake: Các phần mềm như Intel FakeCatcher hoặc Microsoft Video Authenticator có thể giúp phát hiện nội dung giả mạo bằng cách phân tích sự không đồng bộ giữa hình ảnh và âm thanh.
- Trình báo cơ quan chức năng: Nếu phát hiện dấu hiệu lừa đảo, hãy nhanh chóng liên hệ cơ quan Công an gần nhất để được hỗ trợ.