"Cơn hoảng loạn như cuốn trôi tôi đi. Tôi không thể suy nghĩ rõ ràng, chỉ cảm thấy video này sẽ bị phát tán khắp nơi. Tâm trí tôi chỉ xoay quanh những câu hỏi như: nó xảy ra khi nào, tôi quan hệ với ai, sao tôi không nhớ", Kate Issacs, nhà hoạt động 30 tuổi người Anh, nhớ lại cảm giác khi thấy hình ảnh khiêu dâm của mình trên Twitter hồi năm 2020.
Kate nói cô thấy tổn thương khi cơ thể bị phơi bày với tất cả mọi người, cho dù bản thân hoàn toàn không có ký ức nào về việc mình bị quay phim. Sau cơn sốc ban đầu, cô bắt đầu nhận ra điều đáng sợ hơn. Khuôn mặt cô xuất hiện trong video, nhưng cơ thể là của người khác. Lúc đó, Kate mới biết mình đã trở thành nạn nhân của deepfake khiêu dâm.
Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này sử dụng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật. Xuất hiện lần đầu năm 2017, deepfake lập tức gây chú ý với hàng loạt video khiêu dâm mạo danh người nổi tiếng, như diễn viên Gal Gadot, Emma Watson, Scarlett Johansson hay Daisy Ridley.
Kate Issacs đoán cô trở thành nạn nhân vì những gì cô đạt được trong chiến dịch #NotYourPorn, khiến hơn 10 triệu video ấu dâm và khiêu dâm bị xóa khỏi một nền tảng chia sẻ lớn. "Thông điệp của họ là: 'Nhà đấu tranh Kate Issacs muốn xóa phim khiêu dâm vì cô ta đã tự quay bản thân và đang hối tiếc'. Đó thật sự là lý do tồi tệ và rất đáng sợ", Kate nói.
Cô biết mình sẽ trở thành mục tiêu tấn công khi tham gia chiến dịch này. Do đó, cô đã xóa mọi bức ảnh có thể bị lợi dụng để chống lại mình trước khi xuất hiện trên TV. Nhưng cô cho biết chưa bao giờ chuẩn bị cho kịch bản mình xuất hiện trong một video khiêu dâm.
Kẻ đứng sau còn tìm ra địa chỉ nhà riêng và nơi làm việc của Kate, sau đó đăng lên mạng. "Tôi nhận vể nhiều lời đe dọa. Họ nói sẽ theo tôi về nhà, cưỡng hiếp và quay phim để phát tán lên mạng. Tôi hoảng sợ và phải nhờ bạn trai đưa đón, thay vì đi bộ 5 phút như trước. Đó là giai đoạn đáng sợ nhất mà tôi trải qua", Kate nói.
Theo Sensity AI, công ty nghiên cứu deepfake ra đời năm 2018, có khoảng hơn 90% nội dung deepfake hiện nay liên quan đến khiêu dâm, chủ yếu là ảnh, video nhằm vào phụ nữ. "Có hơn 57 triệu kết quả tìm kiếm trên Google cho từ khóa 'deepfake khiêu dâm'. Số lượt tìm kiếm cũng tăng 31% trong năm và không có dấu hiệu suy giảm", Jennifer Savin, cây bút chuyên theo dõi xu thế deepfake suốt bốn năm qua, cho hay.
Instagram, TikTok, YouTube, Twitter và Facebook có chính sách "ngăn chặn các thông tin gây hiểu lầm", nhưng hầu hết không thể kiểm soát do khối lượng nội dung deepfake quá lớn. Trong khi đó, pháp luật cũng chưa có chế tài cụ thể cho các nội dung khiêu dâm giả mạo.
Theo các chuyên gia, luật chống deepfake là điều cần thiết phải có trong bối cảnh công nghệ bị lạm dụng ngày càng nhiều. "Deepfake là chiếc hộp Pandora. Thật rắc rối khi tốc độ phản ứng của luật pháp quá chậm", Rebecca Delfino, giáo sư tại Trường Luật Loyola, nhận xét. Trong thần thoại Hy Lạp, Pandora là chiếc hộp chứa đựng những tâm hồn xấu xa của con người.
"Phát hiện deepfake là trò chơi mèo vờn chuột, cũng giống như việc săn virus. Đó là cuộc đua mà chúng ta đang thua", Wael Abd-Almageed, người sáng lập Phòng thí nghiệm phân tích đa phương tiện và trí tuệ thị giác của Đại học Nam California (VIMAL), nhận xét.
(theo Metro)