Thời gian qua, cùng với sự phát triển của công nghệ, lừa đảo trực tuyến cũng trở nên phổ biến và nguy hiểm hơn bao giờ hết. Đặc biệt, đối tượng lừa đảo sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake) để lừa đảo tài chính người dùng.
Theo các chuyên gia, mức độ phức tạp của các kịch bản lừa đảo trực tuyến sẽ ngày càng cao khi sử dụng AI khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều. Về vấn đề này, Thiếu tá Phí Văn Thanh, Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao, Bộ Công an cho rằng, để thế giới an toàn hơn thì chế tài cơ bản nhất mà chúng ta có thể làm là buộc các giao dịch chuyển tiền lớn cần phải nhận biết bằng hình thức sinh trắc học.
PV : Ông có nhận định thế nào về xu thế lừa đảo trực tuyến hiện nay?
Thiếu tá Phí Văn Thanh : Hiện nay, thủ đoạn hết sức tinh vi, thao túng tâm lý, sử dụng công nghệ trí tuệ nhân tạo, có sự kết cấu chặt chẽ để lừa đảo, thậm chí, chúng tôi đánh giá, có thể trở thành “ngành công nghiệp lừa đảo” đang và sẽ trở thành xu hướng lừa đảo trực tuyến hiện nay; nói đó là “ngành công nghiệp” bởi các đối tượng lừa đảo có nhiều phương thức tinh vi, có phương pháp về mặt tâm lý học và hệ thống, công cụ hiện đại để tiếp cận nạn nhân.
Các đối tượng nhắm đến đời sống sinh hoạt thường của người dân để thực hiện lừa đảo. Ví dụ, các dịp lễ lớn thời gian gần đây như: 14/2, 8/3, sắp tới là 30/4-1/5 để hướng tới lừa đảo người dân. Các nạn nhân đôi khi không phải vì tham lam, vì sợ sệt, mà còn bị thao túng tâm lý, dẫn dụ khiến không kiểm soát được hành vi; càng nói chuyện dài với các đối tượng, khả năng bị dẫn dụ lừa đảo càng cao.
Hiện, Việt Nam đang có tốc độ phát triển công nghệ thông tin nhanh, trong khi trình độ hiểu biết, kỹ thuật sử dụng công nghệ thông tin của người dân còn hết sức hạn chế, không đồng đều.
Theo tôi, việc lừa đảo qua các thiết bị công nghệ chưa bao giờ hiện đại, tinh vi, nhiều hình thức như bây giờ. Đáng chú ý, trong quá trình giám sát, chúng tôi thấy hình thức lừa đảo qua trí tuệ nhân tạo hay còn gọi là AI có những bước phát triển thần kỳ trong những năm 2013 và tiếp tục bùng nổ năm 2014.
Từ hình thức này, kéo theo rất nhiều công cụ để phục vụ mục đích xấu, lừa đảo, tấn công mạng. Như chúng ta biết, AI tạo ra một công cụ là Chat GPT và một công nghệ là Deepfake, một phương thức là tạo ra những sản phẩm từ những hình ảnh, âm thanh,… thậm chí là tự soạn những kịch bản để lừa đảo các nạn nhân.
Cái nữa là, mã độc và các công cụ khai thác lỗ hổng sẽ được trang bị thêm trí tuệ nhân tạo vào trong công cụ đó để gia tăng khả năng khai thác, cũng như thu thập thông tin của người dùng hoặc qua mặt các giải pháp an ninh mạng.
PV : Theo ông, với sự phát triển nhanh chóng của AI, các vụ tấn công này sẽ nguy hiểm thế nào trong tương lai?
Thiếu tá Phí Văn Thanh : Như chúng ta biết Deepfake mới xuất hiện tại Việt Nam. Tuy nhiên, trên thực tế, các chiêu thức lừa đảo giả mạo bằng cách sử dụng bằng công nghệ AI đã được rất nhiều nhóm tội phạm quốc tế áp dụng từ 2-3 năm trước đây.
Việc sử dụng công nghệ AI, ngày nay những kẻ lừa đảo đã nâng mức độ tinh vi lên rất nhiều, khiến cho các nạn nhân rất khó có thể cảnh giác.
Công nghệ AI tạo ra các sản phẩm âm thanh, hình ảnh, video… Thậm chí làm giả hình ảnh, lời nói của những người quen của bị hại giống như ngoài đời thực với độ chính xác rất cao.
Thay vì chúng sử dụng các cuộc điện thoại thông thường, thì chúng sử dụng các cuộc điện thoại video call với các hình ảnh công an mặc sắc phục, cán bộ tòa án, cán bộ thuế,… Từ đó, gây tâm lý hết sức sợ sệt, dẫn đến việc các nạn nhân sẽ bị thao túng tâm lý, và rồi chúng sẽ lừa đảo, chiếm đoạt tiền.
Có một điều, chúng tôi nhận thấy rất đáng lo ngại đó là, khi tội phạm mạng ở Việt Nam biết nhiều hơn các cách thức đánh cắp các video, các hình ảnh. Trong khi, tình trạng để lộ lọt thông tin, dữ liệu cá nhân xảy ra khá phổ biến, một phần không nhỏ xuất phát từ sự bất cẩn của người dùng, khiến vấn nạn lừa đảo trực tuyến ngày càng nhiều, là điều kiện thuận lợi để tội phạm mạng sử dụng các công cụ cắt ghép, những cái đó có sẵn trên mạng để tạo thành một Deepfake.
Chúng tôi thấy, từ đó dần dần tạo thành một làn sóng lừa đảo thế hệ 4.0, khiến nhiều người lâu nay cứ nghĩ là “rất khó bị lừa”, thì một ngày nào đó rất có thể trở thành nạn nhân.
PV : Có tới 77% người nhận cuộc gọi điện thoại từ AI mất tiền. Và từ đầu năm 2024, các chuyên gia an ninh mạng của BKAV phát đi các cảnh báo về tình trạng các đối tượng lừa đảo sử dụng AI để tạo giọng nói và hình ảnh giả mạo để lừa tiền. Vậy các nhà quản lý đang phải đối mặt với những thách thức nào, thưa ông?
Thiếu tá Phí Văn Thanh : Thách thức lớn nhất đối với công nghệ AI ngày nay là lừa đảo, tấn công có chủ đích. Trong thuật ngữ tin học là APT (tức là lừa đảo có chủ đích) với mức độ ngày càng phức tạp, có kịch bản lừa đảo.
Đặc biệt, có sự kết hợp giữa Deepfake và Chat GPT. Qua đó, khả năng thu thập, phân tích dữ liệu của người dùng thông qua AI, cho phép tạo ra được những “chiến lược lừa đảo” một cách tinh vi, khiến việc nhận diện các hình thức lừa đảo sẽ khó khăn hơn với người dùng.
Phương thức như tôi vừa nói, tấn công APT tiếp tục gia tăng, khi các dữ liệu quan trọng của các tổ chức, luôn là đích nhắm của bọn tội phạm mạng. Những cuộc tấn công này không chỉ phức tạp hơn mà còn mức độ đe dọa đặc biệt nghiêm trọng, hướng tới đánh cắp, mã hóa dữ liệu quan trọng. Cụ thể như, những hình ảnh riêng tư, những video nhạy cảm,… Từ đó, trở thành “con tin” để các đối tượng khống chế, buộc nạn nhân phải trả một số tiền nào đó.
Một hình thức nữa đối với nhà quản lý, là việc tăng cường an ninh cho AI đang trở thành một xu hướng không thể phủ nhận.
Cộng đồng quốc tế, đang kết hợp chặt chẽ các biện pháp bảo mật mới, cùng việc nâng cao nhận thức, kiến thức cho người dùng về những rủi ro tiềm ẩn của AI. Tuy nhiên, quá trình tuyên truyền cho người dân, với mặt bằng chung của người dân về công nghệ thông tin còn chưa đồng đều.
PV : Trước sự leo thang tấn công của các kẻ lừa đảo sử dụng công nghệ AI, một trong những đối tượng yếu thế trong xã hội là người già, phụ nữ, trẻ em. Theo ông, họ cần trang bị như thế nào trước sự tấn công này?
Thiếu tá Phí Văn Thanh : Chúng ta thấy khi công nghệ phát triển, sự phổ cập smart phone, thiết bị thông minh, thì khi đó người già, trẻ em, người cao tuổi đều có thể mắc lừa.
Một trong những giải pháp bảo vệ thiết thực nhất, chúng tôi thấy, trong chính gia đình mình, những người trẻ, những người có hiểu biết hơn có trách nhiệm tự trang bị cho người thân của mình, những kiến thức nhận diện các hình thức lừa đảo.
Về phía cơ quan chức năng, chúng tôi luôn chủ động phối hợp các cơ quan ban ngành, báo chí, truyền thông đẩy mạnh công tác tuyên truyền. Qua đó, nâng cao nhận thức về pháp luật.
Chúng tôi cũng thường xuyên thông báo về các phương thức lừa đảo trực tuyến, giúp người dân nâng cao cảnh giác, kỹ năng để người ta phòng ngừa.
Một biện pháp nữa, theo tôi người dân cần tích cực tố giác tội phạm. Bởi, tâm lý của người già, trẻ nhỏ, sau khi bị lừa đảo trực tuyến là rất ngại tố giác. Do đó, quá trình chúng tôi tuyên truyền qua hình thức, đấu tranh xử lý các đối tượng như vậy để cho người dân có niềm tin đối với cơ quan, tổ chức.
PV : Vậy liệu rằng đã đến lúc Việt Nam cần có chế tài quản lý AI, đưa việc sử dụng, nghiên cứu, phát triển AI vào khuôn khổ chưa, thưa ông?
Thiếu tá Phí Văn Thanh: Tại Việt Nam AI được phát triển, ứng dụng trên nhiều lĩnh vực khác nhau và được xem là một trong những động lực quan trọng trong việc định hướng phát triển kinh tế, xã hội. Chúng ta có thể thấy, các công trình nghiên cứu thực thể gắn liền với AI càng ngày càng nhiều.
Chính phủ Việt Nam cũng đã nhận định, AI là một công nghệ có tính đột phá trong 10 năm tới. Đồng thời, xác định đây là một mũi nhọn cần được triển khai, nghiên cứu, nhằm tận dụng các cơ hội mà cuộc cách mạng 4.0 mang lại.
Đây không chỉ đơn thuần là vấn đề học thuật, không chỉ đơn thuần là vấn đề pháp lý mà nó liên quan đến sự phát triển của một con người, một quốc gia, nhân loại. Do đó, chúng tôi nhận thấy vấn đề đạo đức, trách nhiệm AI trong tất cả các khâu, từ xây dựng thuật toán, thu thập dữ liệu đến các công cụ huấn luyện, ứng dụng phải được các tổ chức, cá nhân quan tâm ngay từ khâu đầu tiên là xây dựng hệ thống liên quan đến công việc chính của các cơ quan.
Còn vấn đề chế tài quản lý AI, là vấn đề được nhắc đến rất lâu. Tuy nhiên vẫn còn rất nhiều vấn đề gây tranh cãi. Tôi nghĩ, chế tài cho AI cần có những quy định cụ thể, trong đó, nói rõ những việc được làm và không được làm.
Chúng tôi thấy, để thế giới an toàn hơn thì chế tài cơ bản nhất mà chúng ta có thể làm là buộc các giao dịch chuyển tiền lớn cần phải nhận biết bằng hình thức sinh trắc học. Trong những tình huống như vậy những người nạn nhân mất thông tin, danh tính hoàn toàn có thể tránh được việc mất tiền.
PV : Xin cảm ơn ông!