Ngày 15.10, Bộ Tư pháp công bố hồ sơ thẩm định dự án luật Trí tuệ nhân tạo. Dự thảo do Bộ KH-CN chủ trì soạn thảo.

Đề xuất cấm các phần mềm AI "thao túng nhận thức con người"
NGUỒN: AI
AI gây thiệt hại, ai sẽ chịu trách nhiệm?
Theo Bộ KH-CN, trí tuệ nhân tạo (AI) đang trở thành công nghệ mũi nhọn của cuộc cách mạng công nghiệp 4.0. Nhiều thách thức cũng đặt ra xung quanh các vấn đề về quản lý, đạo đức và an toàn.
Điển hình như các quy định về bảo vệ dữ liệu cá nhân dù đã có nhưng chưa đủ chi tiết để giải quyết các bài toán đặc thù của AI (dữ liệu tổng hợp, dữ liệu ẩn danh, quyền được giải thích..).
Khoảng trống về trách nhiệm pháp lý khi AI gây thiệt hại cũng là vấn đề nhức nhối. Khi một hệ thống AI gây ra thiệt hại (xe tự lái gây tai nạn, phần mềm chẩn đoán y tế đưa ra kết quả sai…), ai sẽ chịu trách nhiệm, nhà phát triển, nhà sản xuất, người sử dụng, hay chính hệ thống AI?
Chưa kể, sự phát triển của AI đặt ra những nguy cơ an ninh phi truyền thống rất cấp bách. Công nghệ deepfake bị lạm dụng để tạo ra các thông tin sai lệch, bôi nhọ, lừa đảo; hay như hệ thống vũ khí tự động đặt ra các câu hỏi phức tạp về đạo đức và luật pháp quốc tế, đòi hỏi phải có quy định quản lý chặt chẽ…
Thực tế trên đòi hỏi cần xây dựng một đạo luật về AI. Điều này giúp nâng cao năng lực cạnh tranh của Việt Nam trong môi trường số toàn cầu, đồng thời tạo điều kiện thuận lợi cho việc thu hút đầu tư nước ngoài, thúc đẩy thương mại kỹ thuật số xuyên biên giới.
Cấm AI "thao túng nhận thức con người"
Tại dự thảo, Bộ KH-CN đề xuất phân chia 4 mức độ rủi ro của hệ thống trí tuệ nhân tạo.
Mức độ cao nhất là rủi ro không chấp nhận được, bao gồm: hệ thống được thiết kế, phát triển hoặc triển khai với mục đích trực tiếp thực hiện các hành vi bị pháp luật nghiêm cấm; hệ thống có mục đích hoặc tác động thực tế là thao túng nhận thức, hành vi của con người một cách có chủ đích, dẫn đến việc làm mất khả năng tự quyết và gây tổn hại nghiêm trọng về thể chất hoặc tinh thần; hệ thống được phát triển hoặc sử dụng nhằm chống phá Nhà nước Cộng hoà xã hội chủ nghĩa Việt Nam, xâm phạm an ninh quốc gia…
Các hệ thống trí tuệ nhân tạo có độ rủi ro nêu trên sẽ bị cấm phát triển, cung cấp, đưa ra thị trường hoặc đưa vào sử dụng dưới bất kỳ hình thức nào tại Việt Nam; chỉ được nghiên cứu, phát triển, thử nghiệm trong phòng thí nghiệm, cơ sở giáo dục, môi trường thử nghiệm có kiểm soát.
3 mức độ còn lại là rủi ro cao, rủi ro trung bình và rủi ro thấp. Với rủi ro cao, trước khi lưu hành hoặc đưa vào sử dụng, hệ thống trí tuệ nhân tạo phải thực hiện đánh giá sự phù hợp, đồng thời chịu sự thanh tra, kiểm tra của cơ quan nhà nước có thẩm quyền.
Nhà cung cấp hệ thống trí tuệ nhân tạo có rủi ro cao phải tuân thủ nhiều nghĩa vụ, trong đó thiết lập cơ chế tự động ghi nhật ký hoạt động của hệ thống để phục vụ truy vết, đánh giá an toàn, kiểm định định kỳ, xác định nguyên nhân sự cố và phân định trách nhiệm...
Đề xuất thành lập Ủy ban Quốc gia về trí tuệ nhân tạo
Dự thảo cũng đề xuất thành lập Ủy ban Quốc gia về trí tuệ nhân tạo, do Thủ tướng làm chủ tịch, để chỉ đạo, điều phối các hoạt động mang tính liên ngành và chiến lược về trí tuệ nhân tạo.
Thành phần của ủy ban bao gồm đại diện lãnh đạo các bộ, cơ quan ngang bộ có liên quan, bảo đảm đầy đủ chức năng quản lý nhà nước về công nghệ, kinh tế, an ninh, quốc phòng, văn hóa, giáo dục; có sự tham gia với tỷ lệ phù hợp của các chuyên gia, nhà khoa học, đại diện từ khu vực doanh nghiệp.
Bộ KH-CN là cơ quan thường trực của ủy ban, có trách nhiệm điều phối, vận hành cổng thông tin điện tử một cửa về trí tuệ nhân tạo và thực hiện nhiệm vụ do Thủ tướng giao.