Sáng 21.11, tiếp tục chương trình kỳ họp thứ 10 Quốc hội khóa XV, Bộ trưởng Bộ KH-CN Nguyễn Mạnh Hùng trình dự án luật Trí tuệ nhân tạo (AI).

Bộ trưởng Bộ KH-CN Nguyễn Mạnh Hùng trình dự án luật Trí tuệ nhân tạo
ẢNH: GIA HÂN
Cấm phần mềm AI lừa dối, thao túng con người
Theo tờ trình, phạm vi điều chỉnh của luật này bao gồm hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống AI, quyền và nghĩa vụ của các bên liên quan và quản lý nhà nước đối với các hoạt động AI tại Việt Nam hoặc có tác động đến tổ chức, cá nhân tại Việt Nam.
Luật không áp dụng cho AI dùng riêng cho mục đích quốc phòng, an ninh, tình báo và các mô hình nghiên cứu, đào tạo chưa triển khai ra ngoài.
Tại dự thảo, Chính phủ đề xuất phân loại hệ thống AI theo 4 mức độ, gồm rủi ro không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp.
Trong đó, AI có rủi ro không chấp nhận được là các phần mềm được thiết kế, phát triển hoặc triển khai nhằm mục đích thực hiện các hành vi bị pháp luật nghiêm cấm.
Hoặc sử dụng yếu tố giả mạo, mô phỏng người, sự kiện thật để lừa dối, thao túng nhận thức, hành vi của con người một cách có chủ đích.
Hoặc tạo ra, phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội…
Các hệ thống AI thuộc diện rủi ro không chấp nhận được sẽ bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào tại Việt Nam.
Đáng chú ý, dự thảo còn quy định tổ chức, cá nhân vi phạm quy định sẽ bị xử lý kỷ luật, xử phạt vi phạm hành chính hoặc truy cứu trách nhiệm hình sự; nếu gây thiệt hại thì phải bồi thường.
Mức phạt tiền tối đa đối với vi phạm hành chính là 2 tỉ đồng với tổ chức, 1 tỉ đồng với cá nhân. Nếu hành vi vi phạm ở mức nghiêm trọng, mức phạt tiền tối đa có thể lên đến 2% doanh thu của năm trước liền kề của tổ chức đó.

Chủ nhiệm Ủy ban KH-CN và Môi trường Nguyễn Thanh Hải trình bày báo cáo thẩm tra tóm tắt
ẢNH: GIA HÂN
Cần có ngưỡng trách nhiệm khi xảy ra lỗi
Thẩm tra dự án luật, Ủy ban KH-CN và Môi trường nhận định, dự thảo phân loại AI theo 4 mức độ rủi ro là cơ bản phù hợp với điều kiện Việt Nam hiện nay.
Song, việc phân loại theo mức độ rủi ro còn nhiều khó khăn vì chưa xác định rõ tiêu chí định lượng hoặc định tính để xác định rủi ro. Do đó, đề nghị bổ sung quy định giao Chính phủ quy định chi tiết về các mức độ rủi ro căn cứ vào mức độ tự chủ của hệ thống, quy mô tác động, khả năng lan truyền và nguy cơ ảnh hưởng đến quyền con người, an ninh, an toàn xã hội…
Đặc biệt, cơ quan thẩm tra cho hay, các luật hiện hành về dân sự, hình sự và thương mại đều dựa trên khái niệm lỗi và hành vi của con người, trong khi hệ thống AI có thể hoạt động tự động và không có "ý chí" theo nghĩa pháp lý truyền thống.
Trong khi đó, những lỗi, hành vi của con người gây ra thì AI cũng có khả năng gây ra lỗi và hành vi tương tự. Ví dụ như: xe ô tô tự lái có tích hợp AI, máy khám chữa bệnh điều khiển bằng AI…
Cơ quan soạn thảo đề nghị bổ sung nội dung "trách nhiệm nghiêm ngặt" vào phần trách nhiệm đạo đức khi ứng dụng AI đối với tổ chức triển khai hệ thống AI rủi ro cao trong các lĩnh vực ảnh hưởng trực tiếp đến an toàn, tính mạng con người như y tế, giao thông và năng lượng.
Đồng thời, cần thiết lập cơ chế pháp lý xác định ngưỡng trách nhiệm, làm rõ khi nào lỗi của hệ thống AI được quy kết cho con người (do lỗi lập trình, bảo trì, giám sát) và khi nào AI hành động theo cách không thể dự đoán trước.
Cơ quan thẩm tra cũng đề nghị bổ sung một điều luật riêng về các hành vi bị nghiêm cấm trong lĩnh vực AI, trong đó cân nhắc với các hành vi như: sử dụng AI để thao túng bầu cử hoặc gây rối, kích động chính trị; sử dụng AI để nhận diện hoặc phân tích cảm xúc của cá nhân tại nơi làm việc, trong môi trường học tập mà không có sự đồng ý của người bị ảnh hưởng…

















