Là startup giáo dục nhưng Vuihoc nằm trong nhóm doanh nghiệp chịu tác động trực tiếp từ Luật Trí tuệ nhân tạo. Từ năm 2023, công ty tích hợp AI sâu vào nền tảng học tập, dùng thuật toán để phân tích điểm mạnh, điểm yếu của từng học sinh và cá nhân hóa lộ trình học tập.
Những công cụ như AI gia sư, hệ thống chấm điểm tự động hay gợi ý bài học kế tiếp giúp nền tảng phục vụ hàng trăm nghìn học sinh. Ông Võ Hoàng Biên, Giám đốc kỹ thuật phụ trách AI của Vuihoc, cho biết họ đã bám sát Luật Trí tuệ nhân tạo ngay từ giai đoạn dự thảo. Khi luật có hiệu lực, nhóm phát triển đã lập bản đồ tính năng AI trên nền tảng, sau đó đối chiếu quy định để xác định mức độ rủi ro.
"Chúng tôi rà soát sản phẩm theo ba tiêu chí của luật: phân loại rủi ro; minh bạch, dán nhãn khi người dùng tương tác với AI và bảo vệ dữ liệu", ông nói.
Theo ông, việc rà soát không chỉ là yêu cầu pháp lý mà còn phù hợp triết lý phát triển nền tảng. Trong AI có một rủi ro lớn gọi là "algorithmic bias" (thiên kiến thuật toán). "Nếu hệ thống AI chấm điểm, đánh giá năng lực học sinh một cách cứng nhắc, sai lệch, nó có thể dán nhãn 'học kém' cho một đứa trẻ, gây tổn thương tâm lý và tước đi cơ hội học tập của các em", ông Biên chia sẻ. Việc có hành lang pháp lý minh bạch, rõ ràng giúp đội ngũ phát triển dễ dàng hơn trong việc xác định ranh giới khi ứng dụng AI, đặc biệt ở lĩnh vực giáo dục - nơi người sử dụng chủ yếu là học sinh.
Ông ví khung pháp lý mới như những "biển báo giao thông", giúp kỹ sư biết đâu là giới hạn để sáng tạo mà không lo vượt rào. Dù luật kéo theo những nghĩa vụ mới, ông cho rằng đây là khoản đầu tư cần thiết, "tiêu chuẩn chặt chẽ hơn giúp sàng lọc thị trường".
Một bạn nhỏ đang học online qua nền tảng Vuihoc. Ảnh: NVCC
VSEC, doanh nghiệp trong lĩnh vực an ninh mạng, cũng đang tính toán cách thích nghi khi khung pháp lý mới hình thành. Họ ứng dụng AI trong các sản phẩm bảo mật để phân tích dữ liệu, phát hiện hành vi bất thường và hỗ trợ nhận diện nguy cơ tấn công mạng.
Ông Phan Hoàng Giáp, CTO kiêm Phó tổng giám đốc VSEC, cho biết ngay khi luật có hiệu lực, họ đã rà soát các ứng dụng AI đang sử dụng, đồng thời chuẩn bị cho việc tuân thủ các yêu cầu mới.
Khi AI tích hợp sâu vào hệ thống bảo mật, doanh nghiệp phải tính đến nhiều loại rủi ro khác nhau. Ông Giáp cho rằng hệ thống AI có thể phát sinh nhiều nguy cơ, từ dữ liệu, cách tương tác với hệ thống nội bộ cho tới việc thiên vị, gây ra những sai lệch ảo giác về mặt dữ liệu.
Ông xác nhận việc đáp ứng các quy định chắc chắn sẽ làm chi phí doanh nghiệp tăng lên, nhưng các công ty công nghệ phải chấp nhận. "Đảm bảo tuân thủ luật sẽ phát sinh chi phí, nhưng đó là việc cần làm", ông nói.
Ở góc nhìn khác, người đứng đầu một công ty phát triển camera AI cho rằng thách thức lớn nhất nằm ở cách các quy định được triển khai thực tế. Với startup công nghệ, tác động dễ thấy của khung pháp lý mới là ảnh hưởng tới tốc độ triển khai sản phẩm.
Theo nhà phát triển này, việc đưa một sản phẩm AI ra thị trường thường trải qua hai bước. Đầu tiên là giai đoạn thử nghiệm để đánh giá sự phù hợp, thường cần các đơn vị kiểm định. Sau đó, khi sản phẩm chính thức vận hành, doanh nghiệp mới thực hiện các thủ tục cấp phép liên quan. Tuy nhiên, từ kinh nghiệm với một số luật công nghệ trước đây, doanh nghiệp đôi khi rơi vào tình huống đã có quy định và quy trình đầy đủ, nhưng lại khó xác định rõ đơn vị nào chịu trách nhiệm kiểm định. Khi chưa có đầu mối cụ thể, doanh nghiệp lúng túng để tìm nơi thử nghiệm sản phẩm.
Vị chuyên gia này kiến nghị, các văn bản hướng dẫn luật cần chỉ rõ đâu là các tổ chức kiểm định, giúp quá trình thử nghiệm và đưa sản phẩm ra thị trường thuận lợi hơn, tránh tình trạng quy trình có sẵn nhưng phải chờ đợi đơn vị thực hiện.
Ông cũng đề xuất nên phân loại các trường hợp sử dụng. Với dự án lớn hoặc có tác động rộng, quy trình đánh giá có thể được ưu tiên thông qua "luồng xanh", nhằm đảm bảo tiến độ triển khai.
Giao diện xác thực khuôn mặt trên ứng dụng điện thoại. Ảnh: Lưu Quý
Với nhiều startup AI, việc tuân thủ luật mới không dừng ở việc rà soát sản phẩm hay bổ sung bước đánh giá rủi ro lúc này. Bài toán thực sự nằm ở giai đoạn tiếp theo, khi các quy định được triển khai trong thực tế và startup phải tìm cách đưa sản phẩm ra thị trường thông qua một quy trình kiểm định hoàn toàn mới.
Theo ông Trần Văn Sơn, Phó viện trưởng Công nghệ số và Chuyển đổi số quốc gia - đơn vị soạn thảo Luật Trí tuệ nhân tạo, khung pháp lý của Việt Nam được ban hành trong bối cảnh thế giới mới có ba khu vực và quốc gia triển khai luật AI, gồm Liên minh châu Âu (EU), Hàn Quốc và Nhật Bản, còn lại chủ yếu dừng ở mức chiến lược, hướng dẫn hoặc dự thảo luật.
Trong đó, EU tiếp cận theo hướng quản lý chặt chẽ, chi tiết, nhấn mạnh an toàn, Nhật Bản theo hướng thúc đẩy phát triển, còn Hàn Quốc ban hành luật ở mức cơ bản, đề cập cả an toàn và phát triển nhưng thiên về phát triển, yêu cầu an toàn tương đối nhẹ. Cách tiếp cận của Việt Nam là bảo đảm mức độ an toàn cao hơn khung cơ bản của Hàn Quốc, thúc đẩy phát triển mạnh mẽ như Nhật Bản, đồng thời hài hòa giữa an toàn và phát triển.
"Sự ra đời của Luật Trí tuệ nhân tạo hướng tới mục tiêu kép: lấp đầy khoảng trống pháp lý để quản lý các hình thức ứng dụng mới của AI, đồng thời chuyển từ tư duy quản lý bị động sang kiến tạo chủ động. Qua đó, thể chế hóa các chủ trương của Đảng, định hình trí tuệ nhân tạo trở thành động lực tăng trưởng kinh tế cốt lõi của quốc gia", đại diện cơ quan soạn thảo cho hay.
- Phân loại AI rủi ro cao: Phép thử đầu tiên của Luật Trí tuệ nhân tạo
- 46% vụ tấn công DDoS tại Việt Nam sử dụng AI
- GenAI đang tạo ra giá trị thực cho doanh nghiệp








