Ngày 31/3, Cơ quan bảo vệ dữ liệu của chính phủ Italy (Garante) đã ra lệnh cấm ChatGPT. Garante cáo buộc OpenAI không kiểm tra độ tuổi người dùng ứng dụng cũng như "không có bất kỳ cơ sở pháp lý nào biện minh cho việc thu thập, lưu trữ dữ liệu cá nhân khổng lồ" để huấn luyện chatbot. OpenAI có 20 ngày để phản hồi bằng các biện pháp khắc phục. Nếu không công ty có thể bị phạt 20 triệu euro (21,68 triệu USD) hoặc 4% doanh thu hàng năm trên toàn cầu.
OpenAI xác nhận đã vô hiệu hóa ChatGPT cho người dùng ở Italy theo yêu cầu của Garante. "Chúng tôi tích cực phối hợp để hạn chế dữ liệu cá nhân trong quá trình đào tạo ChatGPT. Chúng tôi muốn AI tìm hiểu về thế giới chứ không phải về các ngóc ngách cá nhân", công ty nói thêm.
Sau quyết định của Garante, Italy trở thành quốc gia phương Tây đầu tiên chống lại ChatGPT. Trước đó siêu AI này đã bị cấm ở Trung Quốc, Hong Kong, Iran, Nga và một số khu vực của châu Phi.
ChatGPT được OpenAI giới thiệu cuối năm ngoái và nhanh chóng khơi mào cuộc chiến công nghệ mới, khiến các đối thủ phải tung ra các sản phẩm tương tự để cạnh tranh. Sự bùng nổ của siêu AI đã thu hút sự chú ý của các nhà lập pháp ở nhiều quốc gia. Giới chuyên gia cho rằng cần có quy định mới để quản lý AI vì tác động tiềm ẩn của nó với an ninh quốc gia và rủi ro trong lĩnh vực giáo dục, việc làm.
Người phát ngôn của Ủy ban châu Âu (EU) cho biết: "Chúng tôi hy vọng tất cả công ty đang hoạt động tại EU tôn trọng quy tắc bảo vệ dữ liệu. Đây là trách nhiệm chung, cần được thực thi nghiêm túc". Tuy nhiên Phó chủ tịch điều hành Ủy ban châu Âu Margrethe Vestager cho biết EU chưa có xu hướng cấm AI.
"Bất kể sử dụng công nghệ nào, chúng ta phải tiếp tục thúc đẩy các quyền tự do và bảo vệ quyền riêng tư. Đó là lý do chúng ta không điều chỉnh các công nghệ AI, chúng ta điều chỉnh việc sử dụng AI", bà nói trên Twitter. Vestager cho rằng cơ quan quản lý không nên vứt bỏ những thành tựu phải mất hàng thập kỷ để xây dựng.
Trước đó, ngày 29/3, Elon Musk và một nhóm chuyên gia hàng đầu về AI kêu gọi các công ty ngừng phát triển những hệ thống mạnh hơn GPT-4 trong vòng 6 tháng vì rủi ro tiềm ẩn cho xã hội.
OpenAI chưa cung cấp chi tiết về cách đào tạo mô hình AI của mình. Phó giáo sư Johanna Björklund tại Đại học Umea, Thụy Điển đánh giá: "Sự thiếu minh bạch là vấn đề nghiêm trọng. Nếu làm nghiên cứu về AI, bạn phải rất minh bạch về cách thực hiện nó".
ChatGPT là chatbot AI được phát triển dựa trên mô hình ngôn ngữ lớn GPT-3.5. Ngày 14/3, thế hệ GPT-4 được công bố với khả năng xử lý đa phương thức đầu vào, trong đó có hình ảnh, giúp người dùng tương tác với nhiều chế độ. Việc chấp nhận hình ảnh đầu vào và xuất ra văn bản là tính năng mới chưa có trước đây, được đánh giá giúp người dùng có thêm tùy chọn để sáng tạo.
Bất chấp sức hút của ChatGPT, giới chuyên gia liên tục cảnh báo rủi ro liên quan đến AI này. Sam Altman, CEO OpenAI, cũng cho biết kết quả đầu ra của ChatGPT chứa nhiều lỗi. "Nó biết rất nhiều, nhưng điều nguy hiểm là nó tự tin và sai một phần đáng kể", ông viết trên Twitter. Mira Murati, CTO OpenAI, cũng đánh giá điểm yếu của ChatGPT là "có thể bịa ra sự thật, không phải lúc nào câu trả lời của AI cũng đúng".
(theo Reuters)