Ngày 29/3, Elon Musk và hơn 1.000 nhà lãnh đạo và chuyên gia công nghệ kêu gọi các phòng thí nghiệm trí tuệ nhân tạo dừng việc đào tạo những hệ thống AI mạnh hơn GPT-4 ít nhất trong 6 tháng để kiểm soát và ngăn chặn nguy cơ lạm dụng AI cho các mục đích nguy hiểm.
"Liệu có nên để máy móc tràn ngập các kênh thông tin bằng sự tuyên truyền sai sự thật? Con người có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể mạnh hơn, thông minh hơn và sớm muộn sẽ thay thế chúng ta?", bức thư có đoạn.
Lo ngại về rủi ro trong AI xuất phát từ việc nhiều ông lớn công nghệ như Meta, Microsoft, Meta, Google, Amazon đang liên tục sa thải đội ngũ kiểm duyệt nội dung huấn luyện trí tuệ nhân tạo, hay còn gọi là nhóm đạo đức AI. Theo FT, việc cắt giảm nhân viên chuyên đánh giá vấn đề đạo đức khi triển khai AI sẽ dẫn đến nhiều vấn đề, đặc biệt là thông tin sai lệch, trong khi AI lại đang được triển khai rộng rãi trong cộng đồng.
Hồi tháng 1, sau khi ChatGPT gây sốt và trước khi tung ra Bing AI, Microsoft quyết định giải tán nhóm đạo đức AI, nằm trong kế hoạch sa thải 10.000 nhân viên của hãng. Theo The Verge, động thái này khiến Microsoft hiện không còn một đội ngũ chuyên trách nhằm đảm bảo các nguyên tắc cộng đồng cho công cụ AI, dẫn đến rủi ro thông tin.
Tương tự, trong tháng 3, nền tảng phát trực tuyến Twitch thuộc Amazon đã cắt giảm đội ngũ kiểm duyệt nội dung AI. Điều này khiến nhóm phát triển công cụ trí tuệ nhân tạo của nền tảng phải gánh trách nhiệm nếu để chatbot đưa ra phản hồi thiên vị.
Một ông lớn khác là Google cũng đã sa thải nhóm kỹ sư kiểm duyệt nội dung, nhưng hiện chưa rõ không rõ số lượng cụ thể. Trước đó, hai chuyên gia nghiên cứu đạo đức AI tại Google là Timnit Gebru và Margaret Mitchell đã rời đi vào năm 2020 và 2021.
Twitter cũng đã cho nghỉ việc hai phần ba số nhân viên dưới thời Elon Musk, bao gồm một nhóm nhỏ chuyên về đạo đức AI.
Ông Hùng Thắng, kỹ sư AI tại Viện nghiên cứu TITUS (Đức), nhận định việc phát triển AI thần tốc, nhưng lại thiếu nỗ lực kiểm soát tương ứng về đạo đức, sẽ tác động lớn đến vấn đề nội dung. "Các công ty công nghệ lớn đang chạy đua phát triển AI nhưng đang bỏ qua đạo đức AI. Điều này cũng dễ hiểu khi người dùng luôn muốn sử dụng các công cụ nhanh và rẻ hơn, trong khi kiểm duyệt nội dung tiêu tốn nhiều chi phí", ông Thắng nhận định.
"Nhóm đạo đức AI là một trong những bộ phận mà những công ty công nghệ lớn phải duy trì. Điều này giúp người dùng và cộng đồng không bị ảnh hưởng xấu bởi AI, khi nó vẫn nằm trong sự kiểm soát của các kỹ sư đào tạo chúng", Josh Simons, nhà nghiên cứu đạo đức AI từng làm việc tại Facebook, nói trên FT.