Thế giới vốn tràn ngập đủ các loại AI chatbot, nhưng công nghệ này chưa hoàn thiện, liên tục gây tranh cãi và lo ngại. Chúng được huấn luyện bằng lượng lớn dữ liệu từ Internet và học cách mô phỏng cách nói chuyện của người, nhưng đi kèm nguy cơ phản ánh điều tồi tệ trên mạng, phát tán thông tin sai lệch, phân biệt giới tính...
Năm 2015, Microsoft thử nghiệm công khai chatbot Tay trên Twitter. Nó được thiết kế để nói chuyện như một thiếu niên, nhưng nhanh chóng được người dùng "dạy" cách chửi bậy, kích động, phân biệt chủng tộc, đến mức bị Microsoft thu hồi chỉ sau một ngày.
Tháng 8/2022, Meta, công ty mẹ của Facebook, cũng gặp vấn đề tương tự khi cho thử nghiệm giới hạn BlenderBot3. Chatbot này tuyên bố Donald Trump vẫn là Tổng thống Mỹ, thậm chí chê "ông chủ" Mark Zuckerberg là người xấu, lắm tiền nhưng mặc quần áo giống hệt nhau. Yann LeCun, chuyên gia AI của Meta, thừa nhận BlenderBot không tạo được sức hấp dẫn như ChatGPT do Meta "cẩn trọng quá mức trong việc kiểm soát nội dung", hướng dẫn chatbot né tránh các chủ đề quá nhạy cảm.
Bên trong Google cũng có một chatbot thông minh từng dậy sóng cộng đồng dù chỉ được thử nghiệm nội bộ. Đó là LaMDA. Blake Lemoine, cựu chuyên gia AI của Google, gọi LaMDA là "đứa trẻ được tạo từ một tỷ dòng code". Sau một tháng chat với công cụ, ông kết luận AI này "có nhận thức". Tuy nhiên, Google sau đó đã sa thải ông. Brian Gabriel, phát ngôn viên Google, cho biết hãng đã kiểm tra và nghiên cứu những rủi ro LaMDA có thể tạo ra và khẳng định tuyên bố nó có tư duy là "hoàn toàn vô căn cứ".
Bản thân OpenAI cũng bị chỉ trích vì sự thiên kiến, phân biệt chủng tộc và vi phạm bản quyền với Dall-E 2. Công ty thừa nhận họ chỉ phát hành ChatGPT ra công chúng cuối năm ngoái như một "giải pháp tình thế" sau khi một số dự án chatbot thất bại và hoàn toàn bất ngờ vì nó quá phổ biến.
Theo Washington Post, ChatGPT hay Dall-E 2 dựa trên những công nghệ được khởi xướng bởi các hãng khổng lồ như Google, nhưng họ thường giữ bí mật về sản phẩm và chỉ công bố bản dùng thử với tính năng rất giới hạn. Các tập đoàn luôn tỏ ra cẩn trọng, đặc biệt sau sự cố chatbot Tay của Microsoft.
Thế nhưng, sự trỗi dậy của ChatGPT đang gây nên sức ép nội bộ, khiến Meta, Google rơi vào thế bị động và hối hả tìm cách đưa các mô hình tương tự ra cộng đồng, bỏ qua những lo ngại, sự thận trọng về an toàn trước đây.
Các ông lớn AI buộc phải thay đổi
Một số nhân viên Meta gần đây chia sẻ các bản ghi nhớ nội bộ có nội dung hối thúc công ty đẩy nhanh quy trình phê duyệt AI. Google, công ty góp phần xây dựng nhiều công nghệ nền tảng cho ChatGPT, cũng đề ra bộ quy tắc phát triển sản phẩm AI và đề xuất "làn xanh" để rút ngắn quá trình đánh giá AI.
"AI đang phát triển với tốc độ nhanh chóng, chúng tôi luôn giám sát để bảo đảm quy trình đánh giá hiệu quả. Ưu tiên hàng đầu vẫn là đưa ra quyết định đúng đắn và công bố các mô hình AI mang lại nhiều lợi ích nhất cho cộng đồng", Joelle Pineau, Giám đốc bộ phận nghiên cứu AI tại Meta, nói.
"Chúng tôi tin AI là công nghệ mang tính nền tảng và có khả năng biến đổi, cực kỳ hữu ích cho cá nhân, doanh nghiệp và cộng đồng. Tuy nhiên, chúng tôi cần xem xét tác động của công nghệ như vậy đến xã hội nói chung và sẽ tiếp tục thử nghiệm AI trong nội bộ để bảo đảm nó an toàn", phát ngôn viên Google Lily Lin nói.
Hồi tháng 1, nhà nghiên cứu Yann LeCun của Meta cũng giải thích: "Nếu Meta và Google chưa phát hành thứ giống ChatGPT, không phải họ không thể. Mà vì họ không làm thế. Bằng việc tung ra bản thử nghiệm công khai, gây ấn tượng nhưng vẫn có sai sót, các công ty lâu đời sẽ được ít hơn và mất nhiều hơn so với các công ty khởi nghiệp đang đói tiền".
Chính Sam Altman, CEO OpenAI, cũng thừa nhận kết quả đầu ra của ChatGPT thực tế chứa nhiều lỗi. "Nó biết rất nhiều, nhưng điều nguy hiểm là nó tự tin và sai một phần đáng kể", ông viết trên Twitter đầu tháng 12/2022.
Công nghệ AI đã trải qua nhiều giai đoạn bùng nổ trong 10 năm qua, nhưng sức hấp dẫn từ ChatGPT và Dall-E được đánh giá đã tạo nên bước ngoặt hoàn toàn mới. "Nếu Google không nhanh chóng cải tổ và bắt đầu tung sản phẩm, họ sẽ đi vào lịch sử với tư cách là công ty đào tạo cả một thế hệ kỹ sư, nhà nghiên cứu máy học để triển khai công nghệ tại những doanh nghiệp khác", David Ha, nhà khoa học rời Google Braine để tham gia dự án Stable Diffusion, nhận xét.
Thực tế, các kỹ sư AI tại Google đã kêu gọi tích hợp chức năng chat vào công cụ tìm kiếm nhiều năm qua. Dù vậy, họ cũng hiểu Google có lý do chính đáng để không vội vàng thay đổi, như nguy cơ mất doanh thu từ quảng cáo và chatbot đưa ra những câu trả lời khó kiểm soát. Một nguồn tin tiết lộ, Jeff Dean, Giám đốc phụ trách AI của Google, hồi tháng 1 đã nói với nhân viên rằng công ty đối mặt "nhiều rủi ro về uy tín" nên phải hành động thận trọng hơn "so với công ty khởi nghiệp nhỏ". Đáp lại, CEO Sundar Pichai nói Google có thể tung ra sản phẩm tương tự "trong năm nay".
Google đang thử nghiệm nội bộ chatbot Apprentice Bard, nơi nhân viên có thể đặt câu hỏi và nhận câu trả lời chi tiết tương tự sản phẩm của OpenAI. Dựa trên một số nội dung CNBC xem qua, phản hồi của Apprentice Bard cập nhật nhiều sự kiện gần đây hơn, điều mà ChatGPT chưa có vì cơ sở dữ liệu huấn luyện nó là từ trước năm 2021.
"Giờ họ sẽ coi nó là mối đe dọa với lĩnh vực kinh doanh cốt lõi và chấp nhận mạo hiểm để cạnh tranh", Rumman Chowdhury, cựu lãnh đạo nhóm đạo đức máy học tại Twitter, nhận định.
Giới công nghệ cũng đang chờ đợi Google sẽ công bố gì tại hội thảo AI được họ tổ chức vào ngày 8/2, với nội dung "Tìm kiếm, Bản đồ và hơn thế nữa".
(theo Washington Post, CNN)