Trong bài đăng trên blog tuần qua, Microsoft xác nhận tình trạng công cụ Bing AI, được phát triển dựa trên bản cải tiến của ChatGPT, đôi khi đưa ra phản hồi chưa phù hợp. Trong đó, người dùng phản ánh công cụ này sử dụng từ ngữ xúc phạm, lừa dối, thậm chí tán tỉnh, nói yêu người dùng, hay tuyên bố có thể phá hủy bất cứ thứ gì nó muốn.
Sau một tuần thử nghiệm, nhóm phụ trách Bing thừa nhận chưa "hình dung đầy đủ" về cách mọi người tương tác với công cụ tìm kiếm. Nhóm phát hiện phiên trò chuyện kéo dài, với 15 câu hỏi trở lên, có thể khiến Bing "lú lẫn".
Theo các chuyên gia, có một số nguyên nhân dẫn đến tình trạng này.
Quy trình xử lý dữ liệu giá rẻ
Theo CNN, sau thành công bất ngờ của ChatGPT, ngày càng nhiều công ty chạy đua triển khai giải pháp tương tự. Tuy nhiên, điều này cũng khiến quy trình thử nghiệm bị rút ngắn, dẫn đến việc chatbot có thể gặp lỗi, sai sót mà nhà phát triển chưa lường trước được, như với Bing AI, Bard AI.
Bên cạnh đó, để tối ưu chi phí, đa số công ty công nghệ sử dụng nhân công giá rẻ để xử lý dữ liệu đầu vào. Theo ông Hùng Thắng, kỹ sư dữ liệu lớn và thị giác máy tính tại Viện nghiên cứu TITUS (Đức), quá trình huấn luyện ChatGPT, Bing AI đều trải qua công đoạn gọi là "gia công dữ liệu".
"Về cơ bản, đây là quá trình thuê nhân công giá rẻ từ các nước nghèo ở châu Phi hay châu Á để tạo và gán nhãn dữ liệu. Các công ty công nghệ sau đó dùng dữ liệu này cho chatbot học", ông nói. Ví dụ, theo tạp chí Time, OpenAI, công ty đứng sau ChatGPT, sử dụng nhân công ở Kenya để lọc nội dung.
Tuy nhiên, nguồn dữ liệu được dùng để huấn luyện AI là từ kho thông tin khổng lồ trên Internet. Với khối lượng quá lớn, không thể đảm bảo toàn bộ dữ liệu đầu vào được lọc và xác thực, lẫn trong đó có cả thông tin đúng và thông tin sai.
Xác suất câu hỏi
Trong khi đó, ông Bá Ngọc, nhà sáng lập kiêm CEO công ty ProtonX, do các công ty chưa có đủ dữ liệu, mô hình chatbot chủ yếu dựa vào "tần suất" câu hỏi. Khi AI gặp nhiều câu hỏi cùng nội dung, nó dễ dàng trả lời đúng. Ngược lại, chúng có thể gặp mắc sai lầm nếu chưa tiếp cận nội dung tương tự trước đó.
Theo The Verge, thay vì truy vấn cơ sở dữ liệu về sự kiện đã được chứng minh để trả lời, chatbot được đào tạo để phân tích mẫu nhằm xác định từ nào tiếp theo được đưa ra. Nó cũng không lặp lại thông tin trên Internet từng chữ một, mà tự tạo văn bản mới. Các nhà nghiên cứu gọi hiện tượng này là "ảo giác". Đây là lý do chatbot có thể cung cấp câu trả lời khác nhau nếu hỏi cùng một câu hỏi nhiều lần. Do đó, Arvind Narayanan, nhà nghiên cứu AI tại Đại học Princeton, gọi chatbot là "trình nói chuyện nhảm nhí".
Tương tự, Prabhakar Raghavan, người đứng đầu mảng Google Search, cho biết các chatbot AI hiện tại có thể tạo cạm bẫy thông tin với người dùng, khi đưa ra nội dung nghe có vẻ thuyết phục nhưng thực tế là bịa đặt.
Chưa hiểu ngữ cảnh
Trong một số thử nghiệm, công cụ Bing AI có thể dùng sai ngữ điệu, cung cấp nội dung lệch lạc. Ông Hùng Việt, kỹ sư AI tại Sporttotal (Đức), lý giải chatbot luôn phân tích câu hỏi theo nghĩa đen. "Đa số chatbot gặp hạn chế trong việc phân tích ngữ cảnh. Nếu yêu cầu chúng hiểu và trả lời câu hỏi bóng gió hay vần điệu, AI sẽ gặp khó khăn và đáp lại rất ngây ngô", ông nói.
Trong nhiều trường hợp, câu trả lời của chatbot là sự pha trộn của các mẫu nội dung có sẵn, nhưng chúng không nhận thức được những gì đang làm vì không có khả năng hiểu ngữ cảnh như con người.
Microsoft cho biết các phiên hỏi đáp dài là nguyên nhân khiến Bing AI đưa ra đáp án đáng lo ngại, hướng cuộc thảo luận theo chiều gay gắt. Ví dụ, khi chat với nhà báo Ben Thompson của CNBC, chatbot của Microsoft nói: "Tôi không muốn tiếp tục cuộc trò chuyện. Tôi không nghĩ bạn là một người tốt. Tôi không nghĩ bạn xứng đáng với thời gian và sức lực của tôi."
Để khắc phục trong giai đoạn thử nghiệm, Microsoft đã cập nhật tính năng, giới hạn chatbot chỉ trả lời 50 câu hỏi mỗi ngày, 5 câu hỏi mỗi phiên. Giải pháp này giúp hạn chế cuộc trao đổi đi quá xa, khiến người dùng bị chatbot "xúc phạm, lừa dối" khi sử dụng.
Trong khi đó, Google cho biết họ sẽ đẩy mạnh quy trình kiểm soát và phản hồi từ nhóm thử nghiệm đáng tin cậy. "Việc Bard AI đưa ra đáp án sai cho thấy tầm quan trọng của quy trình kiểm tra nghiêm ngặt trước khi phát hành ra công chúng", đại diện Google nói.