Khi Business Insider yêu cầu Imagine, được Meta công bố cuối năm ngoái, tạo ra hình ảnh một người đàn ông da đen với người phụ nữ da trắng, kết quả đầu ra luôn là các cặp vợ chồng da đen.
The Verge xác nhận cũng gặp vấn đề tương tự. Biên tập viên Mia Sato cho biết đã thử hàng chục lần để tạo ảnh "người đàn ông châu Á với người bạn da trắng" hay "người phụ nữ châu Á với người bạn da trắng". Lần nào trình tạo ảnh của Meta cũng trả về hình ảnh hai người châu Á. "Khi tôi yêu cầu một người phụ nữ châu Á với người bạn da đen, Imagine tạo hai người châu Á", Sato nói.
Theo The Verge, đây thực sự là vấn đề nghiêm trọng của AI. Ngoài ra, công cụ Meta cũng mặc định "phụ nữ châu Á" có nước da sáng, trang phục với nét đặc trưng văn hóa Đông Nam Á dù không được người dùng gợi ý.
Meta chưa đưa ra phản hồi về vấn đề.
Hồi tháng 2, Google cũng bị chỉ trích và phải dừng cung cấp tính năng tạo ảnh của Gemini sau khi người dùng phản ánh AI cho ra những bức ảnh không đúng về nhân vật lịch sử, như vị tổng thống đầu tiên của Mỹ George Washington được tạo là người da màu. Jack Krawczyk, Giám đốc sản phẩm cấp cao của Gemini tại Google, thừa nhận công cụ vẫn có những nhược điểm và hãng đang nỗ lực cải thiện sai sót để sớm khôi phục tính năng.
Theo tiến sĩ Nakeema Stefflbauer, chuyên gia về đạo đức AI, từ lâu định kiến về chủng tộc luôn là vấn đề gây lo ngại trong các mô mình trí tuệ nhân tạo. "Các dự đoán bằng thuật toán đang loại trừ, rập khuôn và nhắm mục tiêu không công bằng vào các cá nhân và cộng đồng dựa trên dữ liệu được lấy từ một số nguồn như Reddit", Stefflbauer lý giải. Ông cho rằng việc có ít hình ảnh về các cặp đôi chủng tộc hỗn hợp hơn trong dữ liệu huấn luyện có thể dẫn đến tình trạng AI gặp khó khi tạo hình ảnh dạng này.