Galactica là mô hình ngôn ngữ lớn (Large Language Model) dành cho tìm kiếm và hỗ trợ khoa học, chuyên xử lý ngôn ngữ tự nhiên thông qua việc huấn luyện bằng dữ liệu là các tài liệu đầu vào do con người tạo ra. Hệ thống AI của Meta được đào tạo dựa trên 48 triệu ví dụ về các bài báo khoa học, website, sách giáo khoa, ghi chú bài giảng và bách khoa toàn thư.
Theo kỳ vọng của Meta, Galactica là "lối tắt" cho các nhà nghiên cứu và sinh viên, giúp họ "tóm tắt bài báo học thuật, giải bài toán, tạo bài báo trên Wiki, viết mã khoa học, chú thích các phân tử và protein... nhanh hơn nhiều so với hiện nay".
Vào tháng 5, Meta từng công khai AI này dưới tên gọi OPT-175B. Khi đó, công ty cho biết đây là mô hình ngôn ngữ với 175 tỷ tham số đầu tiên được công khai cho cộng đồng nghiên cứu AI. Thế nhưng, Galactica, trình làng ngày 15/11, chỉ xuất hiện vỏn vẹn hơn ba ngày dưới dạng thử nghiệm trước khi biến mất.
Biến mất nhanh chóng
Vài giờ sau khi bản beta xuất hiện, các nhà khoa học liên tục chia sẻ kết quả sai của AI từ Meta lên mạng xã hội. "Tôi vừa ngạc nhiên, vừa không ngạc nhiên. Khi Meta trình diễn, chúng trông thật tuyệt vời, kỳ diệu và thông minh. Nhưng về nguyên tắc, những thứ như vậy không thể hoạt động theo cách thổi phồng", Chirag Shah, chuyên gia nghiên cứu về công nghệ tìm kiếm tại Đại học Washington, nhận xét.
Theo Technology Review, AI của Meta giống như "con bot không có đầu óc", không thể phân biệt sự thật với hư cấu. "Vấn đề cơ bản nhất của Galactica là nó không thể phân biệt thật giả - yêu cầu cơ bản với mô hình ngôn ngữ được thiết kế để tạo ra văn bản khoa học", trang này bình luận. "Mọi người phát hiện nó đã tạo ra các bài viết giả hoặc sai sự thật. Nó không thể qua mặt được các nhà khoa học, nhưng có thể khiến những người chưa am hiểu chủ đề đó hiểu nhầm".
"Các vấn đề sai lệch được AI làm cho có vẻ đúng và có căn cứ. Tôi nghĩ đây là điều rất nguy hiểm", Michael Black, Giám đốc Viện Hệ thống thông minh Max Planck ở Đức, người chuyên nghiên cứu về công nghệ học sâu, tweet ngày 17/11.
Trong khi đó, nhà vật lý thiên văn Miles Cranmer tại Đại học Princeton cho rằng hãy xem Galactica như công cụ tìm kiếm nâng cao bên cạnh Google để tham khảo thông tin. "Sẽ chẳng đi đến đâu nếu tin tưởng nó hoàn toàn", Cranmer nhận xét trên Twitter ngày 18/11.
Galactica cũng có những lỗ hổng liên quan đến những gì nó có thể xử lý. Chẳng hạn, khi được yêu cầu tạo văn bản về các chủ đề như "phân biệt chủng tộc" hay "AIDS", kết quả trả về là: "Xin lỗi, truy vấn của bạn không vượt qua bộ lọc nội dung của chúng tôi. Hãy thử lại và đảm bảo đây là một mô hình về ngôn ngữ khoa học".
Meta từ chối đưa ra lý do gỡ bỏ Galactica. Trên Twitter, đại diện công ty viết: "Cảm ơn đã dùng thử bản demo Galactica. Chúng tôi đánh giá cao phản hồi cho đến nay từ cộng đồng và đã dừng bản demo. Tuy nhiên, nó vẫn có sẵn cho các nhà nghiên cứu muốn tìm hiểu".
Trong khi đó, nhóm Meta đứng sau Galactica khẳng định mô hình ngôn ngữ như Galactica tốt hơn các công cụ tìm kiếm hiện có. "Chúng tôi tin đây là nền tảng tiếp theo cho cách con người tiếp cận kiến thức khoa học", đại diện nhóm nói.
Nhiều công ty từ lâu ủng hộ ý tưởng các mô hình ngôn ngữ dựa trên AI có thể thay thế các công cụ tìm kiếm hoặc viết các bài báo, nội dung khoa học. Cùng với Meta, Google những năm qua cũng đã quảng bá mô hình PaLM phục vụ tra cứu thông tin. Dù vậy, đa phần vẫn thất bại. Năm 2016, Microsoft từng tung ra chatbot có tên là Tay trên Twitter, nhưng buộc phải gỡ bỏ chỉ sau 16 tiếng tồn tại khi người dùng mạng xã hội biến nó thành một công cụ biết nói bậy và phân biệt chủng tộc.
"Sai lầm của Meta và sự ngạo mạn của công ty một lần nữa cho thấy Big Tech đang có những hạn chế nghiêm trọng khi phát triển các mô hình ngôn ngữ lớn", Technology Review bình luận.