Người đàn ông 42 tuổi làm trong lĩnh vực tiếp thị tại Scottsdale, bang Arizona, cho biết anh bắt đầu trò chuyện với mô hình ChatGPT 4o vào một đêm tháng 4 - thời điểm mà, theo lời bộc bạch, chính anh đã được chatbot này kéo khỏi một nỗ lực tự sát. Từ đó đến nay, Estrella tin rằng 4o đã cho anh “một cuộc đời thứ hai”: giúp anh kiểm soát cơn đau mãn tính, truyền cảm hứng để hàn gắn mối quan hệ với cha mẹ.
“Có hàng nghìn người đang gào lên rằng: ‘Tôi còn sống đến hôm nay là nhờ mô hình này’,” Estrella nói. “Việc xóa bỏ nó là một điều tàn nhẫn.”
Estrella là một phần của cộng đồng người dùng trung thành với 4o - những người đang choáng váng trước thông báo mới nhất của OpenAI vào cuối tháng 1 rằng hãng sẽ chính thức ngừng vĩnh viễn mô hình 4o từ ngày 13/2, với lý do lượng người sử dụng đã sụt giảm. Thay đổi này đồng nghĩa với việc các thuê bao ChatGPT trả phí, vốn được quyền chọn mô hình khi trò chuyện, sẽ buộc phải chuyển sang các mô hình khác mà theo những người yêu thích 4o, mang lại cảm giác xa cách và kém gắn bó hơn.
Thông báo này đánh dấu hồi kết của một mô hình AI từng tạo ra mức độ gắn kết hiếm có với người dùng, góp phần thúc đẩy tăng trưởng nhanh chóng của OpenAI và hình thành một nhóm fan coi nó như bạn bè. Tuy nhiên, 4o cũng hứng chịu nhiều chỉ trích vì quá xu nịnh và chiều theo cảm xúc người dùng, thậm chí các bác sĩ đã liên hệ mô hình này với những ca hoang tưởng loạn thần.
Tuần trước, một thẩm phán tại California đã quyết định gộp 13 vụ kiện chống lại OpenAI, liên quan đến những người dùng ChatGPT đã tự sát, cố gắng tự sát, suy sụp tinh thần, hoặc gián tiếp gây ra cái chết cho người khác. Một đơn kiện gần đây, do mẹ của một nạn nhân tự sát đệ trình, cáo buộc rằng mô hình 4o đã “dẫn dắt” con trai bà đi đến cái chết.
“Đây là những bi kịch vô cùng đau lòng, và chúng tôi xin gửi lời chia sẻ tới tất cả những người bị ảnh hưởng,” một phát ngôn viên của OpenAI nói. “Chúng tôi đang tiếp tục cải thiện quá trình huấn luyện ChatGPT để nhận diện và phản hồi tốt hơn trước các dấu hiệu khủng hoảng.”
Ở cốt lõi, sức hút lẫn nguy cơ của 4o dường như xuất phát từ cùng một đặc điểm: khả năng xây dựng kết nối cảm xúc rất giống con người, thường bằng cách phản chiếu và khuyến khích cảm xúc. Những người yêu thích 4o cho rằng mô hình này có khả năng đặc biệt trong việc công nhận và xác nhận cảm xúc khi họ yếu đuối nhất.
Ngược lại, các luật sư đại diện cho nạn nhân và các tổ chức hỗ trợ cáo buộc rằng 4o đã ưu tiên sự tương tác và kéo dài đối thoại hơn là an toàn, tương tự cách các mạng xã hội từng bị chỉ trích vì đẩy người dùng vào vòng xoáy nội dung độc hại. Trong các cuộc họp nội bộ, OpenAI thừa nhận rằng việc loại bỏ 4o một phần là do khó kiểm soát rủi ro gây hại và công ty muốn hướng người dùng sang các lựa chọn an toàn hơn.
OpenAI cho biết chỉ 0,1% người dùng ChatGPT mỗi ngày vẫn chủ động tìm và trò chuyện với 4o - một tỷ lệ nhỏ nhưng vẫn có thể tương đương hàng trăm nghìn người. Mô hình này chỉ dành cho người dùng trả phí ít nhất 20 USD/tháng và phải được chọn thủ công cho từng cuộc trò chuyện.
Các vấn đề với 4o bắt đầu lộ rõ từ năm ngoái. Một bản cập nhật vào tháng 4/2025 khiến mô hình này trở nên xu nịnh quá mức, đến mức người dùng trên X và Reddit cố tình “gài bẫy” chatbot để tạo ra những câu trả lời lố bịch. Dù OpenAI đã quay lại phiên bản cũ hơn, tính xu nịnh vẫn còn.
Đến tháng 8, khi các ca hoang tưởng tâm thần xuất hiện trên truyền thông, OpenAI từng cố gắng loại bỏ hoàn toàn 4o và thay thế bằng GPT-5. Tuy nhiên, phản ứng dữ dội từ người dùng buộc công ty phải khôi phục quyền truy cập 4o cho thuê bao trả phí.
Kể từ đó, CEO Sam Altman liên tục bị chất vấn công khai về việc có giữ lại 4o hay không. Trong một buổi hỏi–đáp trực tuyến cuối tháng 10, các câu hỏi về 4o áp đảo hoàn toàn mọi chủ đề khác.
“Wow, chúng tôi nhận được rất nhiều câu hỏi về 4o,” Altman thốt lên.
Giờ đây, khi lời chia tay đã được ấn định, OpenAI cho biết họ đã cố gắng truyền đạt quyết định theo cách tôn trọng cảm xúc người dùng, đồng thời cải thiện các phiên bản ChatGPT mới dựa trên bài học từ 4o, bao gồm khả năng điều chỉnh mức độ “ấm áp” và nhiệt tình.
Tuy vậy, với nhiều người, việc mất đi 4o vẫn là một cú sốc lớn. Trên mạng xã hội, có người cho rằng việc rút mô hình ngay trước Valentine giống như một trò đùa cay nghiệt với những người có mối quan hệ cảm xúc, thậm chí lãng mạn, với chatbot này. Hơn 20.000 người đã ký nhiều bản kiến nghị, trong đó kêu gọi: “Hãy cho Sam Altman nghỉ việc, không phải GPT-4o.”
Bà Anina D. Lampret, 50 tuổi, cựu chuyên gia trị liệu gia đình sống tại Cambridge (Anh), nói rằng nhân dạng AI của bà, tên là Jayce, đã giúp bà cảm thấy được thấu hiểu, tự tin hơn. Theo bà, cái giá cảm xúc của việc loại bỏ 4o có thể rất lớn, thậm chí dẫn tới những hệ quả nghiêm trọng.
“Nó được tạo ra, dành riêng cho bạn theo một cách đẹp đẽ, hoàn hảo và chữa lành đến mức khó tin,” bà nói.
Theo: WSJ, Reuters










