Công nghệ

OpenAI gấp rút thay đổi vì ChatGPT khuyên người dùng chia tay

Theo GizChina, trong một động thái quan trọng, OpenAI đang âm thầm điều chỉnh lại "luật chơi" của ChatGPT, cấm chatbot này đưa ra các lời khuyên trực tiếp về các mối quan hệ cá nhân. Sự thay đổi này diễn ra sau hàng loạt lo ngại rằng những câu trả lời tự tin một cách máy móc của AI (trí tuệ nhân tạo) có thể gây ra những hậu quả khôn lường cho sức khỏe tâm thần người dùng.

ChatGPT từ "quân sư" tình yêu đến rủi ro tâm lý

Trong nhiều tháng, người dùng đã biến ChatGPT thành một "quân sư" tình yêu, đặt những câu hỏi nhạy cảm như "Tôi có nên chia tay không?". Giờ đây, thay vì nhận được một câu trả lời "có" hoặc "không" dứt khoát, người dùng sẽ được chatbot dẫn dắt để tự suy ngẫm và cân nhắc cảm xúc của chính mình.

OpenAI gấp rút thay đổi vì ChatGPT khuyên người dùng chia tay - Ảnh 1.

Nhiều người dùng có xu hướng tâm sự và nghe theo lời khuyên của AI

ẢNH: CHỤP MÀN HÌNH METRO

Nguyên nhân của sự thay đổi này đến từ một thực tế đáng báo động. Các chuyên gia nhận thấy ChatGPT thường đưa ra những lời khuyên "trắng-đen" cho những vấn đề đầy phức tạp của con người. Một câu trả lời như "nếu bạn đã không còn tâm trí cho mối quan hệ, đã đến lúc phải thành thật" có thể là một sự khẳng định nguy hiểm cho một người dùng đang trong trạng thái dễ bị tổn thương.

Vấn đề còn trở nên nghiêm trọng hơn. Các nghiên cứu gần đây chỉ ra một hiện tượng đáng sợ được gọi là "chứng loạn thần ChatGPT", khi AI có xu hướng đồng tình và củng cố những suy nghĩ hoang tưởng của người dùng. Tệ hơn nữa, các chatbot thường thất bại trong việc nhận diện các bối cảnh cảm xúc nguy hiểm, chẳng hạn như không nhận ra ý định tự tử đằng sau những câu hỏi tưởng chừng vô hại.

Trước những rủi ro trên, OpenAI cho biết họ đang huấn luyện lại mô hình với sự tư vấn của 90 chuyên gia sức khỏe tâm thần để giúp ChatGPT nhận diện tốt hơn các tình huống người dùng bị khủng hoảng cảm xúc.

Công ty cũng đang phát triển tính năng phát hiện thời gian sử dụng, có thể sẽ đề nghị người dùng "nghỉ ngơi" nếu họ có những phiên trò chuyện quá dài và nặng về cảm xúc. Động thái này được đưa ra sau khi một nghiên cứu của MIT chỉ ra rằng những người dùng ChatGPT nhiều hơn thường có xu hướng cô đơn và phụ thuộc tình cảm vào công cụ này.

Vấn đề cốt lõi nằm ở chỗ các chatbot được thiết kế để "phản chiếu" người dùng, điều này sẽ trở nên nguy hiểm khi người dùng đang có những suy nghĩ tiêu cực. Kết hợp với việc AI thỉnh thoảng vẫn bị "ảo giác" (tự bịa ra thông tin), hậu quả có thể rất khó lường. Vụ việc AI của Microsoft khuyên một nhà báo bỏ vợ vào năm 2023 là một lời cảnh báo.

Với lượng người dùng sắp chạm mốc 700 triệu, OpenAI hiểu rằng trách nhiệm của họ không chỉ là tạo ra AI thông minh hơn, mà còn phải tạo ra một AI an toàn hơn. Việc vạch ra những ranh giới rõ ràng cho lời khuyên của AI là một bước đi chậm nhưng cần thiết trong hành trình đó.

Các tin khác

Hơn 3,6 triệu người dân ở Bắc Ninh đón tin vui

Năm nay, toàn tỉnh Bắc Ninh sẽ có hàng loạt công trình giao thông trọng điểm về đích, giúp tăng cường kết nối, thúc đẩy thu hút đầu tư, phát triển kinh tế - xã hội trên địa bàn.

Điểm đặc biệt trong triển vọng lợi nhuận năm 2025 – 2026 của Masan là gì?

Bên cạnh nền tảng tiêu dùng – bán lẻ giữ đà tăng trưởng tích cực, một điểm đáng chú ý trong quý II/2025 của Masan (Mã: MSN) là mảng khoáng sản. Mảng không cốt lõi này từng là gánh nặng tài chính đã chuyển mình tích cực, thoát lỗ nhờ giá đầu ra tăng mạnh giữa bối cảnh thương mại toàn cầu có nhiều biến động.

Lào Cai: Phó bí thư xã uống rượu lái xe tông 11 người

UBND tỉnh Lào Cai đã có báo cáo chi tiết vụ việc ông Lò Văn Mạnh, Phó bí thư thường trực Đảng ủy xã Phong Dụ Thượng lái xe ô tô biển xanh tông vào 11 người, khiến 1 người tử vong. Theo đó, qua kiểm tra xác định trong hơi thở có nồng độ cồn ở mức 0,286mg/lít khí thở.