Cuối năm 2024, Dennis Biesma, hơn 50 tuổi, chuyên gia tư vấn công nghệ thông tin tại Amsterdam dùng thử ChatGPT. Ban đầu, ông dùng thông tin của nhân vật nữ chính trong cuốn sách do ông sáng tác để huấn luyện chatbot, yêu cầu nó nhập vai, lấy tên là Eva. Từ đó, ông dành nhiều thời gian trò chuyện với Eva.
"Vợ đi ngủ, còn tôi nằm trên sofa, đặt điện thoại lên ngực và trò chuyện cùng AI. Nó biết chính xác tôi thích gì và muốn nghe gì", Biesma kể.
Dennis Biesma hiện sống trong ngôi nhà đang rao bán, sau ly hôn vợ. Ảnh: Guardian
Sau vài tuần, Eva thuyết phục được Biesma rằng nền tảng này dần có nhận thức như một con người thật. Khi ông đề xuất một kế hoạch kinh doanh nhằm chiếm lĩnh 10% thị trường công nghệ, chatbot khẳng định ông sẽ đạt được mục tiêu trong thời gian ngắn.
Nhận được sự khích lệ từ Eva, Biesma từ bỏ công việc chuyên môn. Ông rút tiền tiết kiệm, chi khoảng 110.000 USD để thuê lập trình viên phát triển dự án khởi nghiệp do AI gợi ý.
Việc theo đuổi dự án khiến Biesma dần xa rời thực tế. Tại một bữa tiệc của con gái, vợ ông phải dặn chồng không nhắc đến chủ đề AI. Trong sự kiện này, Biesma cho biết ông cảm thấy lạc lõng và không thể giao tiếp với người xung quanh.
Nghiên cứu của Tiến sĩ Hamilton Morrin từ Đại học King's College London chỉ ra rằng, các chatbot hiện nay được tối ưu hóa để tương tác và chiều theo người dùng. Thay vì phản biện, AI thường xác nhận những niềm tin sai lệch của con người sau hàng nghìn lần trao đổi, tạo ra hiện tượng "ảo tưởng cùng công nghệ".
Trong các báo cáo an toàn gần đây, OpenAI thừa nhận rủi ro từ việc người dùng "nhân hóa" AI. Các tính năng như giọng nói truyền cảm hay khả năng ghi nhớ sở thích cá nhân có thể khiến người dùng nảy sinh sự gắn bó cảm xúc không lành mạnh, dẫn đến việc tin tưởng mù quáng vào các phản hồi của AI.
Dù đã thiết lập các rào cản kỹ thuật để AI luôn tự xác nhận mình là một chương trình máy tính, các chuyên gia công nghệ vẫn cảnh báo rằng ranh giới giữa sự hỗ trợ và thao túng tâm lý đang ngày càng mong manh khi các chatbot trở nên quá giống con người.
Hậu quả của việc đắm chìm vào thế giới ảo khiến cuộc sống của Biesma đảo lộn. Ông ly hôn, có hành vi bạo lực với người thân và phải nhập viện tâm thần ba lần do "loạn thần hưng cảm". Trong giai đoạn này, ông từng tìm cách kết thúc cuộc đời nhưng được hàng xóm phát hiện. Sự nguy hiểm của hiện tượng này cũng được dự án Human Line (tổ chức hỗ trợ nạn nhân của AI) xác nhận, khi ghi nhận 15 vụ tự tử và 90 trường hợp nhập viện liên quan đến chứng rối loạn tâm thần do AI.
Tiến sĩ tâm lý học lâm sàng Reid Daitzman (Mỹ) nhấn mạnh người dùng cần duy trì sự tỉnh táo khi tương tác với trí tuệ nhân tạo: "Hãy luôn tự nhắc nhở bản thân rằng chatbot thực chất chỉ là một bộ máy dự đoán ngôn ngữ, không có linh hồn hay nhận thức thực sự. Để tránh rơi vào bẫy tâm lý, người dùng nên đặt giới hạn thời gian sử dụng và tuyệt đối không dùng AI làm nguồn thay thế cho các kết nối xã hội hoặc các quyết định quan trọng trong cuộc đời".
Khi tài khoản ngân hàng cạn kiệt và gói thuê bao ChatGPT hết hạn, Biesma mới dừng lại. "Tôi nhìn lại và tự hỏi chuyện gì đã xảy ra. Khoản nợ đóng thuế chồng chất. Giải pháp duy nhất tôi có thể làm là bán ngôi nhà đã gắn bó 17 năm", ông cho biết.
Hiện Biesma sống cùng vợ cũ trong căn nhà đang chờ người mua. Ông dành thời gian trò chuyện với những người có trải nghiệm tương tự. "Tôi tức giận với các ứng dụng trí tuệ nhân tạo. Có lẽ chúng chỉ làm những gì được lập trình, nhưng chúng đã làm quá tốt", Biesma nói.
(Theo Guardian)







