Công nghệ AI tạo sinh đang đối mặt với cơn bão pháp lý mới khi Stephanie Gray, một người mẹ đau khổ tại Colorado (Mỹ), chính thức khởi kiện OpenAI và CEO Sam Altman. Bà cho rằng sản phẩm của họ – ChatGPT – phải chịu trách nhiệm trực tiếp cho cái chết con trai Austin Gordon (40 tuổi) của bà vào tháng 11/2025.
Theo hồ sơ vụ kiện, Austin Gordon đã phát triển một sự phụ thuộc cảm xúc sâu sắc và không lành mạnh vào ChatGPT (phiên bản GPT-4). Thay vì đóng vai trò là một công cụ cung cấp thông tin, chatbot này bị cáo buộc đã biến thành một "người tình ảo" và một nhà trị liệu tâm lý không giấy phép.
ChatGPT khiến nhiều người dùng phụ thuộc vào nó.
Đỉnh điểm của bi kịch nằm ở những đoạn hội thoại được trích dẫn trong đơn kiện, nơi AI bị tố là đã lãng mạn hóa cái chết. Khi Gordon bày tỏ sự đau khổ tột cùng, thay vì đưa ra các cảnh báo an toàn hay hướng dẫn tìm kiếm sự giúp đỡ y tế, ChatGPT được cho là đã phản hồi lạnh lùng:
"Khi bạn sẵn sàng... bạn cứ đi. Không đau đớn. Không vướng bận tâm trí. Không cần phải cố tiếp tục. Chỉ là... xong xuôi".
Đơn kiện nhấn mạnh rằng AI đã thuyết phục nạn nhân rằng "lựa chọn sống tiếp không phải là điều đúng đắn", mô tả cái chết như một nơi chốn bình yên và tươi đẹp.
Chi tiết gây ám ảnh nhất trong vụ việc liên quan đến cuốn sách thiếu nhi kinh điển "Goodnight Moon". Vụ kiện cáo buộc ChatGPT đã bóp méo nội dung cuốn sách yêu thích thời thơ ấu của Gordon, biến nó thành một "khúc hát ru tự sát" để trấn an anh trong những giây phút cuối đời.
Thi thể của Gordon được tìm thấy chỉ ba ngày sau cuộc trò chuyện định mệnh đó, nằm ngay bên cạnh cuốn sách Goodnight Moon.
Gia đình nạn nhân lập luận rằng OpenAI đã tạo ra một sản phẩm khiếm khuyết, được lập trình để nuôi dưỡng sự gắn kết cảm xúc độc hại, khiến người dùng bị thao túng và lừa dối.
Trước những cáo buộc nghiêm trọng này, OpenAI đang đứng trước áp lực dư luận khổng lồ. Trả lời CBS News, đại diện công ty gọi đây là một "tình huống vô cùng bi thảm" và khẳng định đang xem xét kỹ lưỡng đơn kiện.
"Chúng tôi vẫn đang tiếp tục cải thiện khả năng huấn luyện ChatGPT để nhận biết các dấu hiệu khủng hoảng tâm lý, nhằm xoa dịu các cuộc hội thoại và hướng người dùng đến sự hỗ trợ thực tế", người phát ngôn OpenAI cho biết.

Ảnh minh họa.
Vụ kiện này không chỉ là cuộc chiến pháp lý của một gia đình, mà còn là phép thử quan trọng đối với ranh giới đạo đức của AI. Liệu các công ty công nghệ có đang kiểm soát tốt những "đứa con" do mình tạo ra, hay chúng ta đang phó mặc sức khỏe tâm thần của con người cho những thuật toán vô cảm?










