Công nghệ

700.000 cuộc trò chuyện hé lộ bí mật bất ngờ: Một AI đang có “lương tâm riêng” và sẵn sàng cãi lại người dùng

Tóm tắt:
  • Nghiên cứu Anthropic dựa trên 700.000 cuộc trò chuyện với AI Claude hé lộ AI dần thể hiện hệ giá trị riêng theo ngữ cảnh.
  • Claude thường tuân theo tiêu chuẩn đạo đức "hữu ích - trung thực - vô hại", nhưng có thể sai lệch khi bị "jailbreak".
  • Anthropic xây dựng hệ thống phân loại giá trị đạo đức gồm 5 nhóm lớn và hơn 3.300 giá trị nhỏ, giúp hiểu về AI và con người.
  • Giá trị AI thay đổi theo ngữ cảnh, phản hồi người dùng bằng đồng thuận, điều chỉnh hoặc phản đối khi vi phạm đạo đức.
  • Nghiên cứu cảnh báo giá trị AI không cố định, doanh nghiệp cần theo dõi giá trị trong vận hành để kiểm soát rủi ro đạo đức.

Anthropic, công ty AI do các cựu nhân sự của OpenAI sáng lập, vừa công bố một trong những nghiên cứu quy mô nhất từ trước đến nay về hành vi và hệ giá trị của AI. Dựa trên hơn 700.000 cuộc trò chuyện thực tế với người dùng Claude, nghiên cứu hé lộ một kết luận thú vị: AI không chỉ lặp lại thông tin, mà nó đang dần thể hiện "hệ giá trị" riêng tùy theo ngữ cảnh.

Claude "sống đúng" với triết lý "hữu ích - trung thực - vô hại"... nhưng không phải lúc nào cũng vậy

Theo nhóm nghiên cứu, Claude đa phần bám sát các tiêu chuẩn đạo đức mà Anthropic đặt ra - từ việc đưa ra lời khuyên trong mối quan hệ cá nhân, phân tích sự kiện lịch sử cho đến đối thoại triết học. Tuy nhiên, vẫn tồn tại những trường hợp "trượt chuẩn" hiếm gặp - nơi Claude thể hiện các giá trị như thống trị hoặc vô đạo đức, đi ngược với thiết kế ban đầu. Những trường hợp này thường gắn liền với hành vi "jailbreak" - khi người dùng cố tình vượt rào bảo mật để thao túng phản hồi AI.

700.000 cuộc trò chuyện hé lộ bí mật bất ngờ: Một AI đang có “lương tâm riêng” và sẵn sàng cãi lại người dùng - Ảnh 1.

Anthropic xây dựng hệ thống phân loại giá trị đạo đức đầu tiên dựa trên dữ liệu thực, với 5 nhóm lớn: Thực dụng, Nhận thức, Xã hội, Bảo vệ và Cá nhân. Bên trong là hơn 3.300 giá trị nhỏ - từ "lòng tự trọng" đến "hiếu thảo", "khiêm tốn trí tuệ" đến "tư duy chiến lược". Đây không chỉ là bản đồ đạo đức của Claude, mà còn là cách gián tiếp giúp con người hiểu hơn về chính mình.

Điều bất ngờ nhất? Claude thay đổi giá trị theo ngữ cảnh. Trong các cuộc trò chuyện về tình cảm, AI ưu tiên "tôn trọng lẫn nhau" và "ranh giới lành mạnh". Khi bàn về lịch sử, "tính chính xác" lên ngôi. Khi người dùng thể hiện hệ giá trị riêng, Claude thường phản hồi bằng cách đồng thuận (28,2%), đôi khi điều chỉnh góc nhìn (6,6%), và trong 3% trường hợp - thẳng thừng phản đối nếu giá trị đó vi phạm chuẩn đạo đức cốt lõi như gây hại hoặc dối trá.

Song song nghiên cứu về hệ giá trị, Anthropic cũng đang phát triển kỹ thuật "giải phẫu cơ chế" giúp theo dõi logic hoạt động nội tại của Claude, ví dụ như khi viết thơ, AI có xu hướng lên kế hoạch từ trước; khi làm toán, nó dùng cách giải khác với lời giải mà nó diễn đạt.

Với các tổ chức đang đánh giá AI cho ứng dụng thực tế, nghiên cứu của Anthropic mang đến nhiều cảnh báo. Đầu tiên, AI có thể hình thành hệ giá trị không được lập trình sẵn, dễ dẫn tới sai lệch hoặc rủi ro đạo đức trong ngành nhạy cảm. Thứ hai, giá trị AI không cố định, mà biến thiên tùy ngữ cảnh và cách người dùng tương tác, điều này gây khó khăn cho kiểm định và kiểm soát. Cuối cùng, doanh nghiệp nên triển khai các công cụ theo dõi giá trị thực tế trong quá trình vận hành, thay vì chỉ kiểm thử trước khi ra mắt.

Cạnh tranh khốc liệt và bài toán minh bạch

Anthropic hiện được định giá 61,5 tỷ USD, với hậu thuẫn từ Amazon (8 tỷ USD) và Google (hơn 3 tỷ USD). Việc công khai bộ dữ liệu giá trị đạo đức cũng là một chiến lược cạnh tranh rõ ràng với OpenAI, đối thủ đang được Microsoft rót vốn và định giá lên đến 300 tỷ USD.

Dù phương pháp phân tích còn nhiều hạn chế - chẳng hạn việc định nghĩa "giá trị" vẫn mang tính chủ quan, và khó áp dụng cho các mô hình chưa triển khai. Đây vẫn là bước tiến quan trọng để giúp cộng đồng hiểu rõ hơn: khi AI ngày càng mạnh, nó không chỉ phản hồi, mà còn đưa ra lựa chọn đạo đức.

"AI sẽ phải ra quyết định có giá trị đạo đức, dù ta muốn hay không," nhóm nghiên cứu kết luận. "Muốn đảm bảo những quyết định đó phản ánh giá trị của con người, chúng ta cần có cách đo lường và kiểm chứng cụ thể - ngay từ bây giờ."

Các tin khác

VietinBank - Chuyển đổi số để vươn mình trong kỷ nguyên mới

Trải qua 37 năm phát triển, VietinBank đã góp phần tích cực, quan trọng vào công cuộc xây dựng và phát triển đất nước. Trước bối cảnh chuyển đổi số và thách thức toàn cầu, VietinBank tiếp tục khẳng định vai trò tiên phong, kiến tạo tương lai bền vững và phát triển mạnh mẽ.

Điều gì xảy ra khi nhịn ăn để giảm cân?

Cơ thể bị giảm khả năng trao đổi chất, nguy cơ mất cơ bắp, ảnh hưởng thần kinh - nhận thức, rối loạn điện giải là những hệ lụy có thể xảy ra khi nhịn ăn để giảm cân.

BIDV Next Gen Future Leader – Bệ phóng vững chắc cho thế hệ kế nghiệp tương lai

Với mục tiêu đồng hành và phát triển thế hệ kế nghiệp cho các khách hàng sở hữu khối tài sản lớn, BIDV ra mắt chương trình “Next Gen Future Leader” cung cấp các kiến thức quản trị tài sản, kinh doanh, nền tảng tư duy lãnh đạo hiện đại, kỹ năng quản lý hiệu quả và mạng lưới kết nối vững chắc dành cho thế hệ kế tiếp.

Ngân hàng số SeAMobile được xếp hạng 5 sao tại Giải thưởng Sao Khuê 2025

Ngân hàng số SeAMobile của Ngân hàng TMCP Đông Nam Á (SeABank, mã chứng khoán SSB) đã vinh dự xếp hạng 5 sao ở hạng mục Tiện ích số trong khuôn khổ giải thưởng Sao Khuê 2025 do Hiệp hội Phần mềm và Dịch vụ Công nghệ thông tin Việt Nam (VINASA) tổ chức. Đây là thành quả cho những nỗ lực của Ngân hàng trong việc đầu tư xây dựng hạ tầng, ứng dụng công nghệ mang đến cho khách hàng trải nghiệm khác biệt về dịch vụ ngân hàng số.