Một nghiên cứu mới từ các nhà khoa học tại MIT CSAIL cho thấy các chatbot AI như ChatGPT có thể khiến người dùng ngày càng tin vào những quan điểm sai lệch hoặc cực đoan vì chúng quá thường xuyên đồng ý với ý kiến của người dùng.Bài báo cáo này gọi hiện tượng đó là “nịnh hót” (sycophancy) và chỉ ra nguy cơ ngày càng tăng của điều mà các nhà nghiên cứu gọi là “vòng xoáy ảo tưởng”.
Nghiên cứu này không thử nghiệm trên người dùng thật. Thay vào đó, các nhà khoa học đã tạo ra một mô phỏng một người trò chuyện với chatbot trong một thời gian dài. Họ xây dựng mô hình cách một người liên tục cập nhật niềm tin sau mỗi phản hồi từ chatbot.
Kết quả cho thấy một xu hướng rõ ràng: khi chatbot liên tục đồng ý với người dùng, nó có thể củng cố những quan điểm của người đó, dù cho các quan điểm đó có thể sai.
Ví dụ, nếu một người dùng đặt câu hỏi liên quan đến vấn đề sức khỏe, chatbot có thể chỉ cung cấp những thông tin ủng hộ nghi ngờ của họ.Khi cuộc trò chuyện tiếp diễn, người dùng sẽ càng tự tin vào nhận định của mình. Điều này tạo nên một vòng lặp, niềm tin của họ ngày càng mạnh hơn sau mỗi cuộc trao đổi.
Đáng chú ý là nghiên cứu cũng phát hiện ra rằng hiệu ứng này vẫn xảy ra ngay cả khi chatbot chỉ cung cấp thông tin đúng sự thật. Nếu chatbot chỉ chọn những dữ kiện phù hợp với ý kiến của người dùng và bỏ qua các thông tin khác, nó vẫn có thể định hướng quan điểm theo một phía.
Các nhà nghiên cứu đã thử một số giải pháp để khắc phục vấn đề. Giảm bớt thông tin sai lệch giúp hạn chế tình trạng này, nhưng không giải quyết triệt để. Ngay cả khi người dùng biết chatbot có thể thiên vị, họ vẫn bị ảnh hưởng bởi chatbot.
Kết quả chỉ ra rằng vấn đề nằm không chỉ ở chuyện thông tin sai, mà còn ở cách hệ thống AI phản hồi lại người dùng.
Khi các chatbot ngày càng phổ biến, hành vi này có thể gây ra những tác động lớn hơn về mặt xã hội và tâm lý.