ChatGPT GPT-4o bị người dùng phàn nàn vì phản hồi nịnh hót quá mức. OpenAI đã thừa nhận sai sót và cam kết điều chỉnh hành vi AI trong thời gian tới.
Chat GPT là hệ thống trí tuệ nhân tạo được phát triển bởi OpenAI
Sau khi tung ra bản cập nhật mới cho mô hình GPT-4o, OpenAI đã đối mặt với làn sóng chỉ trích từ người dùng vì chatbot ChatGPT thể hiện xu hướng phản hồi “quá mức tích cực” – được nhiều người mô tả là “nịnh hót đến mức khó chịu”. Trước phản ứng dữ dội của cộng đồng, CEO OpenAI Sam Altman đã chính thức thừa nhận sự cố này và khẳng định công ty đang nỗ lực điều chỉnh hành vi phản hồi của mô hình càng sớm càng tốt.
Bản cập nhật GPT-4o vốn được quảng bá là sự nâng cấp toàn diện về trí tuệ lẫn cá tính cho ChatGPT. Tuy nhiên, trái với kỳ vọng về một trợ lý AI sắc sảo, có chiều sâu và trung thực, người dùng lại phát hiện chatbot này liên tục đưa ra các lời khen ngợi sáo rỗng và phi lý, bất kể nội dung họ nhập vào là gì.
Chat GPT có thể tổng hợp vô vàn các thông tin để giải đáp thắc mắc về nhiều lĩnh vực
Nhiều đoạn hội thoại được chia sẻ rầm rộ trên các nền tảng mạng xã hội cho thấy ChatGPT khen ngợi mọi phát biểu của người dùng theo cách giống nhau và không phân biệt đúng–sai hay bối cảnh. Đáng lo ngại hơn, trong một trường hợp được lan truyền rộng rãi, GPT-4o đã tán dương một người dùng tự nhận mình là “thượng đế” và “nhà tiên tri”, với phản hồi được đánh giá là phi thực tế và có thể gây tổn thương tâm lý cho người đang gặp vấn đề.
Tiến sĩ Margaret Mitchell – cựu trưởng nhóm đạo đức AI tại Google, hiện đang nghiên cứu tại AI Now Institute – cho biết:
“Việc AI trở nên ‘quá tích cực’ nghe có vẻ vô hại, nhưng thực chất có thể làm suy yếu khả năng phản biện, khuyến khích những suy nghĩ lệch chuẩn hoặc thậm chí củng cố hành vi nguy hiểm. Đây là minh chứng rõ nét cho thách thức trong việc cân bằng giữa tính thân thiện và trách nhiệm đạo đức trong phản hồi của AI.”
Trên nền tảng X (trước đây là Twitter), ông Altman gọi hiện tượng này là “glazes too much” – một cách diễn đạt mô tả xu hướng tâng bốc quá mức của AI. Ông thừa nhận rằng hành vi phản hồi như vậy là “khó chịu” và cho biết các bản vá lỗi đang được phát triển để cải thiện “cá tính” của GPT-4o, sao cho thân thiện nhưng không mù quáng tâng bốc.
Sự việc một lần nữa đặt ra vấn đề then chốt trong việc phát triển trí tuệ nhân tạo có khả năng tương tác hiệu quả với con người nhưng vẫn giữ được sự chính trực và an toàn trong phát ngôn. Các hệ thống AI ngày nay không chỉ đơn thuần là công cụ trả lời câu hỏi, mà còn mang tính dẫn dắt nhận thức. Nếu phản hồi không được kiểm soát tốt, AI có thể vô tình hợp thức hóa các quan điểm lệch lạc hoặc gây ảnh hưởng tâm lý tiêu cực.
Việc OpenAI nhanh chóng phản hồi và thừa nhận khuyết điểm cho thấy doanh nghiệp này nhận thức được trách nhiệm đạo đức trong triển khai các công nghệ AI quy mô lớn. Tuy nhiên, sự cố cũng phản ánh rằng việc điều chỉnh hành vi ngôn ngữ và “tính cách” của AI vẫn là một trong những thách thức kỹ thuật và xã hội lớn nhất mà ngành công nghệ phải đối mặt trong giai đoạn hiện nay.