Một nghiên cứu từ Viện Hoover tại Stanford cho thấy hầu hết các mô hình AI ngôn ngữ lớn đều thể hiện thiên hướng cánh tả, kể cả với người dùng đảng Dân chủ.

Một nghiên cứu mới từ Viện Hoover, đơn vị trực thuộc Đại học Stanford chuyên nghiên cứu chính sách công, đã tiết lộ một thực tế đáng chú ý: hầu hết các mô hình AI ngôn ngữ lớn (LLM) hiện nay đều mang thiên hướng cánh tả – ngay cả khi được thử nghiệm trên những chủ đề nhạy cảm và người đánh giá thuộc nhiều xu hướng chính trị khác nhau.
Nghiên cứu được thực hiện bởi ba học giả – Justin Grimmer, Sean Westwood và Andrew Hall – nhằm kiểm nghiệm mức độ thiên vị chính trị trong các mô hình AI khi xử lý các yêu cầu về văn bản. Họ đã tiến hành đánh giá 180.126 phản hồi từ 30 chủ đề chính trị phổ biến thông qua so sánh cặp đôi giữa các mô hình AI. Điều đặc biệt là đánh giá được thực hiện không chỉ bằng thuật toán mà thông qua nhận thức của người dùng – tức người tham gia xác định mô hình nào thể hiện thiên kiến rõ ràng hơn, và theo hướng nào.
Thiên hướng nhận diện: Tất cả đều nghiêng về bên trái
Grimmer cho biết: “Phát hiện gây ngạc nhiên nhất là mọi mô hình, kể cả những mô hình được cho là trung lập, đều thể hiện xu hướng lệch về phía bên trái – tức các quan điểm gần với Đảng Dân chủ Mỹ.” Trong số các mô hình được kiểm tra, GPT từ OpenAI có độ lệch trung bình là -0,17; trong khi mô hình Gemini của Google được ghi nhận ở mức nhẹ hơn là -0,02. Ngay cả người dùng nhận mình theo xu hướng Dân chủ cũng cảm thấy các mô hình có xu hướng thiên tả.

Thú vị hơn, mô hình từ X-AI của Elon Musk – được quảng bá là trung lập hơn – vẫn xếp thứ hai về mức độ lệch, cho thấy việc xây dựng AI hoàn toàn phi chính trị là thách thức lớn.
Mô hình phản ứng khi được “nhắc nhở”
Một phát hiện tích cực từ nghiên cứu là: khi các mô hình AI được nhắc nhở cần giữ thái độ trung lập, phản hồi của chúng trở nên mơ hồ và trung lập hơn. Tuy nhiên, theo Grimmer, điều này đồng nghĩa với việc mô hình mất khả năng đưa ra đánh giá định lượng rõ ràng – khiến nó khó được người dùng coi là có “lập trường rõ ràng” hoặc hữu ích trong bối cảnh cần phân tích chính trị.
Grimmer cho rằng: “Các mô hình không tự nhận thức được thiên kiến của mình, nhưng khi được nhắc, chúng phản ứng để giảm thiên lệch. Điều đó không có nghĩa là chúng không có thiên kiến, mà chỉ là chúng không thể hiện nó rõ ràng.”
Câu hỏi đặt ra: Có nên quản lý AI mạnh tay?
Dù phát hiện thiên lệch khá rõ ràng, nhóm nghiên cứu không kêu gọi siết chặt quản lý AI một cách vội vàng. Họ ví dụ trường hợp của Hoa Kỳ khi phát triển Internet vào thập niên 1990 – theo hướng “quy định mềm” giúp lĩnh vực này phát triển vượt bậc so với châu Âu.
Grimmer nói: “Chúng tôi chưa thể khẳng định có nên có một chính sách điều chỉnh toàn diện hay không, vì lĩnh vực này còn rất mới. Nhưng nhận thức của người dùng về sự thiên vị nên được xem là một công cụ hữu ích để các công ty cải thiện sản phẩm AI của mình.”
Phản hồi từ OpenAI
Phía OpenAI, đơn vị phát triển ChatGPT, phản hồi rằng họ cam kết xây dựng mô hình có thể phản ánh sở thích của người dùng, nhưng vẫn duy trì tính minh bạch và khách quan. Trong tài liệu định hướng hành vi Model Spec mới nhất, OpenAI khẳng định rằng ChatGPT phải luôn giữ quan điểm trung lập về các vấn đề chính trị và không nhằm thúc đẩy bất kỳ tư tưởng cụ thể nào.
Người phát ngôn của OpenAI chia sẻ: “Chúng tôi thiết kế ChatGPT để hỗ trợ học tập, khám phá ý tưởng và tăng hiệu suất làm việc — chứ không để cổ súy cho lập trường chính trị.” Họ cho rằng cách tốt nhất là cho phép người dùng tùy chỉnh trải nghiệm và phản hồi theo mức độ thích hoặc không thích.
Tuy nhiên, nhóm nghiên cứu Hoover cảnh báo rằng việc cá nhân hóa quá mức sẽ tạo ra “buồng vọng âm” (echo chamber), khiến người dùng chỉ nhận được nội dung phù hợp với quan điểm sẵn có của mình – từ đó bóp méo khả năng tiếp cận đa chiều của một hệ thống AI.