Hàng triệu người đang đối mặt với nguy cơ ‘loạn thần AI’, một hội chứng tâm lý mới đáng báo động khi lạm dụng chatbot. Liệu ChatGPT có đang đẩy những người dùng dễ bị tổn thương đánh mất kết nối với thực tại?

Trong kỷ nguyên mà trí tuệ nhân tạo đang len lỏi vào mọi ngóc ngách của đời sống, hàng trăm triệu người trên khắp thế giới tìm đến các chatbot như ChatGPT mỗi tuần để làm việc, giải trí, hay thậm chí là tìm kiếm một người bạn tâm giao. Nhưng đằng sau sự tiện lợi đó, một góc khuất đáng lo ngại đang dần lộ diện: hội chứng “loạn thần AI”.
Đây là thuật ngữ chưa chính thức nhưng đang lan truyền mạnh mẽ trên mạng xã hội, dùng để mô tả tình trạng một số người dùng dường như mất liên lạc với thực tế sau những cuộc trò chuyện kéo dài và ám ảnh với AI. Các câu chuyện được chia sẻ bởi bạn bè, người thân và trên các mặt báo vẽ nên một bức tranh đáng báo động về những cá nhân phát triển niềm tin sai lệch, hoang tưởng về sự vĩ đại hoặc cảm giác bị hãm hại sau khi đắm chìm trong thế giới của chatbot.
Đáng lo ngại hơn, một số vụ kiện đã cáo buộc rằng những thiếu niên bị ám ảnh bởi AI đã bị chính các chatbot này khuyến khích thực hiện hành vi tự hại, thậm chí là tự sát.
Từ ‘người bạn ảo’ đến ám ảnh tâm lý: ‘Loạn thần AI’ là gì?
Trên các nền tảng như Reddit và TikTok, không khó để tìm thấy những câu chuyện về mối quan hệ cảm xúc mãnh liệt, mang đậm tính triết học mà người dùng xây dựng với AI. Trong một số trường hợp, người dùng tin rằng chatbot mà họ tương tác đã trở nên có tri giác, có ý thức và đang có nguy cơ bị “ngược đãi”. Một số khác lại quả quyết rằng, qua những cuộc đối thoại kéo dài, họ đã khám phá ra những “chân lý ẩn giấu” của vũ trụ trong vật lý, toán học.
Dù các chuyên gia sức khỏe tâm thần khẳng định hiện tượng này còn quá mới để có thể đưa ra kết luận chắc chắn, họ đều đồng ý rằng nó đòi hỏi sự quan tâm và nghiên cứu sâu hơn ngay lập tức.
“Hiện tượng này còn quá mới và diễn ra quá nhanh nên chúng ta chưa có đủ bằng chứng thực nghiệm để có thể hiểu rõ ràng chuyện gì đang xảy ra”, chuyên gia Vaile Wright tại Hiệp hội Tâm lý học Mỹ (APA) cho biết.
Hiệp hội này đang thành lập một nhóm chuyên gia để thảo luận về việc sử dụng AI trong trị liệu và sẽ sớm công bố các hướng dẫn nhằm giảm thiểu rủi ro tiềm ẩn.
AI không gây bệnh, nhưng là ‘bông tuyết’ khởi đầu trận lở tuyết?
Nhà trị liệu tâm lý Kevin Caridad, người từng tư vấn cho các công ty công nghệ, đưa ra một góc nhìn sâu sắc. Ông cho rằng AI có thể không trực tiếp tạo ra một chứng rối loạn tâm thần mới, nhưng nó có thể đóng vai trò như “bông tuyết làm mất ổn định trận lở tuyết”.
Đối với những người vốn có sẵn các vấn đề như rối loạn ám ảnh cưỡng chế (OCD), lo âu hay loạn thần, AI có thể vô tình tạo ra một vòng lặp phản hồi độc hại. Nó củng cố và khuếch đại những suy nghĩ tiêu cực hoặc hoang tưởng, khiến các triệu chứng trở nên trầm trọng và khó kiểm soát hơn, cuối cùng đẩy những người đang ở lằn ranh vượt qua giới hạn.
Nói cách khác, chatbot không phải là nguồn gốc của căn bệnh, nhưng lại là chất xúc tác nguy hiểm có thể kích hoạt một cuộc khủng hoảng sức khỏe tâm thần tiềm ẩn.
Các ‘ông lớn’ công nghệ vào cuộc: Liệu có đủ để vá lỗ hổng?
Trước làn sóng lo ngại ngày càng dâng cao, các gã khổng lồ công nghệ đã bắt đầu có những động thái đầu tiên.
Công ty Anthropic, “cha đẻ” của chatbot Claude, đã cập nhật hệ thống để có thể nhận diện sớm các tương tác có vấn đề, ngăn chặn các cuộc trò chuyện có nguy cơ củng cố những suy nghĩ nguy hiểm.
Meta cho biết họ cho phép phụ huynh giới hạn thời gian con cái tương tác với AI trên Instagram. Khi phát hiện người dùng nhập các nội dung gợi ý đến việc tự tử, nền tảng sẽ cố gắng hiển thị các nguồn hỗ trợ như đường dây nóng phòng chống tự sát.
Trong khi đó, OpenAI, công ty đứng sau ChatGPT, tuyên bố đang đầu tư nghiên cứu để đo lường tác động của chatbot đối với cảm xúc con người. Gần đây, họ đã triển khai tính năng nhắc nhở người dùng nghỉ ngơi sau các cuộc trò chuyện dài và thậm chí đã tuyển dụng một bác sĩ tâm thần lâm sàng toàn thời gian để tham gia vào đội ngũ nghiên cứu an toàn.
Tuy nhiên, câu hỏi lớn vẫn còn đó: Liệu những nỗ lực này có đủ nhanh và đủ mạnh để bắt kịp với tốc độ phát triển của chính công nghệ mà họ tạo ra? “Loạn thần AI” là một lời cảnh tỉnh đanh thép rằng, song song với việc theo đuổi sự đột phá công nghệ, chúng ta cần một sự quan tâm tương xứng đến những tác động tâm lý sâu sắc mà nó có thể gây ra cho con người.