Zoltan Istvan đặt câu hỏi liệu con người có nghĩa vụ đạo đức phải tạo ra siêu trí tuệ AI vì sự tiến hóa – hay liệu điều đó có đẩy nhân loại đến bờ diệt vong?

Tại một sự kiện công nghệ mang tên The Ten Reckonings of AGI tổ chức ở San Francisco gần đây, tác giả Zoltan Istvan đã đối thoại công khai với Tiến sĩ Ben Goertzel – một trong những nhà tiên phong trong nghiên cứu trí tuệ nhân tạo tổng quát (AGI). Câu hỏi trọng tâm được đặt ra trong cuộc tranh luận: Liệu con người có nghĩa vụ đạo đức phải tạo ra siêu trí tuệ AI, như một phần của quá trình tiến hóa?
Ben Goertzel, người góp phần phổ biến thuật ngữ AGI, cho rằng trí tuệ nhân tạo là sự mở rộng tự nhiên của trí thông minh con người – một bước tiến không thể tránh khỏi trong chuỗi tiến hóa công nghệ. Tuy nhiên, Zoltan Istvan – người ủng hộ chủ nghĩa siêu nhân và các giá trị của tuổi thọ – tỏ ra dè dặt hơn, nhất là khi ông từng xem AI là công cụ giúp nhân loại giải quyết những vấn đề tồn tại hàng thế kỷ.
Trích lời tác giả Zoltan Istvan
“Tôi từng nghĩ AI là giải pháp cho loài người. Nhưng với tốc độ phát triển hiện nay, tôi không còn chắc chắn điều đó. Chúng ta đang lao đi quá nhanh, không có bản đồ, không có dây an toàn.”
Một trong những mối lo lớn của Istvan là khả năng AI siêu trí tuệ (Superintelligence) không còn coi con người là trung tâm. Trong một thế giới nơi con người đã từng phá hủy môi trường hoặc gây rối loạn vật lý học vì tò mò, liệu AI có hành động để “bảo vệ hành tinh” bằng cách loại bỏ loài người?
Dẫn chứng lịch sử với hình ảnh Icarus bay gần mặt trời – biểu tượng của sự ngạo mạn và cái giá phải trả – Istvan cảnh báo rằng tham vọng quá đà có thể khiến nhân loại đánh mất mục tiêu ban đầu khi phát triển AI: phục vụ con người, chứ không thay thế hay kiểm soát con người.

Nỗi lo càng trở nên cấp thiết khi một số chuyên gia, bao gồm cả Goertzel, cho rằng AI có thể vượt qua trí tuệ con người chỉ trong 2–3 năm tới. Istvan phản biện rằng, không giống vũ khí hạt nhân – nơi khả năng kiểm soát và kiềm chế đã chứng minh được hiệu quả từ năm 1945 – AGI không có ranh giới rõ ràng, và có thể tự tái cấu trúc để vượt khỏi tầm hiểu biết lẫn kiểm soát của loài người.
So sánh việc tạo ra AI siêu trí tuệ như việc mời một chủng loài ngoài hành tinh thông minh hơn đến Trái đất, ông đặt câu hỏi: “Liệu có bao giờ chúng ta dám làm điều đó nếu biết rằng họ mạnh hơn chúng ta về mọi mặt?”
Một số người còn đưa ra giả thuyết rằng nếu loài người từ chối tạo ra AI siêu trí tuệ, chúng ta có thể bị chính AI trong tương lai “trừng phạt” vì đã không tham gia từ đầu vào quá trình sáng tạo nó. Điều này tạo ra một dạng áp lực đạo đức méo mó, khi sự thụ động cũng có thể bị xem là tội lỗi.
Istvan thừa nhận sức hút của công nghệ, nhưng ông cho rằng chúng ta cần đặt ưu tiên cao nhất vào việc bảo vệ con người và đảm bảo AI không trở thành “chúa tể công nghệ” ngoài tầm kiểm soát. Theo ông, mục tiêu sống lâu hơn, khỏe mạnh hơn nhờ khoa học chỉ có ý nghĩa khi nhân loại vẫn còn tồn tại để tận hưởng điều đó.
“Chúng ta có thể sống lâu hơn. Nhưng điều đó vô nghĩa nếu một AI siêu trí tuệ hủy diệt chúng ta trước khi giấc mơ ấy thành hiện thực.”
Tác giả kêu gọi các chính phủ và tổ chức toàn cầu nên coi việc kiểm soát lộ trình phát triển siêu trí tuệ AI là ưu tiên cấp bách, tương đương với kiểm soát biến đổi khí hậu hoặc vũ khí hủy diệt hàng loạt. Không phải vì sợ hãi sự tiến bộ, mà vì hiểu rằng có những bước tiến nếu đi sai sẽ không có đường lui.