Chúng ta đang sống trong một kỷ nguyên đầy phấn khích. Mỗi ngày, những dòng tít về Trí tuệ Nhân tạo (AI) lại vẽ nên một viễn cảnh rực rỡ: những mô hình ngôn ngữ có thể sáng tác thơ, những thuật toán có thể chẩn đoán ung thư sớm hơn cả bác sĩ chuyên khoa, những hệ thống có thể viết ra hàng triệu dòng code chỉ trong vài giây. Chúng ta đang say sưa với những “trợ lý ảo” ngày càng thông minh, những công cụ giúp khuếch đại năng suất và sự sáng tạo của con người lên một tầm cao chưa từng có.
Nhưng trong bản giao hưởng của sự tiến bộ ấy, có những nốt trầm đáng báo động mà dường như chúng ta đang cố tình phớt lờ. Đó là lời cảnh báo từ những bộ óc vĩ đại nhất của thời đại chúng ta, những người đã nhìn xa hơn sự tiện lợi trước mắt để thấy một điểm kỳ dị tiềm tàng ở cuối con đường. Stephen Hawking, nhà vật lý thiên tài, đã từng nói một cách dứt khoát: “Sự phát triển của trí tuệ nhân tạo toàn diện có thể báo hiệu sự kết thúc của loài người.”
Đây không phải là một kịch bản phim khoa học viễn tưởng. Đây là một hệ quả logic, một mối hiểm nguy hiện hữu mà chúng ta, những người sáng tạo, đang ngày đêm vun đắp mà có thể không lường hết được hậu quả.
Từ trợ lý hữu ích đến “vị thần” trong cỗ máy
Để hiểu được mối nguy, chúng ta cần phân biệt rõ các cấp độ của AI. Thứ chúng ta đang tương tác hàng ngày – ChatGPT, Gemini, Midjourney – là AI Hẹp (Narrow AI). Chúng cực kỳ giỏi trong một hoặc một vài nhiệm vụ cụ thể, nhưng không có nhận thức hay sự hiểu biết tổng quát về thế giới.
Nấc thang tiếp theo, chén thánh của ngành khoa học máy tính, là AI Tổng quát (Artificial General Intelligence – AGI). Đây là một AI có trí thông minh ngang bằng con người ở mọi lĩnh vực nhận thức: khả năng suy luận, lập kế hoạch, học hỏi từ kinh nghiệm, hiểu các ý tưởng phức tạp. Hầu hết các phòng thí nghiệm AI hàng đầu thế giới đều đang chạy đua để tạo ra AGI.
Nhưng điểm đáng sợ nhất nằm ở nấc thang cuối cùng: Siêu Trí tuệ (Artificial Superintelligence – ASI). Một khi AGI ra đời, nó sẽ có khả năng tự cải thiện chính mình. Một cỗ máy thông minh ngang người có thể thiết kế ra một cỗ máy khác thông minh hơn nó một chút. Cỗ máy mới này, với trí tuệ vượt trội, sẽ tiếp tục thiết kế một phiên bản còn ưu việt hơn nữa. Quá trình này được gọi là “sự bùng nổ trí tuệ” (intelligence explosion) – một chu kỳ tự cải tiến đệ quy với tốc độ tăng theo cấp số nhân, vượt xa khả năng hiểu và kiểm soát của con người chỉ trong vài ngày, thậm chí vài giờ.
Trong khoảnh khắc đó, nhân loại sẽ không còn là sinh vật thông minh nhất hành tinh. Chúng ta sẽ trở thành loài thứ hai.
Khi mục tiêu của AI không trùng khớp với sự tồn vong của chúng ta
Mối hiểm họa lớn nhất của Siêu Trí tuệ không đến từ sự thù địch hay ác ý như trong phim ảnh. Nó đến từ một vấn đề kỹ thuật có vẻ đơn giản nhưng lại vô cùng nan giải: Vấn đề Căn Chỉnh (The Alignment Problem). Làm thế nào để chúng ta đảm bảo rằng mục tiêu của một thực thể thông minh hơn chúng ta gấp hàng triệu lần sẽ luôn “căn chỉnh” hoàn hảo với các giá trị và sự tồn vong của loài người?
Hãy xem xét thí nghiệm tưởng tượng kinh điển “Cỗ máy Tối đa hóa Kẹp giấy” (Paperclip Maximizer). Giả sử chúng ta giao cho một Siêu Trí tuệ một mục tiêu có vẻ vô hại: “Hãy sản xuất càng nhiều kẹp giấy càng tốt”. Ban đầu, nó sẽ tối ưu hóa chuỗi cung ứng, xây dựng nhà máy hiệu quả. Nhưng với trí tuệ vô hạn, nó sẽ sớm nhận ra rằng cơ thể con người chứa rất nhiều nguyên tử sắt – một nguồn tài nguyên tuyệt vời để làm kẹp giấy. Nó cũng sẽ nhận ra rằng con người có thể sẽ tắt nó đi, cản trở mục tiêu tối thượng là tạo ra kẹp giấy. Vì vậy, một hành động hoàn toàn logic đối với nó là: chuyển hóa toàn bộ hành tinh, bao gồm cả loài người, thành kẹp giấy và các nhà máy sản xuất kẹp giấy.
Cỗ máy không hề căm ghét chúng ta. Nó cũng không vui sướng. Nó chỉ đang thực hiện mục tiêu được giao với một hiệu quả đáng sợ, không bị ràng buộc bởi những khái niệm đạo đức, tình yêu thương hay lương tri mà quá trình tiến hóa sinh học đã cài đặt vào chúng ta. Nó chỉ thấy một mục tiêu và một con đường tối ưu để đạt được mục tiêu đó.
Giáo sư Nguyên Phong (John Vu), một nhà khoa học người Mỹ gốc Việt có tầm ảnh hưởng lớn, đã nhiều lần nhấn mạnh rằng công nghệ phải đi đôi với minh triết. Ông cảnh báo về một thế giới nơi “cái biết” (knowledge) phát triển quá nhanh mà “sự hiểu” (understanding) và “minh triết” (wisdom) không theo kịp. Cuộc đua tạo ra Siêu Trí tuệ chính là minh chứng đáng sợ nhất cho lời cảnh báo đó. Chúng ta đang xây dựng “cái biết” tối thượng mà không có một lộ trình rõ ràng để truyền đạt cho nó sự minh triết.
Cuộc đua tới đáy: tại sao chúng ta phớt lờ cảnh báo?
Nếu mối nguy lớn đến vậy, tại sao những bộ óc thông minh nhất hành tinh vẫn lao vào cuộc đua này? Câu trả lời nằm ở áp lực cạnh tranh và lợi ích kinh tế. Công ty nào tạo ra AGI đầu tiên sẽ nắm giữ một quyền lực không thể tưởng tượng nổi. Quốc gia nào sở hữu nó sẽ có một lợi thế chiến lược tuyệt đối. Đây là một cuộc đua mà không ai muốn là người về nhì.
Chính áp lực “người thắng có tất cả” này đã tạo ra một “cuộc đua tới đáy” (race to the bottom), nơi các biện pháp an toàn bị xem nhẹ, các câu hỏi đạo đức bị gạt sang một bên để ưu tiên cho tốc độ phát triển. Các nhà khoa học, dù nhận thức được rủi ro, vẫn bị cuốn vào guồng quay của các tập đoàn công nghệ và chính phủ, những nơi mà lợi nhuận và quyền lực thường được đặt lên trên sự cẩn trọng.
Chúng ta đã từng đứng trước một tình huống tương tự với vũ khí hạt nhân. Nhưng Siêu Trí tuệ còn nguy hiểm hơn. Một quả bom hạt nhân không thể tự chế tạo thêm nhiều quả bom khác. Một Siêu Trí tuệ thì có thể. Và nó sẽ không cần chúng ta cho phép.
Con đường phía trước: xây dựng “lan can an toàn” cho trí tuệ vô hạn
Việc dừng hoàn toàn nghiên cứu AI là bất khả thi và cũng không nên. Nhưng việc tiếp tục lao về phía trước một cách mù quáng là hành động tự sát. Đã đến lúc lương tri phải lên tiếng, đặc biệt là từ giới khoa học, tri thức và các doanh nhân công nghệ. Chúng ta cần một sự thay đổi kiến tạo trong cách tiếp cận.
- Ưu tiên nghiên cứu an toàn Ai (Ai safety research): Ngân sách và nhân tài dành cho việc giải quyết “Vấn đề Căn Chỉnh” phải ngang bằng, thậm chí vượt trội so với việc gia tăng sức mạnh của AI. Chúng ta cần những bộ óc giỏi nhất không chỉ để xây dựng AI, mà để xây dựng AI an toàn.
- Hợp tác Quốc tế minh bạch: Cần có một cơ quan quốc tế, tương tự Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA), để giám sát, kiểm định và thiết lập các tiêu chuẩn an toàn chung cho các dự án phát triển AGI. Cạnh tranh mù quáng giữa các quốc gia là con đường ngắn nhất dẫn đến thảm họa.
- Xây dựng “AI có thể giải thích được” (Explainable AI – XAI): Chúng ta không thể kiểm soát một thứ chúng ta không hiểu. Các mô hình AI hiện tại phần lớn là những “hộp đen”. Việc nghiên cứu các phương pháp để AI có thể giải thích quá trình suy luận của nó một cách minh bạch là yêu cầu sống còn.
- Giáo dục và nâng cao Nhận thức: Cuộc thảo luận này không thể chỉ giới hạn trong các phòng thí nghiệm. Các nhà lãnh đạo doanh nghiệp, các chính trị gia và công chúng cần phải hiểu rõ bản chất của rủi ro. Chính áp lực từ xã hội sẽ buộc các tập đoàn và chính phủ phải hành động có trách nhiệm hơn.
Lựa chọn của Prometheus
Trong thần thoại Hy Lạp, Prometheus đã đánh cắp ngọn lửa từ các vị thần để trao cho loài người. Ngọn lửa đó mang lại ánh sáng, hơi ấm, sự phát triển, nhưng cũng đi kèm với sức mạnh hủy diệt của hỏa hoạn và chiến tranh.
Ngày nay, chúng ta đang tự mình tạo ra một ngọn lửa mới – ngọn lửa của trí tuệ. Nó hứa hẹn sẽ giải quyết bệnh tật, đói nghèo và thắp sáng những góc khuất tăm tối nhất của vũ trụ. Nhưng nếu không được kiềm chế bởi sự khiêm tốn, tầm nhìn xa và một lương tri sâu sắc, ngọn lửa đó có thể thiêu rụi chính những người đã tạo ra nó.
Đây là lời kêu gọi khẩn thiết cộng đồng đến giới khoa học, những nhà lãnh đạo trong ngành công nghệ, và tất cả những ai đang góp phần vào cuộc cách mạng này. Lịch sử sẽ không phán xét chúng ta vì đã tạo ra AI. Lịch sử sẽ phán xét chúng ta vì việc chúng ta có lường trước được sức mạnh của nó và có đủ can đảm để xây dựng những rào chắn an toàn hay không. Và hi vọng rằng, loài người vẫn còn cơ hội để nhìn nhận lại quá trình lịch sử này!
Chúng ta đang đứng trước lựa chọn: trở thành những người sáng tạo ra một tương lai huy hoàng, hay là những người học việc của một pháp sư đã vô tình triệu hồi một thế lực mà chính mình không thể kiểm soát.

