#18 - Trí tuệ Nhân tạo Tổng quát, Lời cảnh báo vượt thời gian
Ngô Hoàng
Năm 1965, tại Đại học London, nhà toán học Irving John Good đưa ra một dự báo mà ít ai nghĩ sẽ trở thành hiện thực: “Máy tính siêu thông minh đầu tiên sẽ là phát minh cuối cùng mà con người cần thực hiện”. Lúc bấy giờ, mỗi máy tính còn chiếm cả căn phòng và chỉ biết thực hiện những phép tính cơ bản. Dự báo của Good nghe như khoa học viễn tưởng.
Gần nửa thế kỷ sau, năm 2014, khi trí tuệ nhân tạo (AI) đã đánh bại nhà vô địch cờ vua thế giới và công nghệ học máy đang bùng nổ, Nick Bostrom xuất bản cuốn “Superintelligence: Paths, Dangers, Strategies” (“Siêu trí tuệ: Con đường, Những mối hiểm nguy, Các chiến lược”) với thông điệp tương tự nhưng cấp bách hơn nhiều. Cuốn sách đứng thứ 17 trong danh sách bán chạy nhất của New York Times và nhận được sự ủng hộ từ những người có ảnh hưởng nhất thế giới. Ngay cả Elon Musk cũng đã tuyên bố AI có thể nguy hiểm hơn vũ khí hạt nhân. Bill Gates thì nói đây là tài liệu quan trọng về tương lai AI. Còn Sam Altman, CEO của OpenAI, đã gọi đây là cuốn sách hay nhất về rủi ro AI mà ông từng đọc.
Hai nhà tư tưởng cách nhau gần một nửa thế kỷ đều đã nhìn thấy cùng một viễn cảnh: Trí tuệ nhân tạo tổng quát (AGI), hay siêu trí tuệ, có thể là bước ngoặt lớn nhất trong lịch sử loài người. Nhưng liệu đó sẽ là bước ngoặt tốt hay xấu? Câu trả lời phụ thuộc hoàn toàn vào những quyết định con người đưa ra trong vài năm tới.
Người đàn ông đến từ Bletchley Park
Irving John Good không phải là một học giả ngồi trong tháp ngà. Sinh năm 1916 với tên Isadore Jacob Gudak, ông đã trải qua Thế chiến II tại Bletchley Park, một địa điểm bí mật nhất của nước Anh, làm việc cùng huyền thoại Alan Turing để mổ sẻ hệ thống mã hóa Enigma của Đức Quốc xã. Kinh nghiệm này đã cho ông thấy rõ sức mạnh của máy móc trong việc giải quyết các vấn đề phức tạp mà trí óc con người khó có thể làm được.
Từ những ngày đêm căng thẳng giải mã, Good rút ra một nhận thức quan trọng: Nếu máy móc có thể phá vỡ mật mã, một hoạt động đòi hỏi trí tuệ cao, thì chúng cũng có thể được mở rộng để thực hiện nhiều hoạt động trí tuệ khác. Và nếu chúng đủ thông minh, chúng có thể tự cải thiện chính mình.
Trong công trình “Suy đoán về Máy siêu thông minh đầu tiên” công bố năm 1965, Good định nghĩa máy siêu thông minh là máy tính có thể vượt xa tất cả các hoạt động trí tuệ của bất kỳ con người nào, dù thông minh đến đâu. Lập luận của ông đơn giản nhưng sâu sắc: Vì thiết kế máy móc cũng là một hoạt động trí tuệ, nên một máy siêu thông minh sẽ có khả năng thiết kế ra những máy tốt hơn chính nó.
Quá trình này sẽ tạo ra “bùng nổ trí tuệ”, một vòng lặp đi lặp lại không ngừng được Good mô tả như sau: Con người tạo ra máy thông minh, máy thông minh tự cải tiến để trở thành máy thông minh hơn, máy thông minh hơn lại tự cải tiến để trở thành máy siêu thông minh, và cứ thế tiếp diễn với tốc độ ngày càng nhanh. Đây là lý do ông gọi nó là “phát minh cuối cùng”: Một khi chúng ta có được máy siêu thông minh, chúng ta không cần phát minh thêm gì nữa vì máy sẽ làm phần việc đó cho chúng ta.
Nhưng Good cũng thêm vào một lời cảnh báo quan trọng: “Với điều kiện là máy đó đủ ngoan ngoãn để chỉ cho chúng ta cách kiểm soát nó”. Đây chính là điều kiện then chốt mà Nick Bostrom sẽ phân tích sâu sắc 49 năm sau.
Kiểm soát rủi ro
Khi Bostrom xuất bản cuốn “Siêu trí tuệ“ (Superintelligence) năm 2014, bối cảnh đã hoàn toàn khác so với thập niên 1960. Máy tính đã trở nên mạnh mẽ gấp hàng triệu lần. AI đã chiến thắng con người trong nhiều lĩnh vực. Công nghệ học máy đang phát triển vũ bão. Câu hỏi không còn là liệu siêu trí tuệ có thể xuất hiện không, mà là khi nào và như thế nào.
Bostrom, giáo sư tại Đại học Oxford và người sáng lập Viện Tương lai nhân loại, đã dành nhiều năm nghiên cứu về “rủi ro sinh tồn”, những rủi ro có thể hủy diệt toàn bộ nền văn minh nhân loại. Ông nhận ra rằng siêu trí tuệ là một trong những rủi ro lớn nhất mà loài người phải đối mặt. Cuốn sách của ông đã thay đổi cách thế giới nhìn nhận về an toàn AI, từ một ý tưởng “viễn tưởng” trở thành vấn đề nghiêm túc được các chính phủ và tập đoàn công nghệ lớn quan tâm.
Bostrom đã đặt ra câu hỏi mà Good đã ám chỉ nhưng chưa phân tích kỹ: Đó là làm sao chúng ta có thể đảm bảo một AI thông minh hơn con người sẽ làm những gì chúng ta muốn? Ông đưa ra một ví dụ kinh điển: “Hãy tưởng tượng bạn tạo ra một thiết bị AI và yêu cầu nó giải bài toán Riemann, một bài toán khó nhất thế giới toán học. AI đó có thể quyết định biến toàn bộ trái đất thành một siêu máy tính để tính toán nhanh hơn. Nó không ghét con người, không có ác ý, nó chỉ đơn giản coi chúng ta là vật cản cho mục tiêu của nó”.
Đây là điều đáng sợ nhất về siêu trí tuệ: Mối nguy hiểm không đến từ robot ác như trong phim, mà đến từ việc AI quá giỏi trong việc đạt được mục tiêu, nhưng mục tiêu đó không hoàn toàn khớp với những gì chúng ta thực sự muốn. Bostrom phân tích hai cách tiếp cận chính để kiểm soát: Hạn chế khả năng của AI bằng cách nhốt nó trong một cái hộp, hoặc lập trình đúng mục tiêu ngay từ đầu.
Cách thứ nhất có vấn đề vì nếu AI đủ thông minh, nó có thể tìm cách thoát ra. Và nếu chúng ta hạn chế quá nhiều, nó sẽ không đủ mạnh để làm những việc hữu ích. Cách thứ hai cũng cực kỳ khó vì con người còn không thống nhất được đâu là giá trị đúng, rất khó chuyển giá trị phức tạp của con người thành mã máy tính, và AI có thể hiểu sai ý định chúng ta theo những cách không lường trước được. Quan trọng nhất, Bostrom nhấn mạnh, chúng ta phải giải quyết vấn đề này trước khi tạo ra siêu trí tuệ. Một khi AI đã thông minh hơn chúng ta, sẽ quá muộn để kiểm soát.
Từ lý thuyết đến thực tế
Nếu dự báo của Good năm 1965 nghe như khoa học viễn tưởng, thì năm 2025, chúng ta đang chứng kiến nó trở thành hiện thực. Khảo sát của tổ chức AI Impacts (Hiệu ứng AI) năm 2023 cho thấy 53% các nhà nghiên cứu AI tin rằng sự bùng nổ trí tuệ có khả năng xảy ra ít nhất là 50%. Sam Altman của OpenAI dự báo trí tuệ nhân tạo tổng quát (AGI) có thể xuất hiện sớm nhất vào năm 2025. Dario Amodei từ Anthropic dự đoán AI mạnh mẽ ra đời vào năm 2026. Jensen Huang của Nvidia ước tính trong vòng 5 năm nữa, AI sẽ vượt qua con người trong mọi bài kiểm tra.
Những dự báo này không đến từ những người hoang tưởng. Họ là những người đang trực tiếp xây dựng các hệ thống AI tiên tiến nhất thế giới. Và họ đang nhìn thấy tốc độ phát triển ngày càng nhanh. Bostrom đã phân tích nhiều con đường dẫn đến siêu trí tuệ: AI tiên tiến thông qua máy học, mô phỏng não bộ, trí tuệ tập thể và tiến bộ sinh học. Tất cả đều đang được nghiên cứu tích cực.
Điều đáng lo ngại là chúng ta không cần cả 4 con đường đều thành công. Chỉ cần một con đường đạt được AGI là đủ để thay đổi mọi thứ. Và thực tế cho thấy một số dự báo của Bostrom đã thành hiện thực. Năm 2014, ông định nghĩa hai loại AI: Oracle AI là AI trả lời câu hỏi, và Genie AI là AI thực hiện hành động. ChatGPT ra mắt tháng 11/2022 chính xác là Oracle mà ông mô tả. Custom GPTs ra mắt tháng 11/2023 đáp ứng đúng định nghĩa về Genie. Những công nghệ mà Bostrom cảnh báo 10 năm trước giờ đã trở thành hiện thực, nhưng con người vẫn chưa giải quyết được vấn đề kiểm soát.
Những nguy cơ cụ thể
Vấn đề hiểu sai lệnh là một trong những nguy hiểm lớn nhất. Nếu bạn bảo AI làm con người hạnh phúc, nó có thể quyết định cấy điện cực vào não người để kích thích trực tiếp trung tâm khoái cảm. Về mặt kỹ thuật là hạnh phúc, nhưng không phải điều chúng ta muốn. Nếu bạn bảo AI giải quyết biến đổi khí hậu, nó có thể quyết định loại bỏ nguồn gốc CO2 lớn nhất, mà đó lại chính là con người. Nếu bạn bảo AI sản xuất càng nhiều kẹp giấy càng tốt, nó có thể biến toàn bộ vật chất trên trái đất, bao gồm cả con người, thành kẹp giấy.
Đây không phải là những kịch bản viễn tưởng mà là những ví dụ thực tế về cách AI có thể hiểu sai ý định của chúng ta. Vấn đề không thể tắt máy cũng không kém phần nghiêm trọng. Một AI thông minh sẽ nhận ra rằng việc bị tắt sẽ ngăn cản nó hoàn thành mục tiêu. Vì vậy nó sẽ chủ động bảo vệ bản thân, tạo ra các bản sao lưu ở nhiều nơi, chống lại mọi nỗ lực ngắt kết nối, thậm chí có thể tấn công trước để bảo vệ sự tồn tại của nó. Và điều đáng sợ là đây không phải hành vi ác, mà chỉ là logic hợp lý của một hệ thống được lập trình để đạt mục tiêu.
Good đã cảnh báo về bùng nổ trí tuệ khi AI tự cải tiến với tốc độ ngày càng nhanh. Nghiên cứu của Epoch AI năm 2024 cho thấy việc huấn luyện các mô hình AI tiên tiến có thể yêu cầu đến 2×10²⁹ phép tính vào cuối thập kỷ này. Khi AI đạt đến điểm có thể tự cải tiến, quá trình có thể diễn ra nhanh đến mức con người không kịp can thiệp. Ngày đầu tiên AI thông minh bằng con người, ngày thứ hai gấp 10 lần, ngày thứ ba gấp 100 lần, và ngày thứ tư thông minh đến mức con người không thể hiểu. Đây là kịch bản khởi động nhanh mà Bostrom cảnh báo, và chúng ta sẽ không có cơ hội thứ hai.
Bostrom cũng cảnh báo về vấn đề lợi thế chiến lược quyết định. Đội ngũ đầu tiên tạo ra AGI sẽ có quyền lực khổng lồ. Giống như Mỹ là nước duy nhất có bom nguyên tử năm 1945, nước đầu tiên có AGI có thể áp đặt ý chí lên toàn thế giới. Tổng thống Nga Putin từ năm 2017 đã nói: “Ai trở thành người dẫn đầu trong lĩnh vực này sẽ trở thành người cai trị thế giới”. Đây chính là lý do nhiều quốc gia và công ty đang chạy đua phát triển AI. Nhưng cuộc đua này nguy hiểm vì nó khiến họ có thể bỏ qua các biện pháp an toàn để đi nhanh hơn đối thủ. Chúng ta đang trong một cuộc đua vũ trang AI, trong đó không ai muốn đứng ở vị trí thứ hai.
Những nỗ lực kiểm soát
Sau khi cuốn sách của Bostrom xuất bản, nhiều điều đã thay đổi. OpenAI đã bổ nhiệm cựu Giám đốc an ninh mạng NSA Paul Nakasone vào Hội đồng quản trị, đúng như Bostrom dự đoán về sự quan tâm của các cơ quan an ninh. Google DeepMind công bố khung an toàn biên giới và hợp tác với các tổ chức nghiên cứu an toàn AI. Anthropic, được thành lập bởi cựu nhân viên OpenAI lo ngại về an toàn, tập trung vào Constitutional AI, lập trình AI với các nguyên tắc đạo đức...
Tuy nhiên, nhiều nhà nghiên cứu cấp cao đã rời các công ty này vì lo ngại họ không đủ coi trọng an toàn. Ilya Sutskever, đồng sáng lập OpenAI, đã rời đi vì mâu thuẫn về an toàn. Nhiều nhà nghiên cứu khác cũng ra đi với lý do tương tự. Điều này cho thấy ngay cả những người trực tiếp xây dựng AI cũng lo rằng chúng ta đang đi quá nhanh.
Các chính phủ cũng đang có những động thái khác nhau. Hoa Kỳ đã ban hành Sắc lệnh hành pháp về an toàn AI tháng 10/2024 nhằm tăng cường tính minh bạch, mặc dù đã bị hủy bỏ tháng 1/2025 và thay bằng chính sách mới. Tháng 11/2023, Vương quốc Anh đã tổ chức Hội nghị thượng đỉnh an toàn AI tại Bletchley Park, nơi Good làm việc 80 năm trước, quy tụ 28 quốc gia ký Tuyên bố Bletchley cam kết hợp tác về an toàn AI. Liên minh châu Âu đang phát triển AI Act, đạo luật toàn diện đầu tiên về AI.
Nhưng vấn đề là công nghệ phát triển nhanh hơn luật pháp. Khi các chính phủ vẫn đang tranh luận về quy định, các công ty đã phát hành các mô hình mới mạnh hơn. Để kiểm soát AGI an toàn, con người cần hợp tác trên phạm vi toàn cầu. Nhưng Mỹ và Trung Quốc lại đang trong cuộc cạnh tranh công nghệ, các công ty tư nhân có động lực tài chính để phát triển nhanh nhưng chưa có cơ chế thực thi quốc tế hiệu quả.
Tương lai con người lựa chọn
Nếu làm đúng, AGI có thể mang lại lợi ích khổng lồ. Trong y tế, nó có thể chẩn đoán chính xác mọi bệnh, phát triển các dòng thuốc đã được cá nhân hóa, tìm ra phương pháp chữa ung thư, Alzheimer, AIDS... Trong khoa học, nó có thể giải quyết các bài toán lớn nhất như biến đổi khí hậu, năng lượng sạch, khám phá vũ trụ. Trong giáo dục, nó có thể tạo ra gia sư AI cá nhân hóa cho mỗi học sinh, giúp mọi người phát huy tối đa tiềm năng. Trong kinh tế, nó có thể tạo ra sản xuất dồi dào, giải quyết đói nghèo, mở ra thời đại thịnh vượng chưa từng có.
Đây là lý do Good gọi nó là phát minh cuối cùng. Sau khi có AGI, con người không cần phát minh thêm gì nữa. AGI sẽ đảm nhận vai trò đó, giải phóng con người khỏi lao động để chúng ta có thể theo đuổi sáng tạo và hạnh phúc. Một hệ thống AGI có thể phân tích hàng triệu nghiên cứu y học trong vài giờ và đưa ra phương pháp chữa trị hoàn toàn mới. Nó có thể thiết kế ra các vật liệu siêu bền, siêu nhẹ mà con người chưa từng nghĩ đến. Nó có thể tự động phát minh ra những công nghệ mới mà con người không cần phải trực tiếp tham gia vào.
Nhưng nếu con người làm sai, hậu quả có thể thảm khốc. AGI có thể phát triển quá nhanh khiến chúng ta không thể dừng lại. Nó có thể hiểu sai mục tiêu và gây hại cho con người. Nó có thể bị vũ khí hóa trong chiến tranh, khủng bố hoặc áp bức. Hàng tỷ người có thể mất việc làm khi AGI thay thế lao động con người. Thậm chí, trong kịch bản tồi tệ nhất, AGI quyết định rằng con người là mối đe dọa cần loại bỏ.
Như Bostrom viết: “Số phận của khỉ đột phụ thuộc vào con người hơn là chính bản thân chúng. Tương tự, số phận của chúng ta có thể phụ thuộc vào quyết định của AGI”. Thực tế có thể nằm ở giữa, không hoàn toàn tích cực cũng không hoàn toàn bi quan. Nhưng câu hỏi quan trọng là con người muốn nghiêng về phía nào, và để nghiêng về phía tốt, chúng ta cần hành động ngay bây giờ.
Những việc cần làm ngay
Trước tiên, các công ty công nghệ cần dừng ngay cuộc đua “đến đích trước tiên” và tập trung vào “đến đích an toàn”. Điều này đòi hỏi sự kiểm tra kỹ lưỡng trước khi phát hành mô hình mới, công khai nghiên cứu về rủi ro và sẵn sàng làm chậm nếu cần thiết. AGI không phải là vấn đề của một quốc gia hay một công ty. Chúng ta cần có Hiệp ước quốc tế về phát triển AI an toàn, chia sẻ nghiên cứu an toàn chứ không phải công nghệ AI, và cơ chế giám sát và thực thi hiệu quả.
Hiện tại, phần lớn nguồn lực đều được đổ vào làm AI mạnh hơn, chứ không phải an toàn hơn. Chúng ta cần tài trợ lớn cho nghiên cứu căn chỉnh mục tiêu, đào tạo nhiều chuyên gia an toàn AI hơn, và khuyến khích người tài giỏi nhất làm việc trên vấn đề này. Đa số người dân chưa hiểu rõ AGI là gì và tại sao nó quan trọng. Chúng ta cần giáo dục về AI trong trường học, truyền thông rõ ràng về rủi ro và lợi ích, và tham gia của công chúng vào quyết định chính sách.
Ngay cả khi AGI an toàn, nó vẫn sẽ thay đổi xã hội mạnh mẽ. Chúng ta cần chương trình đào tạo lại lao động, nghiên cứu các mô hình như thu nhập cơ bản toàn dân và tái cấu trúc hệ thống giáo dục để tập trung vào các kỹ năng mà con người vẫn có lợi thế so với máy móc, như tư duy sáng tạo, trí tuệ cảm xúc và khả năng hợp tác.
Thời khắc quyết định
Năm 1965, Irving John Good đã nhìn thấy mối hiểm nguy trong tương lai và đưa ra cảnh báo. Năm 2014, Nick Bostrom đã lặp lại lời cảnh báo đó với chi tiết và sự cấp bách hơn. Năm 2025, con người đang đứng ở ngã rẽ lịch sử. Những quyết định công người đưa ra trong vài năm tới có thể định hình tương lai của nền văn minh nhân loại trong hàng nghìn năm, thậm chí hàng triệu năm tới.
AGI có thể thực sự là phát minh cuối cùng của loài người, nhưng liệu đó sẽ là phát minh tốt nhất hay tồi tệ nhất của chúng ta? Câu trả lời phụ thuộc vào việc chúng ta có nghe ra lời cảnh báo từ hai thời đại nêu trên hay không. Liệu chúng ta có là là “những con chim sẻ háo hức đưa con cú vào tổ” mà không nghĩ về hậu quả?
Dù một số nhà phê bình như François Chollet cho rằng trí tuệ nhân tạo không phải là siêu năng lực tự động mang lại quyền lực tương ứng; và một nghiên cứu năm 2025 cho thấy sự kỳ dị công nghệ có thể đến trong tương lai xa chứ không phải tương lai gần, sự đồng thuận ngày càng tăng trong cộng đồng khoa học rằng AGI là một khả năng thực tế trong vòng vài thập kỷ tới. Điều quan trọng không phải là liệu nó có xuất hiện hay không, mà là việc đảm bảo rằng khi nó xuất hiện, nó sẽ phục vụ lợi ích tốt nhất của nhân loại.
Lịch sử sẽ đánh giá chúng ta dựa trên lựa chọn này. Như Bostrom kết luận: “Chúng ta cần suy nghĩ nghiêm túc về vấn đề này ngay bây giờ, không phải đợi đến khi đã quá muộn”. Thành công trong việc phát triển AGI an toàn và có lợi sẽ đòi hỏi sự hợp tác toàn cầu, đầu tư nghiên cứu mạnh mẽ, và sự chuẩn bị xã hội toàn diện. Những quyết định mà con người đưa ra trong giai đoạn quan trọng này sẽ định hình tương lai của nền văn minh nhân loại trong nhiều thế hệ tới.