Điểm đầu tiên và quan trọng cần nhấn mạnh là: một tỷ lệ lớn các nhà nghiên cứu AI (khoảng 76%) vẫn không đồng thuận với việc coi các hệ thống hiện tại đã đạt AGI. Sự bất đồng khoa học này không bị che giấu, mà được chính các tác giả thừa nhận ngay trong bài viết.

Tôi đã đọc toàn văn bài báo “Does AI already have human-level intelligence? The evidence is clear” được viết bởi Eddy Keming Chen, Mikhail Belkin, Leon Bergen và David Danks là những học giả liên ngành nghiên cứu triết học khoa học, học máy và khoa học nhận thức, tập trung vào cách hiểu và đánh giá trí tuệ nhân tạo, xuất bản trên Nature và có thể khẳng định rằng nó không mang ý nghĩa của một xác quyết khoa học theo nghĩa chặt chẽ.
Ngay trong cách sử dụng ngôn ngữ, các tác giả thường xuyên dùng những cấu trúc như “we assume”, “we think” hay “we argue”; đây là các dấu hiệu điển hình của lập luận quan điểm (opinion) trong văn bản học thuật, chứ không phải là ngôn ngữ dùng để trình bày các kết quả đã được kiểm chứng bằng nghiên cứu thực nghiệm. Việc phân biệt này thuộc về kiến thức nền tảng trong cách đọc và đánh giá nghiêm túc một bài báo khoa học, thay vì chỉ dựa vào các bản tóm tắt do AI tạo ra mà không hiểu rõ bản chất phương pháp luận của bài viết.
Trong nghiên cứu khoa học, một xác quyết (scientific claim) đòi hỏi dữ liệu, phương pháp kiểm định, khả năng tái lập và tiêu chuẩn đánh giá rõ ràng. Ngược lại, bài viết này chủ yếu xây dựng một lập luận khái niệm, nhằm thuyết phục người đọc chấp nhận một cách diễn giải nhất định về AGI dựa trên các “biểu hiện hành vi” của AI hiện nay (nhấn mạnh “hành vi”). Việc chính các tác giả thừa nhận rằng không tồn tại một định nghĩa hay “ngưỡng” thống nhất cho AGI càng cho thấy đây là một đề xuất cách hiểu, chứ không phải một kết luận khoa học đã được chốt.
Lập luận trung tâm của bài dựa trên cách tiếp cận hành vi – chức năng. Các tác giả cho rằng khi đánh giá trí tuệ, kể cả ở con người, chúng ta không thể tiếp cận trực tiếp trạng thái nhận thức bên trong, mà luôn phải suy luận từ biểu hiện bên ngoài. Như bài viết nêu rõ: “When we assess general intelligence or ability in other humans, we do not attempt to peer inside their heads to verify understanding – we infer it from behaviour, conversation and problem – solving” (Chen et al., 2026, trang 38). Theo các tác giả, cách đánh giá này cũng được áp dụng tương tự cho các hệ thống nhân tạo: “The same applies to artificial systems” (Chen et al., 2026, trang 38).
Vậy “hành vi” ở đây cần được hiểu như thế nào? Theo lập luận của bài báo, trí tuệ luôn được suy luận thông qua các biểu hiện có thể quan sát được, chứ không thông qua việc tiếp cận trực tiếp trạng thái nhận thức bên trong; điều vốn bất khả thi trong cả khoa học về con người lẫn AI. Nói cách khác, trí tuệ được đánh giá qua cách một tác nhân phản hồi, lập luận, giải quyết vấn đề và tương tác trong những tình huống đa dạng.
Một ví dụ đời thường giúp làm rõ điểm này. Nhiều người hỏi AI tự đánh giá bản thân rồi mang kết quả đó đi “tự sướng”. Nhưng AI không đánh giá con người; nó chỉ phản hồi trong một ngữ cảnh hội thoại cụ thể. Việc hỏi AI rồi khoe “AI công nhận tôi trình độ cao” không phản ánh năng lực thực, mà chủ yếu phản ánh cách đặt câu hỏi, cách dẫn dắt phản hồi và nhu cầu được xác nhận của người hỏi. Đây cũng chính là giới hạn của việc suy luận trí tuệ thuần túy từ hành vi nếu không kiểm soát được bối cảnh.
Từ tiền đề hành vi đó, bài báo lập luận rằng các mô hình ngôn ngữ lớn hiện nay đã cho thấy “các mô hình ngôn ngữ lớn đã biểu hiện nhiều dấu hiệu của loại năng lực nhận thức rộng và linh hoạt, chính là thứ mà Turing nhấn mạnh, điều mà hiện nay chúng ta gọi là ‘general intelligence’ (trí tuệ tổng quát).” (Chen et al., 2026, trang 36).
Chuỗi ví dụ được viện dẫn đều mang tính hành vi, từ vượt qua Turing test đến giải quyết các nhiệm vụ phức tạp trong toán học, ngôn ngữ, lập trình và nghiên cứu khoa học (Chen et al., 2026, trang 36–38). Theo logic của bài viết, khi các cách giải thích thay thế như “bắt chước thống kê” (stochastic parrot / con vẹt ngẫu nhiên) ngày càng khó đứng vững trước phạm vi năng lực này, thì việc coi AI đã đạt AGI được xem là lời giải thích hợp lý nhất cho các quan sát hiện tại (Chen et al., 2026, trang 38–39).
Tuy nhiên, chính các tác giả cũng thừa nhận rằng AGI là một khái niệm không có ranh giới rạch ròi. “There is no ‘bright line’ test for its presence — any exact threshold is inevitably arbitrary” (Chen et al., 2026, trang 38). Đồng thời, bài báo dẫn khảo sát cho thấy một tỷ lệ lớn các nhà nghiên cứu AI vẫn không đồng thuận với việc coi các hệ thống hiện tại đã đạt AGI (Chen et al., 2026, trang 36). Sự bất đồng khoa học này không bị che giấu, mà được thừa nhận ngay trong chính bài viết.
Vì vậy, bài báo cần được đọc đúng với thể loại của nó: Comment / Opinion. Giá trị của nó nằm ở việc đặt lại câu hỏi, hệ thống hóa lập luận và kích thích tranh luận học thuật, chứ không phải ở việc xác nhận một thực tại khoa học đã được kiểm chứng. Diễn giải bài Comment này như một sự “xác nhận khoa học” rằng AI đã đạt AGI là đọc sai ngữ cảnh học thuật và thổi phồng ý nghĩa của chính bài báo.
Bình luận mở rộng: Trí tuệ tổng quát và thách thức đối với “độc quyền con người”
Theo cách lập luận của bài báo, điều thực sự mang tính “cách mạng” không nằm ở việc AI đã hay chưa đạt AGI theo nghĩa tuyệt đối, mà ở một điểm khác sâu hơn: lần đầu tiên trong lịch sử, con người không còn độc quyền không gian của trí tuệ tổng quát. Tác giả đặt sự kiện này trong cùng dòng lịch sử với những cú sốc nhận thức trước đây của khoa học: Copernicus, khi Trái Đất không còn là trung tâm vũ trụ; Darwin, khi con người không còn là sinh vật “đặc biệt” tách khỏi tự nhiên; và Turing, khi trí tuệ không còn bị đồng nhất với sinh học.
Con người sở hữu trí tuệ tổng quát, nhưng trí tuệ đó bị ràng buộc chặt chẽ bởi tiến hóa sinh học: mục tiêu sống còn (survival-driven goals); một cơ thể nhỏ bé, dễ tổn thương; năng lượng khan hiếm; và khả năng giao tiếp băng thông thấp. Ngược lại, các hệ thống AGI dựa trên mô hình ngôn ngữ lớn không chịu những ràng buộc này. Chúng phát triển từ các quy tắc học tương đối đơn giản, được mở rộng trên quy mô lớn với dữ liệu ngôn ngữ khổng lồ, qua đó học được các cấu trúc tiềm ẩn trong ngôn ngữ con người, và gián tiếp “mã hóa” nhiều cấu trúc của thực tại, mà không cần trải qua hàng tỷ năm tiến hóa sinh học.
Hệ quả của sự khác biệt này là AI có thể thất bại theo những cách rất bất ngờ, hoặc thành công theo những cách không dễ hiểu, không dễ kiểm soát hay hướng dẫn. Đồng thời, chính sự đối lập này giúp con người phân biệt rõ hơn đâu là những thành tố phổ quát của trí tuệ tổng quát (có thể tồn tại ở nhiều dạng trí tuệ khác nhau), và đâu là những đặc trưng địa phương chỉ gắn với sinh học con người.
Tóm lại, theo các tác giả, con người không còn độc quyền trí tuệ tổng quát nếu xét theo các tiêu chuẩn hành vi hợp lý; nhưng chúng ta vẫn khác biệt căn bản với AI ở nguồn gốc tiến hóa, ràng buộc sinh học và hình thức tồn tại. Sự khác biệt này không nên được hiểu theo logic “thắng – thua”, mà là hai con đường khác nhau dẫn tới trí tuệ tổng quát: một bên bị định hình bởi sinh học, bên kia tự do hơn nhưng xa lạ và khó đoán. Chính vì vậy, bài báo kêu gọi chúng ta hiểu rõ tính “alien” của trí tuệ nhân tạo để chuẩn bị chính sách, trách nhiệm và khuôn khổ hợp tác phù hợp, thay vì phản xạ bằng nỗi sợ hãi hay sự phủ nhận.
Đó cũng là lý do các tác giả kết thúc bằng lời mời suy ngẫm: “Like those earlier revolutions, this one invites us to rethink our standing, and accept that there are more kinds of minds than we had previously entertained.” (Chen et al., 2026, trang 36–38). Tạm dịch là: giống như những cuộc cách mạng trước đây, cuộc cách mạng này mời gọi chúng ta suy nghĩ lại về vị trí của mình, và chấp nhận rằng có nhiều dạng trí tuệ hơn những gì ta từng hình dung)
Phạm Việt Anh
Bài gốc trên Nature: https://www.nature.com/articles/d41586-026-00285-6