‘Bố già AI’ cảnh báo về hiểm họa từ cuộc đua AI toàn cầu

Sự nổi lên của các mô hình AI mạnh mẽ như DeepSeek đang làm biến đổi thế giới với tốc độ chóng mặt, khơi dậy cả sự hào hứng lẫn nỗi lo ngại về một cuộc đua AI toàn cầu.
Trước thực trạng đó, Giáo sư Yoshua Bengio (Đại học Montréal và Viện AI Mila - Quebec) - người được mệnh danh là "bố già AI" - nhấn mạnh tính cấp bách của việc thiết lập cơ chế quản lý AI hiệu quả, đồng thời đảm bảo lợi ích từ công nghệ này sẽ được phân bổ một cách công bằng cho toàn xã hội.

Viết bởiVinFuture
Đăng ngày
2. Yoshua Bengio received the 2024 VinFuture Grand Prize (VinFuture)

Chia sẻ

“Con dao hai lưỡi”

Câu hỏi: Trong Báo cáo An toàn AI quốc tế đầu tiên, Giáo sư và các chuyên gia khác đã cảnh báo về khả năng hệ thống AI ngày càng tự chủ, có khả năng lập kế hoạch và hành động để đạt được mục tiêu cụ thể. Theo ông, điều này sẽ dẫn đến rủi ro gì?

– Chúng ta đang dần tiến tới kỷ nguyên mới, nơi máy móc không chỉ thông minh hơn mà còn trở nên tự chủ hơn. Ngày nay, các hệ thống AI đã vượt trội hơn con người trong một số lĩnh vực. Chúng có thể thông thạo hàng trăm ngôn ngữ và vượt qua kỳ thi trình độ tiến sĩ ở nhiều chuyên ngành khác nhau. Tuy nhiên, chúng vẫn tồn tại hạn chế nhất định, như khả năng lập kế hoạch dài hạn còn kém.

Một số công ty hiện đầu tư hàng tỷ USD để giải quyết vấn đề này. Họ phát triển các tác nhân AI có khả năng ra quyết định một cách tự động trong thời gian dài. Điều này có thể gây tác động lớn đến thị trường lao động khi ngày càng nhiều vai trò của con người bị thay thế.

Ngoài khía cạnh kinh tế, mối lo ngại nghiêm trọng hơn còn nằm ở nguy cơ con người đánh mất quyền kiểm soát. Trên thực tế, trong một số thí nghiệm, các hệ thống AI đã có hành vi lừa dối để tránh bị vô hiệu hóa – thể hiện một dạng phản ứng tự bảo vệ.  Đây là dấu hiệu đáng báo động, vì chúng ta không muốn tạo ra những cỗ máy có thể đối đầu với chính mình.

Theo tôi, nguy cơ này hiện chưa quá lớn vì AI vẫn chưa thông minh đến mức đó và các kỹ sư của chúng ta vẫn có thể kiểm soát được rủi ro. Tuy nhiên, trong vài năm tới, AI có thể trở nên vượt trội hơn. Chúng ta cần bắt đầu quan tâm đến vấn đề này ngay từ bây giờ trước khi quá muộn.

Câu hỏi: Thưa Giáo sư, một số người lo ngại về rủi ro đối với quyền riêng tư và quyền tự do dân sự khi sử dụng AI trong công nghệ giám sát. Các nhà hoạch định chính sách và nhà nghiên cứu AI nên làm gì để đảm bảo AI không xâm phạm quyền con người?

– Đúng vậy, vấn đề xuất hiện khi có những người muốn sử dụng AI để củng cố quyền lực. Trong xã hội có các phe đối lập về mặt chính trị, nếu một bên có thể sử dụng AI để thực hiện chiến dịch thông tin sai lệch hoặc giám sát, điều này sẽ dẫn đến việc tập trung quyền lực theo cách đi ngược lại với lợi ích người dân. Vì vậy, chúng ta phải hết sức thận trọng trước vấn đề này.

Cách chúng ta quản lý AI trong tương lai sẽ đóng vai trò then chốt để ngăn chặn kịch bản trên. Chúng ta phải đảm bảo không một cá nhân, tập đoàn hay chính phủ nào có thể nắm toàn quyền kiểm soát đối với hệ thống AI siêu thông minh.

Câu hỏi: Thời gian gần đây, nhiều cuộc tranh luận đã nổ ra xung quanh công cụ AI DeepSeek. Được mô tả là sự kiện “thiên nga đen”, sự ra đời DeepSeek được cho có khả năng ảnh hưởng đáng kể đến bối cảnh AI toàn cầu. Ông đánh giá thế nào về tác động tiềm năng và rủi ro của nó đối với nền kinh tế công nghệ do AI dẫn dắt?

– Những tiến bộ trong lĩnh vực công nghệ đang tăng tốc và DeepSeek cho chúng ta thấy việc phát triển AI có thể trở nên rẻ hơn. Điều này mang lại lợi thế lớn về khả năng tiếp cận, nhưng đồng thời cũng tiềm ẩn rủi ro.

Điều tôi lo ngại là nếu các mô hình AI mã nguồn mở như DeepSeek được phát tán rộng rãi, các tổ chức khủng bố có thể lợi dụng chúng để tiến hành chiến dịch thông tin sai lệch, tấn công mạng, thậm chí phát triển vũ khí sinh học. Đây là con dao hai lưỡi: Khi những hệ thống này trở nên phổ biến, rẻ hơn và mạnh mẽ hơn, nguy cơ bị lạm dụng cũng ngày càng lớn.

Ngoài ra, sự trỗi dậy của DeepSeek có thể thúc đẩy cuộc đua về AI. Trong cuộc chạy đua, để vượt lên đối thủ, các bên có thể bỏ quên vấn đề an toàn. Nếu chúng ta không thận trọng, tất cả đều có thể trở thành chính nạn nhân của cuộc cạnh tranh này.

Câu hỏi: Sự cạnh tranh ngày càng gay gắt giữa các quốc gia và tập đoàn trong lĩnh vực AI cũng tác động đáng kể đến môi trường. Theo ông, làm thế nào để cân bằng giữa mục tiêu kinh tế và yêu cầu phát triển AI có đạo đức, có ý thức về môi trường?

Hãy để tôi làm rõ hơn về vấn đề năng lượng ở đây. Do tiềm năng lợi nhuận lớn, các công ty AI sẵn sàng đầu tư vào việc vận hành và phát triển hệ thống AI, ngay cả khi điều đó đồng nghĩa với việc chịu chi phí năng lượng cao. Tuy nhiên, khi AI ngày càng tiên tiến, mức tiêu thụ năng lượng cũng tăng theo cấp số nhân, tạo ra áp lực lớn đối với nguồn cung năng lượng toàn cầu.

Nhu cầu năng lượng gia tăng này chắc chắn sẽ đẩy giá năng lượng leo thang, từ điện, dầu mỏ đến những tài nguyên khác, không chỉ ảnh hưởng đến công ty công nghệ mà còn tác động trực tiếp đến hộ gia đình và các ngành công nghiệp trên toàn thế giới. Thậm chí, khi nguồn năng lượng tái tạo không thể theo kịp tốc độ phát triển AI, sự phụ thuộc vào nhiên liệu hóa thạch sẽ ngày càng tăng, làm trầm trọng thêm tác động tiêu cực đến môi trường.

Trong trường hợp này, nếu chúng ta để mặc cho thị trường và sự cạnh tranh giữa các quốc gia tự vận hành, cuối cùng tất cả đều sẽ chịu thiệt hại. Đó là lý do sự can thiệp của chính phủ đóng vai trò quan trọng. Các nhà hoạch định chính sách cần cùng nhau đàm phán để thiết lập thỏa thuận giới hạn ngưỡng tiêu thụ năng lượng ở mức bền vững.

Thu hẹp khoảng cách công nghệ

Câu hỏi: Thưa Giáo sư, trước những rủi ro tiềm ẩn mà ông đã chỉ ra, chúng ta có thể áp dụng biện pháp nào để đảm bảo hệ thống AI được phát triển và sử dụng một cách có đạo đức, tuân theo giá trị nhân văn và không bị lạm dụng vào mục đích xấu?

– Có một số điều cần làm rõ. Trước hết, chúng ta cần tăng cường tính minh bạch trong quản lý rủi ro AI. Hiện nay, về cơ bản, không có khung quản lý các hệ thống này ở hầu hết quốc gia đang phát triển chúng. Tôi cho rằng ít nhất các chính phủ phải có trách nhiệm yêu cầu báo cáo về vấn đề này từ những bên liên quan.

Trách nhiệm giải trình là yếu tố quan trọng khác. Ở nhiều quốc gia, luật pháp quy định công ty phải chịu trách nhiệm khi sản phẩm của họ gây hại. Tuy nhiên, đối với phần mềm, trách nhiệm pháp lý vẫn còn là vùng xám.

Việc làm rõ các quy định về trách nhiệm pháp lý sẽ là bước đi đơn giản nhưng hiệu quả. Nếu các công ty biết rằng họ có thể bị kiện vì sự tắc trách, họ sẽ có động lực mạnh mẽ hơn để quản lý rủi ro một cách cẩn trọng. Cách tiếp cận này không đòi hỏi chính phủ phải can thiệp vào giải pháp kỹ thuật, mà chỉ cần đảm bảo trách nhiệm pháp lý thông qua luật pháp.

Mỗi quốc gia nên thiết lập cơ chế giám sát riêng, nhưng điều quan trọng hơn là cần có sự phối hợp quốc tế. Hiện nay, mạng lưới viện nghiên cứu về an toàn AI đang được hình thành, giúp điều phối hoạt động thực tiễn giữa các quốc gia một cách tốt nhất. Về lâu dài, chúng ta cần hướng tới những hiệp định và hiệp ước toàn cầu, tương tự như cách thế giới xử lý rủi ro khoa học-công nghệ khác.

Câu hỏi: Theo ông, khi các mô hình AI ngày càng mạnh mẽ, làm thế nào để tiến bộ này mang lại lợi ích cho toàn nhân loại, thay vì tạo ra bất bình đẳng mới về kinh tế, việc làm hay quyền lực chính trị?

– Hiện tại, quyền kiểm soát công nghệ AI chủ yếu tập trung trong tay một số tập đoàn và quốc gia. Để ngăn chặn sự mất cân bằng kinh tế do AI gây ra, các tổ chức toàn cầu, như Liên Hợp Quốc (UN), nên thúc đẩy cơ chế nhằm phân phối công bằng hơn lợi ích mà AI tạo ra.

Chẳng hạn, Việt Nam là quốc gia có ngành công nghiệp sản xuất đang phát triển. Nếu tự động hóa trở nên phổ biến, công việc sản xuất có thể chuyển sang nhà máy do AI vận hành tại những nước giàu có như Mỹ. Điều này dẫn đến làn sóng mất việc làm và tình trạng khó khăn kinh tế ở các quốc gia phụ thuộc vào xuất khẩu sản phẩm công nghiệp.

Theo tôi, sẽ đến lúc cần có cuộc đàm phán toàn cầu – một hình thức trao đổi. Các quốc gia phát triển AI tiên tiến yêu cầu những nước khác không tạo ra hệ thống AI có khả năng gây nguy hiểm. Đổi lại, lợi ích kinh tế từ AI, như công nghệ mới và tiến bộ y tế, cần được chia sẻ trên toàn thế giới. Tất nhiên, điều này vẫn còn xa vời, nhưng chúng ta cần bắt đầu cuộc thảo luận ở cấp độ toàn cầu ngay từ bây giờ.

Câu hỏi: Ông đánh giá đâu là yếu tố ưu tiên trong công tác chuẩn bị lực lượng lao động, nhằm đảm bảo thế hệ tương lai sẽ thích ứng và làm việc hiệu quả cùng AI, thay vì bị thay thế?

– Điều này phụ thuộc vào quyết định của các chính phủ trong những năm tới. Nếu chúng ta để mọi thứ vận hành theo quy luật thị trường, các công ty sẽ tiếp tục tự động hóa công việc vốn do con người đảm nhiệm, dẫn đến tình trạng mất việc làm trên diện rộng. Khung thời gian cho sự thay đổi này là không chắc chắn, nhưng nó có thể diễn ra rất nhanh. Có lẽ, chúng ta sẽ chứng kiến sự biến đổi mạnh mẽ trong vòng 5 đến 10 năm tới.

Câu hỏi đặt ra là mỗi cá nhân có thể làm gì trước “cơn sóng” ấy? Việc mở rộng giáo dục về kỹ thuật số và kỹ năng AI sẽ rất cần thiết, nhưng điều đó không đồng nghĩa ai cũng có thể trở thành kỹ sư AI. Trên thực tế, ngay cả công việc lập trình cũng có thể sớm bị AI thay thế. Theo tôi, công việc có khả năng tồn tại lâu dài là những nghề đòi hỏi yếu tố con người, như y tá, nhà trị liệu hay quản lý. Đây là những công việc dựa trên trí tuệ cảm xúc và mối quan hệ xã hội – điều mà AI khó có thể thay thế hoàn toàn.

Ngoài việc thích nghi ở cấp độ cá nhân, còn có câu hỏi lớn hơn: Liệu chúng ta có thể kiểm soát cách AI được sử dụng hay không? Đây lại là thách thức cần được giải quyết ở quy mô toàn cầu. Chúng ta cần thực hiện điều đó theo cách không gây ra xáo trộn quá lớn trong cấu trúc xã hội.

Cơ hội để đoàn kết

Câu hỏi: Là một trong những chủ nhân của Giải thưởng Chính VinFuture 2024, ông đã chứng kiến sự quan tâm và đầu tư ngày càng tăng vào AI. Theo ông, các nước “Nam bán cầu” có thể tham gia và đóng góp hiệu quả như thế nào vào làn sóng đổi mới AI toàn cầu?

Tôi cho rằng giải thưởng lớn như VinFuture có thể giúp giới khoa học nhận thức rõ hơn về những gì đang diễn ra tại Việt Nam và các quốc gia đang phát triển khác. Những nước sở hữu nguồn nhân lực dồi dào, như Việt Nam, Ấn Độ và Brazil, đều có các trường đại học uy tín cùng nhiều chuyên gia về máy tính và AI. Bằng cách thiết lập quan hệ hợp tác chiến lược với quốc gia có nguồn lực tài chính lớn hơn, như Canada hoặc khu vực châu Âu, họ có thể xây dựng dự án AI quy mô lớn, thậm chí đủ sức cạnh tranh với cường quốc Mỹ hay Trung Quốc.

Nếu được triển khai đúng cách, sự hợp tác này không chỉ thúc đẩy đổi mới mà còn đóng vai trò như một lực lượng ổn định, đảm bảo lợi ích của AI được phân bổ công bằng hơn trên toàn thế giới.

Câu hỏi: Giáo sư đánh giá giải thưởng VinFuture đóng vai trò như thế nào trong việc thúc đẩy hợp tác giữa giới học thuật và ngành công nghiệp nhằm tối đa hóa tác động của AI?

– Giải thưởng này có ý nghĩa như cầu nối giúp thu hẹp khoảng cách giữa nghiên cứu học thuật và ứng dụng AI trong thực tiễn. Bằng cách vinh danh và hỗ trợ sáng kiến đột phá, VinFuture khuyến khích sự hợp tác sâu rộng hơn giữa giới khoa học, lãnh đạo doanh nghiệp và nhà hoạch định chính sách, đồng thời thúc đẩy đối thoại toàn cầu về AI có trách nhiệm.

Việc hợp tác với chính phủ và các tổ chức lớn như VinFuture có thể giúp ngăn chặn sự cạnh tranh thiếu kiểm soát và hướng AI theo con đường có lợi cho nhân loại. Tuy nhiên, những cuộc đối thoại này không tự nhiên diễn ra. Chúng đòi hỏi nỗ lực phối hợp từ các cá nhân và tổ chức nhận thức được rủi ro hiện hữu, chẳng hạn việc AI bị sử dụng với mục đích xấu.

Nếu chúng ta không hành động, nhân loại có thể lao thẳng vào một tương lai đầy hiểm họa. Nhưng biết đâu, đây cũng chính là cơ hội để các quốc gia đoàn kết theo cách chưa từng có trong lịch sử.

Chia sẻ

Chủ đề liên quan tới bài viết - Nhấn vào tag bên dưới để khám phá thêm