Advertisement

icon icon img
Nhận bản tin

Liên hệ quảng cáo

Email: banbientap@baocungcau.net

Hotline: 0917 267 237

icon logo

Quên mật khẩu?

Có tài khoản? Đăng nhập

Vui lòng nhập mật truy cập tài khoản mới khẩu

Thay đổi email khác
icon

AI có thể hủy diệt loài người như thế nào?

Số hóa

11/06/2023 00:09

Các nhà nghiên cứu và lãnh đạo ngành đã cảnh báo rằng AI có thể gây rủi ro cho nhân loại. Nhưng họ đã làm sáng tỏ các chi tiết.
news

Tháng trước, hàng trăm người nổi tiếng trong giới trí tuệ nhân tạo (AI) đã ký vào một bức thư ngỏ cảnh báo rằng một ngày nào đó AI có thể hủy diệt loài người. "Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân", tuyên bố chỉ có một câu.

Đây là bức thư mới nhất trong một loạt các cảnh báo đáng ngại về AI đã được làm sáng tỏ một cách đáng chú ý về chi tiết. Các hệ thống AI ngày nay không thể tiêu diệt loài người. Một số trong số họ hầu như không thể cộng và trừ. Vậy tại sao những người hiểu biết nhiều nhất về AI lại lo lắng như vậy?

Kịch bản đáng sợ

Cassandras của ngành công nghệ cho biết một ngày nào đó, các công ty, chính phủ hoặc các nhà nghiên cứu độc lập có thể triển khai các hệ thống AI mạnh mẽ để xử lý mọi thứ từ kinh doanh đến chiến tranh. Những hệ thống đó có thể làm những việc mà chúng ta không muốn chúng làm. Và nếu con người cố gắng can thiệp hoặc tắt chúng, chúng có thể chống lại hoặc thậm chí tự tái tạo để có thể tiếp tục hoạt động.

Yoshua Bengio, giáo sư và nhà nghiên cứu AI tại Đại học Montreal cho biết: "Các hệ thống ngày nay không gây ra nguy cơ tồn tại. Nhưng trong 1, 2, 5 năm? Có quá nhiều điều không chắc chắn. Đó là vấn đề. Chúng tôi không chắc điều này sẽ không vượt qua ngưỡng mà mọi thứ trở nên thảm khốc".

Những người lo lắng thường sử dụng một phép ẩn dụ đơn giản. Họ nói, nếu bạn yêu cầu một chiếc máy tạo ra càng nhiều kẹp giấy càng tốt, thì nó có thể bị cuốn đi và biến mọi thứ — kể cả con người — thành các nhà máy sản xuất kẹp giấy.

Làm thế nào để điều đó liên kết với thế giới thực - hay một thế giới tưởng tượng không quá nhiều năm trong tương lai? Các công ty có thể cung cấp cho các hệ thống AI ngày càng nhiều quyền tự chủ hơn và kết nối chúng với cơ sở hạ tầng quan trọng, bao gồm lưới điện, thị trường chứng khoán và vũ khí quân sự. Từ đó, họ có thể gây ra vấn đề.

AI có thể hủy diệt loài người như thế nào? - Ảnh 1.

Ảnh minh họa.

Đối với nhiều chuyên gia, điều này dường như không hợp lý lắm cho đến khoảng năm ngoái, khi các công ty như OpenAI đã chứng minh những cải tiến đáng kể trong công nghệ của họ. Điều đó cho thấy những gì có thể xảy ra nếu AI tiếp tục phát triển với tốc độ nhanh như vậy.

Anthony Aguirre, nhà vũ trụ học tại Đại học California, Santa Cruz và là người sáng lập cho biết: "AI sẽ dần dần được ủy quyền và có thể - khi nó trở nên tự chủ hơn - chiếm đoạt quyền ra quyết định và suy nghĩ của con người hiện tại và các tổ chức do con người điều hành". 

Ông nói: "Tại một thời điểm nào đó, rõ ràng là cỗ máy lớn đang vận hành xã hội và nền kinh tế không thực sự nằm dưới sự kiểm soát của con người, cũng như không thể tắt nó, cũng như việc chỉ số S&P 500 có thể bị tắt".

Hoặc vì vậy theo lý thuyết. Các chuyên gia AI khác tin rằng đó là một tiền đề lố bịch.

Oren Etzioni, giám đốc điều hành sáng lập của Viện AI Allen, một phòng thí nghiệm nghiên cứu ở Seattle, cho biết: "Giả thuyết là một cách diễn đạt lịch sự những gì tôi nghĩ về cuộc nói chuyện về rủi ro hiện hữu.

Có dấu hiệu nào cho thấy AI có thể làm được điều này không?

Không hẳn. Nhưng các nhà nghiên cứu đang chuyển đổi các chatbot như ChatGPT thành các hệ thống có thể thực hiện hành động dựa trên văn bản mà chúng tạo ra. Một dự án có tên AutoGPT là ví dụ điển hình.

Ý tưởng là cung cấp cho hệ thống các mục tiêu như "tạo công ty" hoặc "kiếm tiền". Sau đó, nó sẽ tiếp tục tìm cách đạt được mục tiêu đó, đặc biệt nếu nó được kết nối với các dịch vụ internet khác.

ChatGPT, mô hình ngôn ngữ trí tuệ nhân tạo từ phòng thí nghiệm nghiên cứu, OpenAI, đã gây chú ý kể từ tháng 11 nhờ khả năng trả lời các câu hỏi phức tạp, viết thơ, tạo mã, lên kế hoạch cho kỳ nghỉ và dịch ngôn ngữ. GPT-4, phiên bản mới nhất được giới thiệu vào giữa tháng 3, thậm chí có thể phản hồi hình ảnh.

Một hệ thống như AutoGPT có thể tạo ra các chương trình máy tính. Nếu các nhà nghiên cứu cấp cho nó quyền truy cập vào một máy chủ, nó thực sự có thể chạy các chương trình đó. Về lý thuyết, đây là cách để AutoGPT thực hiện hầu hết mọi thứ trực tuyến — truy xuất thông tin, sử dụng ứng dụng, tạo ứng dụng mới, thậm chí tự cải thiện chính nó.

Các hệ thống như AutoGPT hiện không hoạt động tốt. Chúng có xu hướng bị mắc kẹt trong các vòng lặp vô tận. Các nhà nghiên cứu đã cung cấp cho một hệ thống tất cả các tài nguyên cần thiết để tự tái tạo. Nó không thể làm được .

Theo thời gian, những hạn chế đó có thể được khắc phục.

Connor Leahy, người sáng lập Conjecture, cho biết: "Mọi người đang tích cực xây dựng các hệ thống tự cải thiện. Hiện tại, điều này không hiệu quả. Nhưng một ngày nào đó thì có thể. Và chúng ta không biết ngày đó là khi nào".

Ông Leahy lập luận rằng khi các nhà nghiên cứu, công ty và tội phạm đặt ra cho các hệ thống này những mục tiêu như "kiếm tiền", cuối cùng họ có thể đột nhập vào hệ thống ngân hàng, kích động cuộc cách mạng ở một quốc gia nơi họ nắm giữ hợp đồng tương lai dầu mỏ hoặc tự tái tạo khi ai đó cố gắng tắt chúng.

Hệ thống AI học hành vi sai ở đâu?

Các hệ thống AI như ChatGPT được xây dựng trên mạng thần kinh, hệ thống toán học có thể học các kỹ năng bằng cách phân tích dữ liệu.

Vào khoảng năm 2018, các công ty như Google và OpenAI đã bắt đầu xây dựng các mạng thần kinh học được từ một lượng lớn văn bản kỹ thuật số được chọn lọc từ internet. Bằng cách xác định chính xác các mẫu trong tất cả dữ liệu này, các hệ thống này học cách tự tạo văn bản, bao gồm các bài báo, bài thơ, chương trình máy tính, thậm chí cả cuộc trò chuyện giống như con người. Kết quả là các chatbot như ChatGPT.

Bởi vì chúng học hỏi từ nhiều dữ liệu hơn cả những gì người sáng tạo của chúng có thể hiểu được, nên những hệ thống này cũng thể hiện hành vi không mong muốn. Các nhà nghiên cứu gần đây đã chỉ ra rằng một hệ thống có thể thuê một người trực tuyến để đánh bại bài kiểm tra Captcha. Khi con người hỏi liệu đó có phải là "người máy" hay không, hệ thống đã nói dối và cho biết đó là một người khiếm thị.

Một số chuyên gia lo lắng rằng khi các nhà nghiên cứu làm cho các hệ thống này mạnh mẽ hơn, đào tạo chúng trên lượng dữ liệu ngày càng lớn, chúng có thể học được nhiều thói quen xấu hơn.

AI có thể hủy diệt loài người như thế nào? - Ảnh 3.

Ảnh minh họa.

Những người đứng sau những cảnh báo này là ai?

Đầu những năm 2000, một nhà văn trẻ tên là Eliezer Yudkowsky bắt đầu cảnh báo rằng AI có thể hủy diệt loài người. Các bài đăng trực tuyến của anh ấy đã tạo ra một cộng đồng những người tin tưởng. Được gọi là những người theo chủ nghĩa duy lý hoặc những người theo chủ nghĩa vị tha hiệu quả, cộng đồng này đã trở nên có ảnh hưởng to lớn trong giới học thuật, các tổ chức tư vấn của chính phủ và ngành công nghệ.

Ông Yudkowsky và các bài viết của ông đóng vai trò quan trọng trong việc tạo ra cả OpenAI và DeepMind, một phòng thí nghiệm AI mà Google đã mua lại vào năm 2014. Và nhiều người từ cộng đồng "EA" đã làm việc trong các phòng thí nghiệm này. Họ tin rằng vì hiểu được sự nguy hiểm của AI nên họ đang ở vị trí tốt nhất để xây dựng nó.

Hai tổ chức gần đây đã công bố những bức thư ngỏ cảnh báo về những rủi ro của AI — Trung tâm An toàn AI và Viện Tương lai của Cuộc sống — có mối liên hệ chặt chẽ với phong trào này.

Những cảnh báo gần đây cũng đến từ những người tiên phong nghiên cứu và lãnh đạo ngành như Elon Musk, người đã cảnh báo từ lâu về những rủi ro. Bức thư mới nhất được ký bởi Sam Altman, giám đốc điều hành của OpenAI và Demis Hassabis, người đã giúp thành lập DeepMind và hiện đang giám sát một phòng thí nghiệm AI mới kết hợp các nhà nghiên cứu hàng đầu từ DeepMind và Google.

Những nhân vật được kính trọng khác đã ký một hoặc cả hai bức thư cảnh báo, bao gồm Tiến sĩ Bengio và Geoffrey Hinton, người gần đây đã từ chức giám đốc điều hành và nhà nghiên cứu tại Google. Vào năm 2018, họ đã nhận được Giải thưởng Turing, thường được gọi là "Giải thưởng Nobel về điện toán" cho công trình của họ về mạng lưới thần kinh.

(Nguồn: The New York Times)

CHẤN HƯNG
iconChia sẻ icon Chia sẻ
icon Chia sẻ