Advertisement

Nhận bản tin

Liên hệ quảng cáo

Email: banbientap@baocungcau.net

Hotline: 0917 267 237

icon logo

Quên mật khẩu?

Có tài khoản? Đăng nhập

Vui lòng nhập mật truy cập tài khoản mới khẩu

Thay đổi email khác
icon

‘Bố già AI’ cảnh báo nguy cơ của AI còn khẩn cấp hơn biến đổi khí hậu

Số hóa

07/05/2023 09:26

Ông Geoffrey Hinton (được mệnh danh là "Bố già AI"), mới đây tuyên bố nghỉ việc tại bộ phận AI của Google, để nâng cao nhận thức về sự nguy hiểm của trí tuệ nhân tạo (AI), cho biết mối đe dọa mà công nghệ này gây ra cho thế giới có thể cấp bách hơn biến đổi khí hậu.

Trong một cuộc phỏng vấn với Reuters, ông Geoffrey Hinton tiếp tục gióng lên hồi chuông cảnh báo về AI sau khi rời Google vào tuần trước. Hinton tuyên bố ra đi trong một cuộc phỏng vấn với tờ New York Times được xuất bản hôm thứ Hai.

"Tôi không muốn giảm giá trị của biến đổi khí hậu. Tôi không muốn nói các bạn không nên lo lắng về biến đổi khí hậu. Nhưng tôi nghĩ rằng AI là vấn đề cấp bách hơn", ông Hinton nói trong cuộc phỏng vấn với Hãng tin Reuters ngày 5/5.

"Với biến đổi khí hậu, rất dễ dàng đề xuất những gì nên làm: bạn chỉ cần ngừng đốt carbon. Nếu bạn làm điều đó, mọi thứ cuối cùng sẽ ổn. Với AI, bạn không rõ nên làm gì", ông Hinton nói thêm.

Những bình luận của ông Hinton trong tuần này được đưa ra khi những gã khổng lồ công nghệ tham gia vào cuộc chạy đua vũ trang về các khả năng của AI, được khơi mào bởi thành công của ChatGPT.

‘Bố già AI’ cảnh báo nguy cơ của AI còn khẩn cấp hơn biến đổi khí hậu - Ảnh 1.

Geoffrey Hinton, một trong những người tiên phong trong lĩnh vực AI toàn cầu. Ảnh: Reuters

Google đã ra mắt chatbot của riêng mình có tên là Bard vào tháng Ba. Điều đó đã bị chỉ trích bởi các nhân viên của Google, những người đã cảnh báo công nghệ này có thể nguy hiểm, như Bloomberg đưa tin .

Nhưng trong một tweet sau cuộc phỏng vấn với tờ New York Times, ông Hinton nói rằng ông nghỉ việc để có thể nói chuyện cởi mở về AI mà không ảnh hưởng đến Google, công ty mà ông nói đã hành động "rất có trách nhiệm".

Tuy nhiên, ông Hinton lo lắng rằng AI sẽ giúp phổ biến thông tin sai lệch và loại bỏ việc làm. Nghiên cứu của Goldman Sachs ước tính rằng AI có thể tác động tới 300 triệu việc làm toàn thời gian.

Trong cuộc phỏng vấn với tờ Times, Hinton tự hỏi liệu có quá muộn để tiến hành kiểm tra cần thiết đối với đà phát triển nhanh chóng của AI hay không.

"Tôi tự an ủi mình với lý do bình thường: Nếu tôi không làm thì người khác sẽ làm. Thật khó để biết làm thế nào bạn có thể ngăn những kẻ xấu sử dụng nó vào mục đích xấu", Hinton nói với tờ New York Times.

AI vượt trội

Ông Hinton lo ngại cho rằng Generative AI đại diện cho một loại trí thông minh mới, một ngày nào đó có thể đe dọa ưu thế của loài người. Trong một cuộc phỏng vấn ở Mỹ, ông Hinton gọi đó là một dạng "trí thông minh hoàn toàn mới và ưu việt hơn".

Mặc dù điều này nghe có vẻ giống như cốt truyện của một bộ phim viễn tưởng, nhưng điều quan trọng cần nhớ là các mô hình AI thế hệ mới hiện nay, như công cụ trò chuyện ChatGPT, đang thể hiện những gì "giống như một trí thông minh".

Nếu nói theo khái niệm Thuyết tâm trí (Theory of Mind) trong triết học và khoa học nhận thức, loại trí thông minh này có thể hiểu được lý do đang thực hiện những việc mà nó đang làm, khác với việc một hệ thống chỉ thực hiện các nhiệm vụ một cách thông minh.

Trong một bài viết kết hợp với tác giả Jacob Browning, nhà triết học chuyên nghiên cứu về AI, vào năm ngoái, ông LeCun cho rằng con người vẫn đang an toàn. Hai tác giả trên có viết: "Rõ ràng là những hệ thống AI này sẽ đi đến sự hiểu biết nông cạn, điều này sẽ không bao giờ ngang bằng với suy nghĩ toàn diện mà chúng ta thấy ở con người".

‘Bố già AI’ cảnh báo nguy cơ của AI còn khẩn cấp hơn biến đổi khí hậu - Ảnh 2.

Hiện nổ ra các cuộc tranh luận sôi nổi xoay quanh việc AI chính xác là đang sở hữu những gì: Sự hiểu biết, tâm trí và thậm chí cả khả năng suy luận theo lẽ thường (common-sense reasoning) giống như con người. Điều này cho thấy con người còn nhiều điều phải làm để xác định rõ hơn các khái niệm này khi AI tiến bộ hơn.

Điều cần thay đổi

Đây là công việc đòi hỏi các chuyên gia trong nhiều lĩnh vực, không chỉ riêng lĩnh vực khoa học máy tính và lĩnh vực Machine Learning (Học máy).

Cách con người thử nghiệm các mô hình AI tồn tại rất nhiều vấn đề. Hiện nay, các bài kiểm tra - chủ yếu do những người làm trong ngành công nghệ thiết kế ra – tập trung đánh giá về khả năng hiểu và suy luận của các mô hình AI.

Mặc dù các nhà phát triển sử dụng các bài kiểm tra này để đánh giá tính phù hợp với con người, chẳng hạn như đáp ứng chuẩn mực về đạo đức, khả năng đưa ra các kết quả sai lệch ở mức độ nào đó bị cho là "độc hại" và khả năng AI tạo ra các phản ứng có ý nghĩa tích cực, song trên thực tế các cuộc kiểm tra này thực sự không được các cơ quan, tổ chức bên ngoài quản lý hoặc giám sát chặt chẽ.

Các nhà phát triển AI đang thiết kế ra các bài kiểm tra, sau đó họ sử dụng các bài kiểm tra này để làm cơ sở công bố tính an toàn và hiệu quả của công nghệ mà họ tạo ra.

Việc cải thiện cách thức đánh giá AI sẽ là yếu tố "thay đổi mang tính bước ngoặt" trong cách hiểu của con người về AI, đồng thời giúp xác định được thời điểm và lĩnh vực ứng dụng công nghệ này.

Tại Australia, rất cần một vài phương pháp đánh giá được tiêu chuẩn hóa và được phê duyệt ở cấp liên bang. Những bài kiểm tra cần được thiết kế dưới sự hợp tác của những chuyên gia ngoài ngành AI.

Chúng ta không yêu cầu các nhà sản xuất ô tô và thợ cơ khí đặt ra luật giao thông đường bộ, vì vậy tại sao chúng ta lại phải tìm đến một kỹ sư máy tính để cân nhắc xem AI đã an toàn hay chưa? Do đó, bài viết khuyến nghị, cần nhiều người tham gia vào công cuộc đánh giá AI hơn, đồng thời đặt trách nhiệm giải trình vào những người tham gia vào quá trình này, thay vì đổ lỗi cho AI – một chương trình cơ bản chỉ hiển thị ngôn ngữ, âm thanh và hình ảnh dưới dạng số hóa

(Nguồn: Businessinsider/TTXVN)

LAN ANH
iconChia sẻ icon Chia sẻ
icon Chia sẻ

Advertisement