Advertisement

Nhận bản tin

Liên hệ quảng cáo

Email: banbientap@baocungcau.net

Hotline: 0917 267 237

icon logo

Quên mật khẩu?

Có tài khoản? Đăng nhập

Vui lòng nhập mật truy cập tài khoản mới khẩu

Thay đổi email khác
icon

Có nên kìm hãm sự phát triển của AI?

Số hóa

03/07/2023 09:32

Luật sư Alex Toh và Rajesh Sreenivasan cho biết, chủ nghĩa thực dụng cho thấy rằng quy định AI tổng quát có thể ủng hộ sự đổi mới và tăng trưởng mà không ngây thơ về những cạm bẫy tiềm tàng của công nghệ.

Với việc ChatGPT và trí tuệ nhân tạo (AI) thế hệ mới được công chúng biết đến trong năm nay, nỗi sợ hãi trong một số quý là cuối cùng chúng ta có thể đã vượt qua chính mình bằng cách tạo ra thứ gì đó gây ra mối đe dọa hiện hữu và không thể đảo ngược đối với sinh kế của con người.

Tác động của AI đối với mọi khía cạnh trong cuộc sống của chúng ta là không thể phủ nhận. AI hiện có thể hoạt động tốt hơn trong kỳ thi luật sư của Mỹ so với sinh viên tốt nghiệp trường luật trung bình. 

Jukebox của OpenAI có thể tạo các mẫu nhạc trong khi Stable Diffusion và Midjourney có thể tạo ra các hình minh họa, có thể với tốc độ rẻ hơn và nhanh hơn so với các nhạc sĩ và nghệ sĩ.

Nhân viên văn phòng, những người có nhiệm vụ liên quan đến lý luận, giao tiếp và phối hợp, có nhiều khả năng nhận thấy các khía cạnh trong công việc của họ được tự động hóa bởi AI trong tương lai.

Có nên kìm hãm sự phát triển của AI? - Ảnh 1.

Tác động của AI đối với mọi khía cạnh trong cuộc sống của chúng ta là không thể phủ nhận. Ảnh: Reuters

Tốc độ mà ChatGPT có được người dùng là chưa từng có, đạt 100 triệu người dùng hoạt động hàng tháng vào tháng 1, chỉ hai tháng sau khi ra mắt. Xu hướng này dự kiến sẽ không dừng lại với số vốn đầu tư mạo hiểm đầu tư vào AI đã tăng lên đáng kể trong những năm qua.

Rủi ro

Nhưng những hậu quả tiêu cực có thể xảy ra của việc giải phóng trí tuệ nhân tạo AI trên thế giới mà không có sự kiềm chế thích đáng cần được suy ngẫm. Việc tự động hóa nhanh chóng các nhiệm vụ và quy trình do con người thực hiện theo cách truyền thống làm dấy lên mối lo ngại về sự dịch chuyển công việc ở quy mô chưa từng có, và nếu một số dự báo được tin tưởng, đó là một viễn cảnh đáng sợ có thể gây bất ổn cho các nền kinh tế và làm trầm trọng thêm tình trạng bất bình đẳng.

Sự phát triển của các hệ thống AI phụ thuộc vào việc khai thác lượng dữ liệu khổng lồ, dữ liệu là đơn vị tiền tệ trên thực tế của các hệ thống AI cũng có thể làm tăng nguy cơ lộ dữ liệu của người dùng. Các tác nhân độc hại có thể vũ khí hóa công nghệ mà không bị trừng phạt.

Do đó, không có gì ngạc nhiên khi các cầu thủ trong lĩnh vực này đã kêu gọi thận trọng. Vào ngày 30/5, một nhóm gồm hơn 350 giám đốc điều hành và chuyên gia AI từ các công ty bao gồm OpenAI và Google đã công bố một tuyên bố cảnh báo về "nguy cơ tuyệt chủng của AI" và việc giảm thiểu nó "nên là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác chẳng hạn như đại dịch và chiến tranh hạt nhân".

Ngoài ra còn có một bức thư ngỏ của Viện Tương lai Cuộc sống vào tháng 3, kêu gọi một lệnh cấm sáu tháng đối với việc đào tạo các hệ thống AI thậm chí còn mạnh mẽ hơn. Nó đã thu hút được hơn 1.000 người ký tên, bao gồm cả Giám đốc điều hành Tesla Elon Musk và đồng sáng lập Apple Steven Wozniak.

Cạm bẫy tiềm ẩn của AI

Các chính phủ trên khắp thế giới đang bận rộn đối phó với những tác động tiềm tàng của AI. Ý đã thực hiện lệnh cấm tạm thời đối với ChatGPT, khiến các quốc gia châu Âu khác cân nhắc một động thái tương tự. Ý sau đó đã dỡ bỏ lệnh cấm sau khi OpenAI giới thiệu các tính năng bảo vệ dữ liệu mới, chẳng hạn như cảnh báo cho người dùng và tùy chọn không sử dụng các cuộc trò chuyện để đào tạo thuật toán.

Những người đề xuất "tạm dừng" AI thường viện dẫn sự cần thiết phải tinh chỉnh các mô hình và thực hiện các cơ chế để giải quyết các thành kiến, thông tin sai lệch, nội dung có hại và các mối quan tâm về đạo đức khác, ít nhất là trước khi phổ biến rộng rãi công nghệ này ra công chúng.

Những người khác không đồng ý, chỉ ra rằng lệnh cấm tạm thời có thể làm chậm tiến độ phát triển và đổi mới AI, đồng thời tăng các nguồn lực cần thiết để giới thiệu lại AI vào thời điểm sau này.

Chủ nghĩa thực dụng cho rằng cán cân có thể nghiêng về phía đổi mới và tăng trưởng mà không cần nói về về những cạm bẫy tiềm ẩn của AI.

Liên minh Châu Âu hiện đang nghiên cứu luật bắt buộc, chẳng hạn như Đạo luật AI của EU, thúc đẩy cách tiếp cận dựa trên rủi ro để phân loại và điều chỉnh các hệ thống AI. Ví dụ: các hệ thống AI có rủi ro cao như hệ thống chấm điểm tín dụng xã hội dựa trên giám sát thời gian thực sẽ bị cấm, trong khi các hệ thống AI có rủi ro thấp như bộ lọc thư rác sẽ được phép tuân theo các yêu cầu về tính minh bạch.

Tương tự như vậy, Trung Quốc gần đây đã công bố dự thảo các biện pháp hành chính nhằm điều chỉnh việc nghiên cứu, phát triển và sử dụng các sản phẩm AI tổng quát cũng như việc cung cấp chúng cho công chúng. 

Các biện pháp này rất toàn diện, bao gồm nhiều vấn đề như các yêu cầu liên quan đến đánh giá bảo mật, quy định nội dung, sở hữu trí tuệ, tính minh bạch và sai lệch trong dữ liệu đào tạo.

Theo một quan điểm, Singapore đã tìm cách đạt được điểm bằng cách lựa chọn một mô hình quản trị hợp tác hơn. Họ cung cấp cho các đối tác trong ngành một hộp cát quy định để thử nghiệm và đổi mới trong bối cảnh môi trường được kiểm soát nhưng không có quy định.

Chẳng hạn, vào năm 2019, Ủy ban bảo vệ dữ liệu cá nhân đã xuất bản phiên bản đầu tiên của Khung quản trị AI kiểu mẫu, trong đó đưa ra các hướng dẫn, khuôn khổ và bộ công cụ có thể thực hiện được để hỗ trợ các công ty triển khai AI một cách có trách nhiệm.

Bộ Thông tin và Truyền thông Singapore cũng thông báo rằng vào cuối năm nay, họ sẽ ban hành các hướng dẫn tư vấn về việc sử dụng dữ liệu cá nhân trong các hệ thống AI, theo Đạo luật Bảo vệ Dữ liệu Cá nhân 2012.

(Nguồn: CNA)

LAN ANH
iconChia sẻ icon Chia sẻ
icon Chia sẻ

Advertisement