Advertisement

icon icon img
Nhận bản tin

Liên hệ quảng cáo

Email: banbientap@baocungcau.net

Hotline: 0917 267 237

icon logo

Quên mật khẩu?

Có tài khoản? Đăng nhập

Vui lòng nhập mật truy cập tài khoản mới khẩu

Thay đổi email khác
icon

AI nguy hiểm hơn bom nguyên tử?

Phân tích

29/04/2023 10:03

Đừng hạn chế sự phát triển của AI mà hãy kiềm chế sự phổ biến của các hệ thống này trong mọi lĩnh vực hoạt động của con người.
news

Hiệu suất đáng kinh ngạc của cái gọi là "mô hình ngôn ngữ lớn" gần đây – trước hết là chuỗi ChatGPT của OpenAI – đã làm dấy lên kỳ vọng rằng các hệ thống có khả năng phù hợp với khả năng nhận thức của con người, hoặc thậm chí sở hữu trí thông minh "siêu phàm", có thể sớm trở thành hiện thực.

Đồng thời, các chuyên gia về trí tuệ nhân tạo đang lên tiếng cảnh báo nghiêm trọng về những mối nguy hiểm mà sự phát triển không kiểm soát của AI sẽ gây ra cho xã hội, hoặc thậm chí cho sự tồn vong của chính loài người.

Đây có phải chỉ là sự cường điệu, loại đã bao quanh AI trong hơn nửa thế kỷ? Hay hiện tại có một nhu cầu cấp thiết về các biện pháp kiểm soát sự phát triển hơn nữa của AI, thậm chí phải trả giá bằng việc cản trở sự tiến bộ trong lĩnh vực mang tính cách mạng này?

Vào ngày 22/3, một bức thư ngỏ đã xuất hiện, được ký bởi các chuyên gia về trí tuệ nhân tạo cũng như những nhân vật nổi tiếng như Elon Musk và kết thúc bằng tuyên bố: "Vì vậy, chúng tôi kêu gọi tất cả các phòng thí nghiệm AI tạm dừng ngay việc đào tạo các hệ thống AI trong ít nhất sáu tháng".

Biện minh cho sự cần thiết của một lệnh cấm như vậy, bức thư ngỏ lập luận: "AI tiên tiến có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất và cần được lên kế hoạch cũng như quản lý với sự quan tâm và nguồn lực tương xứng. 

Thật không may, mức độ lập kế hoạch và quản lý này không xảy ra, mặc dù những tháng gần đây đã chứng kiến các phòng thí nghiệm AI bị cuốn vào một cuộc chạy đua mất kiểm soát nhằm phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai – kể cả những người tạo ra chúng – có thể hiểu được dự đoán hoặc kiểm soát một cách đáng tin cậy.

 AI nguy hiểm hơn bom nguyên tử? - Ảnh 1.

Chúng ta có nên để máy móc tràn ngập các kênh thông tin của chúng ta bằng những lời tuyên truyền và sai sự thật không? Chúng ta có nên tự động hóa tất cả các công việc, bao gồm cả những công việc hoàn thành không? 

Chúng ta có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn, lỗi thời và thay thế chúng ta không? Chúng ta có nên mạo hiểm mất kiểm soát nền văn minh của mình không?

Eliezer Yudkowsky, được nhiều người coi là một trong những người sáng lập lĩnh vực trí tuệ nhân tạo, đã đi xa hơn trong một bài báo trên Time có tựa đề "Tạm dừng phát triển AI là chưa đủ. Chúng ta cần đóng cửa tất cả".

Lệnh cấm 6 tháng này vẫn tốt hơn là không có lệnh cấm nào…. Tôi đã không ký tên vì tôi nghĩ rằng bức thư đang nhấn mạnh mức độ nghiêm trọng của tình hình.…

Nhiều nhà nghiên cứu chìm đắm trong những vấn đề này, bao gồm cả tôi, kỳ vọng rằng kết quả rất có thể xảy ra của việc xây dựng một AI thông minh siêu phàm, trong bất kỳ điều gì từ xa như hoàn cảnh hiện tại, là mọi người trên Trái đất sẽ chết theo đúng nghĩa đen. Không phải là "có thể là một cơ hội xa xôi nào đó" mà là "đó là điều hiển nhiên sẽ xảy ra".

Ví dụ về bom hydro

Cảnh tượng các nhà khoa học AI kêu gọi tạm dừng, hoặc thậm chí chấm dứt công việc đang tiến triển nhanh chóng trong lĩnh vực của họ không thể không nhắc nhở chúng ta về lịch sử của vũ khí hạt nhân. Sức mạnh hủy diệt khủng khiếp của bom nguyên tử, thứ mà nghiên cứu khoa học đã tạo ra, đã thúc đẩy nhận xét nổi tiếng của Einstein "Ach! Thế giới chưa sẵn sàng cho nó".

Năm 1949, một số nhà vật lý hạt nhân hàng đầu và những cựu chiến binh khác của dự án bom nguyên tử thời chiến đã biểu tình từ chối tham gia dự án phát triển các thiết bị dựa trên nhiệt hạch ("bom hydro"), năng lượng giải phóng có thể lớn hơn 1.000 lần hoặc hơn so với nguyên tử phân hạch.

Ủy ban cố vấn chung của Ủy ban năng lượng nguyên tử Hoa Kỳ do Robert Oppenheimer (thường được coi là "Cha đẻ của bom nguyên tử") đứng đầu. Các thành viên khác là Enrico Fermi, II Rabi, James B. Conant, Lee A. DuBridge, Oliver A. Buckley, Glenn Seaborg, Hartley Rowe và Cyril Stanley Smith.

Tại cuộc họp cuối cùng vào ngày 30/10/1949, ủy ban đã xác định rằng, bằng cách không tiếp tục phát triển bom khinh khí, "chúng tôi thấy một cơ hội duy nhất để đưa ra một số hạn chế đối với toàn bộ chiến tranh và do đó hạn chế nỗi sợ hãi và khơi dậy hy vọng của nhân loại".

 AI nguy hiểm hơn bom nguyên tử? - Ảnh 3.

Giai đoạn đầu tiên của bom khinh khí không thể thu nhỏ lại, ít nhất là không dễ dàng. Ảnh: Asia Tmes files/Stock

Đa số chia sẻ quan điểm rằng bom khinh khí đe dọa chính tương lai của loài người: "Chúng tôi tin rằng không bao giờ nên sản xuất một siêu bom. Nhân loại sẽ tốt hơn nhiều nếu không chứng minh tính khả thi của một loại vũ khí như vậy cho đến khi bầu không khí hiện tại của quan điểm thế giới thay đổi".

Nhóm thiểu số bao gồm Fermi và Rabi tuyên bố: "Thực tế là không có giới hạn nào đối với sức hủy diệt của loại vũ khí này khiến cho chính sự tồn tại của nó và kiến thức về cấu tạo của nó là mối nguy hiểm cho toàn thể nhân loại. Nó nhất thiết phải là một điều xấu xa được xem xét trong bất kỳ ánh sáng nào. 

Tổng thống Harry Truman đã bác bỏ ủy ban và phần còn lại là lịch sử.

Tất nhiên, không nên quên rằng bên cạnh các ứng dụng quân sự, năng lượng nguyên tử, dưới dạng các lò phản ứng phân hạch, đã mang lại những lợi ích to lớn cho nhân loại. Năng lượng nhiệt hạch, lần đầu tiên được giải phóng ở dạng không kiểm soát được trong quả bom khinh khí, hứa hẹn những lợi ích thậm chí còn lớn hơn.

'Trí tuệ nhân tạo nói chung'

Tương tự như vậy đối với các dạng AI nâng cao. Tôi cho rằng sự tương tự của bom khinh khí, trong lĩnh vực trí tuệ nhân tạo, sẽ là việc tạo ra các thiết bị "trí tuệ nhân tạo nói chung" sở hữu tất cả các khả năng của trí óc con người và thậm chí vượt xa chúng theo cấp độ lớn.

Các nhà quan sát có ý kiến khác nhau rất nhiều về thời điểm có thể đạt được mục tiêu của GAI. Một số chuyên gia AI khẳng định rằng GAI sẽ đạt được trong tương lai gần, trong khi những người khác coi đó là một viễn cảnh rất xa vời, nếu có thể đạt được.

Bản thân tôi tin tưởng và đã lập luận trên tờ Asia Times rằng về nguyên tắc, một GAI dựa trên công nghệ máy tính kỹ thuật số là không thể.

Kết luận này được hỗ trợ bởi các kết quả của Kurt Gödel – do những người khác xây dựng thêm – liên quan đến những hạn chế cơ bản của bất kỳ hệ thống nào tương đương với máy Turing. Điều đó đặc biệt áp dụng cho tất cả các máy tính kỹ thuật số.

 AI nguy hiểm hơn bom nguyên tử? - Ảnh 4.

Mô hình máy Turing của Mike Delaney. Nguồn: Wikimedia

Như tôi đã lập luận trong một bài báo khác của Asia Times, quan điểm của tôi càng được củng cố bởi thực tế là hoạt động của các tế bào thần kinh trong não người hầu như không có điểm chung nào với hoạt động của các yếu tố chuyển đổi "bật-tắt" là cơ sở của máy tính kỹ thuật số. 

Một neutron riêng lẻ phức tạp hơn nhiều bậc độ lớn, với tư cách là một hệ thống vật lý, so với bất kỳ máy tính kỹ thuật số nào mà chúng ta có thể mong đợi xây dựng trong tương lai gần. Tôi tin rằng sự phức tạp đến khó tin của các tế bào thần kinh thực sự, là những tế bào sống chứ không phải là các phần tử chuyển mạch trơ, là điều cần thiết cho trí thông minh của con người.

Tuy nhiên, tất cả những gì đã nói, thông điệp chính của bài báo hiện tại là: Điều quan trọng là phải nhận ra rằng các hệ thống AI không cần phải ở gần GAI – hoặc thậm chí giống GAI – để tạo thành mối đe dọa lớn đối với xã hội .

Khi 'học sâu' chạy điên cuồng

Hãy xem xét tình huống sau: Các hệ thống AI, hoạt động trên cơ sở "học sâu" dần dần có được khả năng thao túng con người thông qua điều kiện tâm lý và sửa đổi hành vi. Những hệ thống như vậy, được cấp quyền truy cập quy mô lớn vào dân chúng, trên thực tế có thể nắm quyền kiểm soát xã hội. Với hành vi thường không thể đoán trước của các hệ thống dựa trên học sâu, tình huống này có thể gây ra hậu quả thảm khốc.

Chúng ta không ở quá xa viễn cảnh như mọi người vẫn nghĩ.

Trong biến thể đơn giản nhất, lãnh đạo của một quốc gia sẽ cố tình triển khai một mạng lưới các hệ thống AI có khả năng điều chỉnh hành vi vào các phương tiện truyền thông, hệ thống giáo dục và các nơi khác để "tối ưu hóa" xã hội. Quá trình này lúc đầu có thể hiệu quả nhưng sẽ nhanh chóng vượt khỏi tầm kiểm soát, dẫn đến hỗn loạn và sụp đổ.

Sự phát triển dẫn đến việc AI kiểm soát xã hội cũng có thể phát sinh độc lập với ý định của con người – thông qua hoạt động "tự phát" của các hệ thống AI được nối mạng có đủ quyền truy cập vào dân số và sở hữu (hoặc dần dần có được) khả năng sửa đổi hành vi.

Như tôi sẽ chỉ ra, nhiều ứng dụng AI được tối ưu hóa rõ ràng để điều chỉnh hành vi của con người. Danh sách này bao gồm các chatbot được sử dụng trong tâm lý trị liệu. Trong nhiều trường hợp khác, chẳng hạn như trong giáo dục trẻ em, các ứng dụng AI có tác dụng điều chỉnh hành vi mạnh mẽ.

Giống như bất kỳ công nghệ nào khác, mỗi ứng dụng AI đều có những lợi ích cũng như những mối nguy tiềm ẩn. Nói chung ngày nay, hiệu suất của các hệ thống này vẫn có thể được giám sát bởi con người. Một khía cạnh rủi ro hoàn toàn khác phát sinh khi chúng được tích hợp vào các "siêu hệ thống" lớn.

Để tránh hiểu lầm, tôi không gán cho các hệ thống AI một "ý chí" hoặc "ham muốn" bí ẩn nào đó để chiếm lấy xã hội. Tôi chỉ đơn thuần gợi ý rằng một kịch bản về một xã hội do AI kiểm soát có thể mở ra như một hệ quả không mong muốn của sự tích hợp ngày càng tăng của các hệ thống này cũng như các tiêu chí tối ưu hóa và phương pháp đào tạo mà các hệ thống học sâu dựa vào.

Thứ nhất, nó không yêu cầu trí thông minh giống con người để thao túng con người. Nó có thể được thực hiện ngay cả bằng các thiết bị khá thô sơ. Thực tế đó đã được thiết lập từ rất lâu trước khi AI ra đời, bao gồm cả thông qua các thí nghiệm của các nhà tâm lý học hành vi.

Sự phát triển của AI đã mở ra một chiều hướng hoàn toàn mới. Rất đáng đọc, về chủ đề này là một bài báo gần đây trên tạp chí Forbes của chuyên gia AI nổi tiếng Lance Eliot, trong đó ông trình bày chi tiết một số cách khác nhau mà chatbot và các ứng dụng AI khác có thể thao túng tâm lý con người ngay cả khi họ không làm như vậy. dự định làm như vậy.

Mặt khác, việc điều chỉnh hành vi và tinh thần có chủ ý bằng các hệ thống AI là một lĩnh vực đang phát triển nhanh chóng, với ứng dụng đang diễn ra trong nhiều bối cảnh khác nhau.

Ví dụ dễ dàng đến với tâm trí. Hàng chục tỷ đã được đổ vào việc sử dụng AI cho quảng cáo và tiếp thị – những hoạt động mà bản chất của chúng liên quan đến thao túng tâm lý và lập hồ sơ.

Ở một hướng khác, giáo dục trẻ em và người lớn có sự hỗ trợ của AI – được minh họa bằng các hệ thống E-learning tiên tiến dựa trên AI – cũng có thể được coi là một hình thức điều chỉnh hành vi. Thật vậy, các ứng dụng AI trong lĩnh vực giáo dục có xu hướng dựa trên các mô hình học tập của con người theo chủ nghĩa hành vi. 

Các hệ thống giảng dạy AI tiên tiến được thiết kế để tối ưu hóa các phản ứng và kết quả hoạt động của trẻ, lập hồ sơ cá nhân cho từng trẻ, đánh giá sự tiến bộ của trẻ trong thời gian thực và điều chỉnh hoạt động của trẻ cho phù hợp.

Một ví dụ khác là sự phổ biến của AI Chatbots nhằm giúp mọi người từ bỏ thuốc lá hoặc ma túy, tập thể dục đúng cách, áp dụng các thói quen lành mạnh hơn.

Đồng thời, các chatbot AI đang tìm kiếm các ứng dụng đang phát triển trong lĩnh vực tâm lý học. Một ví dụ là ứng dụng "Woebot", được thiết kế "để giúp bạn vượt qua những thăng trầm của cuộc sống"– đặc biệt hướng đến những người bị trầm cảm.

Những ứng dụng này chỉ đại diện cho giai đoạn đầu của quá trình chuyển đổi sâu rộng của tâm lý học lâm sàng và tâm lý trị liệu.

Các tác động tiềm năng của AI đối với suy nghĩ và hành vi của người dân được tăng cường đáng kể bởi xu hướng mạnh mẽ của mọi người là phóng chiếu một cách vô thức các phẩm chất "con người" lên các hệ thống như GPT-4 của OpenAI. Hiện tượng phóng chiếu này mở đường cho các hệ thống AI tinh vi tham gia vào các mối quan hệ "cá nhân" với các cá nhân và theo một nghĩa nào đó để hòa nhập với xã hội.

 AI nguy hiểm hơn bom nguyên tử? - Ảnh 6.

Ernie Bot. Hình ảnh: Alex Santafe / Dự án Trung Quốc / Twitter

Vì sự thay thế ngày càng nhanh chóng của những người đối thoại với con người bằng chatbot cho thấy, hầu như không có giới hạn đối với số lượng "người ảo" do AI tạo ra. Không cần phải nói, điều này mở ra một phạm vi rộng lớn cho việc điều chỉnh và điều chỉnh hành vi của con người. Những mối nguy hiểm liên quan được nhấn mạnh bởi trường hợp bi thảm của một người đàn ông Bỉ đã tự tử sau cuộc đối thoại kéo dài sáu tuần với AI chatbot Chai.

Công nghệ sửa đổi hành vi dựa trên AI đã hết hạn sử dụng và không có giới hạn rõ ràng nào đối với việc sử dụng hoặc lạm dụng nó. Trong hầu hết các trường hợp – theo như chúng tôi biết – chủ thể con người có hành vi được sửa đổi đồng ý một cách tự nguyện. Tuy nhiên, đó là một bước nhỏ đối với các ứng dụng mà các đối tượng không biết rằng việc sửa đổi hành vi đang được áp dụng cho họ.

Lọc hoặc sửa đổi nội dung phương tiện internet bằng hệ thống AI và các biện pháp can thiệp do AI quản lý trên phương tiện truyền thông xã hội có thể định hình đời sống tinh thần và hành vi của toàn bộ dân số. Điều này đã xảy ra ở một mức độ nhất định , như trong việc nhận dạng dựa trên AI và xóa "tài liệu xúc phạm" khỏi Facebook và các phương tiện truyền thông xã hội khác.

Chúng ta chỉ còn vài bước nữa là đến một tình huống trong đó các tiêu chí để đánh giá điều gì là "có hại", "có thể phản cảm", "đúng" hay "sai" sẽ do chính các hệ thống AI đặt ra.

Coi chừng 'siêu hệ thống'

Có một xu hướng tự nhiên trong xã hội ngày nay là tích hợp các hệ thống dữ liệu vào các tổng thể lớn hơn. Đây là thông lệ thường xuyên trong việc quản lý các công ty lớn và chuỗi cung ứng cũng như trong quá trình "số hóa" chính phủ và các dịch vụ công, một phần được thúc đẩy bởi nỗ lực đạt được hiệu quả cao hơn. Bất chấp sự kháng cự, có một động lực tự nhiên để mở rộng quá trình chia sẻ dữ liệu và tích hợp các hệ thống thông tin vượt xa giới hạn của các lĩnh vực riêng lẻ.

Điều này có thể dẫn đến đâu khi các hệ thống thông tin liên quan liên quan đến AI theo những cách thiết yếu? Chẳng hạn, sẽ là điều hoàn toàn tự nhiên nếu áp dụng AI để tối ưu hóa hiệu suất của một nhân viên, được đánh giá bởi một hệ thống AI, theo tình trạng tâm lý và y tế của người đó, như được đánh giá bởi một hệ thống AI khác.

Ngược lại, liệu pháp tâm lý thông qua chatbot và phát hiện các vấn đề sức khỏe tiềm ẩn có thể được hệ thống AI tối ưu hóa trên cơ sở AI lập hồ sơ về hành vi tại nơi làm việc và hoạt động trên internet.

Một ví dụ khác: Sử dụng trí tuệ nhân tạo để tối ưu hóa các tiêu chí mà hệ thống trí tuệ nhân tạo sử dụng để lọc phương tiện truyền thông xã hội, nhằm giảm thiểu khả năng xảy ra bất ổn xã hội, do hệ thống trí tuệ nhân tạo đánh giá. Tương tự như vậy đối với việc tối ưu hóa các chatbot AI được các nhà lãnh đạo chính trị sử dụng để soạn các tuyên bố công khai của họ.

Suy ngẫm về những ví dụ này và các ví dụ khác, người ta không cần nhiều trí tưởng tượng để nắm bắt được phạm vi tích hợp to lớn của các hệ thống AI liên quan đến các khía cạnh khác nhau của xã hội vào các hệ thống lớn hơn bao giờ hết.

Quan trọng nhất, thực tiễn tích hợp các hệ thống AI ngày càng tăng dẫn đến các "siêu hệ thống" có cấu trúc phân cấp, trong đó các hệ thống con cấp cao hơn đưa ra các tiêu chí (hoặc số liệu) tối ưu hóa cũng như cơ sở dữ liệu mà các hệ thống cấp thấp hơn dựa vào đó. 

Để hiểu điều này ngụ ý gì, người ta nên nhớ rằng AI dựa trên học sâu cuối cùng không là gì khác ngoài sự kết hợp của các thuật toán tối ưu hóa toán học tinh vi + máy tính lớn + tập dữ liệu lớn.

Chương trình máy tính có liên quan chứa một số lượng lớn các biến số có giá trị được đặt trong giai đoạn "đào tạo" và sau đó được sửa đổi trong quá trình tương tác của hệ thống với thế giới bên ngoài, trong một quy trình tối ưu hóa lặp đi lặp lại. Giống như bất kỳ quy trình tối ưu hóa nào khác, điều này xảy ra theo một bộ tiêu chí hoặc chỉ số đã chọn.

Được thể hiện một cách ẩn dụ, những tiêu chí này xác định những gì hệ thống "muốn" hoặc "cố gắng" đạt được.

Trong hệ thống AI điển hình thuộc loại này ngày nay, các tiêu chí tối ưu hóa và cơ sở dữ liệu đào tạo được lựa chọn bởi những người thiết kế hệ thống. Số lượng tham số nội bộ được tạo ra trong "quá trình đào tạo" thường cao đến mức không thể dự đoán chính xác hoặc thậm chí giải thích hành vi của hệ thống trong các trường hợp nhất định.

Tiền thân của GPT-4, hệ thống GPT-3, đã chứa khoảng 175 tỷ tham số bên trong. Vì hoạt động của hệ thống được xác định bởi tổng số các tham số theo kiểu tập thể nên nhìn chung không thể xác định được điều gì cần khắc phục khi hệ thống hoạt động sai. Trong lĩnh vực AI, tình huống này được gọi là "vấn đề minh bạch".

Ngày nay, có nhiều cuộc thảo luận trong lĩnh vực AI liên quan đến cái gọi là "vấn đề liên kết": Làm cách nào để đảm bảo rằng các hệ thống AI, vốn không ngừng sinh sôi và phát triển, sẽ vẫn "liên kết" với các mục tiêu, sở thích hoặc nguyên tắc đạo đức của con người? Tôi khẳng định rằng vấn đề "liên kết" hầu như không thể giải quyết được khi nói đến các siêu hệ thống có cấu trúc phân cấp.

 AI nguy hiểm hơn bom nguyên tử? - Ảnh 8.

Trong bộ phim khoa học viễn tưởng nổi tiếng "2001: A Space Odyssey" của Stanley Kubrick, phi hành gia sống sót đã can thiệp vào giây phút cuối cùng để tắt hệ thống AI.

Không khó để thấy rằng việc đào tạo các hệ thống ngày càng trở nên khó khăn hơn khi chúng ta lên cấp cao hơn trong hệ thống phân cấp. Làm thế nào có thể xác định được các câu trả lời "đúng" và "sai", điều cần thiết cho việc đào tạo các hệ thống cao hơn này? 

Chúng ta lấy cơ sở dữ liệu đầy đủ ở đâu? Hậu quả của một phản ứng nhất định chỉ xuất hiện thông qua hoạt động của các hệ thống cấp thấp hơn, mà hệ thống cấp cao hơn giám sát. Điều đó cần có thời gian. Do đó, xu hướng sẽ là rút ngắn quá trình đào tạo – với cái giá phải trả là tăng khả năng xảy ra sai sót, hoặc thậm chí là các quyết định cực kỳ không phù hợp, ở các cấp cao hơn của hệ thống phân cấp.

Người đọc có thể đã lưu ý sự tương tự với những khó khăn và rủi ro liên quan đến bất kỳ hình thức hoạt động được tổ chức theo cấp bậc nào của con người – từ một doanh nghiệp đơn lẻ đến cơ cấu lãnh đạo của cả một quốc gia. Những vấn đề này rõ ràng có trước trí tuệ nhân tạo hàng nghìn năm. Ngày nay, nhiều ý kiến cho rằng các hệ thống AI sẽ hoạt động tốt hơn con người trong việc quản lý doanh nghiệp, nền kinh tế – thậm chí có thể là toàn bộ xã hội.

Không còn nghi ngờ gì nữa, hệ thống AI thực sự hoạt động tốt hơn con người trong nhiều bối cảnh cụ thể. Ngoài ra, AI không ngừng cải thiện. Nhưng quá trình mở rộng và tích hợp các hệ thống AI đang diễn ra sẽ đưa chúng ta đến đâu – đặc biệt là khi nó dẫn đến những khả năng toàn diện và mạnh mẽ hơn bao giờ hết để định hình suy nghĩ và hành vi của con người?

Trong lịch sử loài người, những nỗ lực nhằm tối ưu hóa hoàn toàn một xã hội dưới dạng một siêu hệ thống hoạt động theo những tiêu chí nghiêm ngặt thường dẫn đến thảm họa. Các xã hội bền vững luôn được đặc trưng bởi sự chậm trễ đáng kể được cung cấp cho việc ra quyết định độc lập, thuộc loại có xu hướng đi ngược lại các tiêu chí được thông qua để tối ưu hóa hệ thống. Trớ trêu thay, việc cung cấp mức độ tự do như vậy cho đến nay lại tạo ra kết quả tối ưu nhất.

Theo bức thư ngỏ được trích dẫn ở trên, hầu hết các chuyên gia trong lĩnh vực trí tuệ nhân tạo đều đồng ý rằng các ứng dụng AI phải luôn diễn ra dưới sự giám sát của con người. Tổng quát hơn, sự phát triển và ứng dụng của AI phải được điều hành bởi trí tuệ con người – tuy nhiên người ta có thể định nghĩa như thế nào.

Ở đây, tôi đã cố gắng lập luận rằng sự phổ biến của AI dựa trên học sâu vào ngày càng nhiều lĩnh vực hoạt động của con người và xu hướng tích hợp các hệ thống như vậy vào các hệ thống phân cấp ngày càng lớn hơn cùng nhau gây ra rủi ro to lớn cho xã hội.

Thật vậy, câu hỏi cần được suy nghĩ: Trong trường hợp một siêu hệ thống như vậy gặp trục trặc, đe dọa gây ra những hậu quả thảm khốc, thì ai hoặc cái gì sẽ can thiệp để ngăn chặn nó?

Trong bộ phim khoa học viễn tưởng nổi tiếng "2001: A Space Odyssey" của Stanley Kubrick, phi hành gia sống sót đã can thiệp vào giây phút cuối cùng để tắt hệ thống AI. Nhưng liệu phi hành gia có làm điều đó nếu hệ thống AI trước đó đã điều chỉnh tâm lý cho anh ta không làm như vậy?

Tôi không nghĩ việc cố gắng hạn chế sự phát triển của AI là hợp lý. Điều đó sẽ có hại và phản tác dụng. Nhưng sự khôn ngoan chỉ ra rằng những mối nguy hiểm phát sinh từ sự gia tăng nhanh chóng của các hệ thống AI vào hầu hết mọi lĩnh vực hoạt động của con người phải được kiềm chế bằng quy định phù hợp và sự giám sát của con người. Điều đó đặc biệt áp dụng cho sự xuất hiện của các siêu hệ thống AI mà tôi đã thảo luận ở đây.

Tác giả bài viết: Jonathan Tennenbaum (Tiến sĩ toán học) là cựu biên tập viên của tạp chí FUSION và đã viết về nhiều chủ đề khoa học và công nghệ, bao gồm một số cuốn sách về năng lượng hạt nhân. Ông cũng là cộng tác viên quốc tế của Viện Triết học và Lịch sử Khoa học tại Đại học Lisbon, nghiên cứu các phương pháp thay thế cho vật lý lượng tử.

(Nguồn: Asia Times)

CHẤN HƯNG (dịch)
iconChia sẻ icon Chia sẻ
icon Chia sẻ

Advertisement