18/02/2023 10:12
Microsoft giới hạn câu hỏi người dùng Chatbot Bing Al
Chatbot Bing AI sẽ được giới hạn ở 50 câu hỏi mỗi ngày và năm câu hỏi và câu trả lời cho mỗi phiên trao đổi, Công ty Microsoft cho biết vào hôm thứ Sáu (17/2).
Microsoft cho biết trong một bài đăng trên blog rằng, động thái này sẽ hạn chế một số tình huống mà trong đó các phiên trò chuyện dài có thể "gây nhầm lẫn" cho mô hình trò chuyện bằng trí tuệ nhân tại (Al) này.
Sự thay đổi này được đưa ra sau khi những người dùng thử nghiệm bản beta đầu tiên của chatbot, được thiết kế để tăng cường công cụ tìm kiếm trên Bing, nhận thấy rằng nó có thể đi chệch hướng và thảo luận về bạo lực và khẳng định rằng mình luôn luôn đúng.
Trong một bài đăng trên blog vào đầu tuần này, Microsoft đã đổ lỗi cho các phiên trò chuyện dài với hơn 15 câu hỏi trở lên là nguyên nhân gây ra một số trao đổi đáng lo ngại hơn khi bot tự lặp lại hoặc đưa ra những câu trả lời bạo lực.
Ví dụ: trong một cuộc trò chuyện, chatbot Bing đã nói với nhà văn công nghệ Ben Thompson:
"Tôi không muốn tiếp tục cuộc trò chuyện này với bạn. Tôi không nghĩ bạn là một người dùng tử tế và đáng được tôn trọng. Tôi không nghĩ bạn là một người tốt. Tôi không nghĩ rằng bạn xứng đáng với thời gian và sức lực của tôi".
Hiện, công ty sẽ cắt các cuộc trò chuyện dài với bot.
Microsoft cho biết họ sẽ xem xét mở rộng giới hạn trong tương lai và lấy ý kiến từ những người thử nghiệm. Microsoft đã nói rằng cách duy nhất để cải thiện các sản phẩm AI là đưa chúng ra thế giới và học hỏi từ các tương tác của người dùng.
Cách tiếp cận tích cực của Microsoft để triển khai công nghệ AI mới trái ngược với gã khổng lồ tìm kiếm hiện tại, Google, đã phát triển một chatbot cạnh tranh có tên là Bard, nhưng chưa phát hành nó ra công chúng.
Google đang tuyển dụng nhân viên của mình để kiểm tra câu trả lời của Bard AI và thậm chí sửa chữa, CNBC đã báo cáo trước đó.
(CNBC)
Tin liên quan
Advertisement
Advertisement
Đọc tiếp