Advertisement

Nhận bản tin

Liên hệ quảng cáo

Email: banbientap@baocungcau.net

Hotline: 0917 267 237

icon logo

Quên mật khẩu?

Có tài khoản? Đăng nhập

Vui lòng nhập mật truy cập tài khoản mới khẩu

Thay đổi email khác
icon

OpenAI ra mắt mô hình AI mới và phiên bản ChatGPT dành cho máy tính để bàn

Số hóa

14/05/2024 07:52

OpenAI hôm thứ Hai (13/5) đã ra mắt mô hình AI mới và phiên bản ChatGPT dành cho máy tính để bàn, cùng với giao diện người dùng được cập nhật, nỗ lực mới nhất của công ty nhằm mở rộng việc sử dụng chatbot phổ biến của mình.

Giám đốc công nghệ Mira Murati cho biết trong một sự kiện được phát trực tiếp rằng bản cập nhật mang GPT-4 đến với tất cả mọi người, bao gồm cả người dùng miễn phí của OpenAI

Bà nói thêm rằng mẫu mới, GPT-4o, "nhanh hơn nhiều" với các khả năng được cải thiện về văn bản, video và âm thanh. OpenAI cho biết họ có kế hoạch cho phép người dùng trò chuyện video bằng ChatGPT.

"Đây là lần đầu tiên chúng tôi thực sự đạt được một bước tiến lớn về tính dễ sử dụng", bà Murati nói.

OpenAI, được hỗ trợ bởi Microsoft, đã được các nhà đầu tư định giá hơn 80 tỷ USD. Công ty, được thành lập vào năm 2015, đang chịu áp lực phải đứng đầu thị trường AI tổng hợp trong khi tìm cách kiếm tiền khi chi số tiền lớn vào bộ xử lý và cơ sở hạ tầng để xây dựng và đào tạo các mô hình của mình.

Chữ o trong GPT-4o là viết tắt của omni. Bà Murati cho biết mô hình mới cho phép ChatGPT xử lý 50 ngôn ngữ khác nhau với tốc độ và chất lượng được cải thiện, đồng thời nó cũng sẽ có sẵn thông qua API của OpenAI để các nhà phát triển có thể bắt đầu xây dựng ứng dụng bằng mô hình mới ngay hôm nay.

Bà nói thêm rằng GPT-4o nhanh gấp đôi và chỉ bằng một nửa so với GPT-4 Turbo.

OpenAI ra mắt mô hình AI mới và phiên bản ChatGPT dành cho máy tính để bàn- Ảnh 1.

Sam Altman, Giám đốc điều hành của OpenAI, tại cuộc họp thường niên của Diễn đàn Toàn cầu Hope ở Atlanta vào ngày 11/12/2023.

Ví dụ: các thành viên nhóm OpenAI đã trình diễn khả năng âm thanh của mô hình mới, yêu cầu nó giúp ai đó bình tĩnh lại trước bài phát biểu trước công chúng. 

Nhà nghiên cứu OpenAI Mark Chen cho biết mô hình này có thể "nhận biết cảm xúc của bạn", đồng thời mô hình này cũng có thể xử lý việc người dùng làm gián đoạn nó. Nhóm cũng yêu cầu nó phân tích nét mặt của người dùng để nhận xét về những cảm xúc mà người đó có thể đang trải qua.

Theo một bài đăng trên blog, công ty có kế hoạch thử nghiệm Chế độ giọng nói trong những tuần tới, với quyền truy cập sớm cho những người đăng ký trả phí vào ChatGPT Plus. OpenAI cũng cho biết mô hình mới có thể phản hồi lời nhắc bằng âm thanh của người dùng "chỉ trong 232 mili giây, trung bình là 320 mili giây, tương tự như thời gian phản hồi của con người trong một cuộc trò chuyện".

Ông Chen đã chứng minh khả năng kể chuyện trước khi đi ngủ và yêu cầu thay đổi giọng nói để kịch tính hơn hoặc giống robot hơn. Ông thậm chí còn yêu cầu nó hát câu chuyện.

Ngoài ra, mô hình mới của OpenAI có thể hoạt động như một dịch giả, ngay cả ở chế độ âm thanh, công ty cho biết. Ông Chen đã chứng minh khả năng của công cụ này là nghe Murati nói tiếng Ý trong khi ông nói tiếng Anh và dịch sang ngôn ngữ tương ứng khi họ trò chuyện.

Các thành viên trong nhóm cũng đã chứng minh khả năng của mô hình trong việc giải các phương trình toán học và giúp viết mã, định vị nó như một đối thủ cạnh tranh mạnh mẽ hơn với GitHub Copilot của chính Microsoft.

Ngoài ra, GPT-4o cũng nâng cấp khả năng xử lý hình ảnh của ChatGPT. Với một bức ảnh - hoặc màn hình máy tính - ChatGPT hiện có thể nhanh chóng trả lời các câu hỏi liên quan, từ các chủ đề như "Có gì đang diễn ra trong đoạn mã này?" đến "Nhãn hiệu áo sơ mi này là gì?".

Các tính năng này sẽ tiếp tục phát triển trong tương lai, Murati nói. Trong khi hiện tại GPT-4o có thể nhìn vào một bức ảnh menu bằng một ngôn ngữ khác và dịch nó, trong tương lai, mô hình có thể cho phép ChatGPT "xem" một trận đấu thể thao trực tiếp và giải thích luật chơi cho bạn.

OpenAI cũng khẳng định, GPT-4o sẽ hỗ trợ đa ngôn ngữ với hiệu suất nâng cao cho khoảng 50 ngôn ngữ. Và trên API của OpenAI và Azure OpenAI Service của Microsoft, GPT-4o nhanh gấp đôi, giá rẻ hơn một nửa và có giới hạn tỷ lệ cao hơn so với GPT-4 Turbo, công ty cho biết.

Hiện tại, giọng nói chưa phải là một phần của GPT-4o API cho tất cả khách hàng. OpenAI, với lý do rủi ro lạm dụng, cho biết họ dự định sẽ ra mắt hỗ trợ cho khả năng xử lý âm thanh mới của GPT-4o cho "một nhóm đối tác đáng tin cậy nhỏ" trong vài tuần tới. Nhưng nếu khả năng giao tiếp đa phương tiện mới thực sự hiệu quả như tuyên bố của OpenAI, có lẽ đã đến lúc người dùng không cần đến bàn phím để giao tiếp với máy móc nữa.

LAN ANH
iconChia sẻ icon Chia sẻ
icon Chia sẻ

Advertisement