02/05/2024 07:03
Tại sao chi phí cho AI lại đắt đến vậy?
Gần 18 tháng trong cơn sốt AI bùng nổ, một số công ty công nghệ lớn nhất đang chứng minh rằng trí tuệ nhân tạo có thể là động lực thúc đẩy doanh thu thực sự. Nhưng đó cũng là một hố tiền khổng lồ.
Google của Microsoft Corp. và Alphabet Inc. đã báo cáo doanh thu từ đám mây tăng vọt nhờ kết quả hàng quý mới nhất của họ, do khách hàng doanh nghiệp chi nhiều hơn cho các dịch vụ AI của họ. Meta Platforms Inc., mặc dù còn chậm hơn trong việc kiếm tiền từ công nghệ, nhưng cho biết những nỗ lực AI của họ đã giúp tăng cường mức độ tương tác của người dùng và nhắm mục tiêu quảng cáo.
Để đạt được những lợi ích ban đầu này, ba công ty đã chi hàng tỷ USD để phát triển AI và họ có kế hoạch tăng cường các khoản đầu tư đó hơn nữa.
Vào ngày 25/4, Microsoft cho biết họ đã chi 14 tỷ USD cho chi phí vốn trong quý gần đây nhất và dự kiến những chi phí đó sẽ "tăng đáng kể", một phần do đầu tư vào cơ sở hạ tầng AI. Đó là mức tăng 79% so với quý trước.
Alphabet cho biết họ đã chi 12 tỷ USD trong quý, tăng 91% so với một năm trước đó và dự kiến thời gian còn lại của năm sẽ "bằng hoặc cao hơn" mức đó vì hãng tập trung vào các cơ hội về AI.
Trong khi đó, Meta đã nâng ước tính đầu tư trong năm và hiện tin rằng chi tiêu vốn sẽ từ 35 tỷ USD đến 40 tỷ USD, tức là tăng 42% ở mức cao nhất trong phạm vi. Nó trích dẫn sự đầu tư tích cực vào nghiên cứu AI và phát triển sản phẩm.
Chi phí AI ngày càng tăng đã khiến một số nhà đầu tư mất cảnh giác. Đặc biệt, cổ phiếu của Meta sụt giảm do dự báo chi tiêu kết hợp với tốc độ tăng trưởng doanh số bán hàng chậm hơn dự kiến.
Nhưng trong ngành công nghệ, từ lâu đã có niềm tin rằng chi phí AI sẽ tăng lên. Có hai lý do chính giải thích cho điều đó: Các mô hình AI ngày càng lớn hơn và tốn kém hơn để phát triển và nhu cầu toàn cầu về dịch vụ AI đòi hỏi phải xây dựng thêm nhiều trung tâm dữ liệu để hỗ trợ nó.
Các doanh nghiệp đang thử nghiệm các dịch vụ AI như vậy có thể chi hàng triệu USD để tùy chỉnh các sản phẩm từ OpenAI hoặc Google. Sau khi thiết lập và hoạt động, chi phí sẽ tăng thêm mỗi khi ai đó gửi tin nhắn đến chatbot hoặc yêu cầu dịch vụ AI phân tích dữ liệu bán hàng. Nhưng công việc tốn kém hơn là xây dựng nền tảng cho các hệ thống AI đó. Dưới đây là một cái nhìn về những nỗ lực đó.
Mô hình ngôn ngữ lớn ngày càng lớn hơn
Các sản phẩm AI nổi tiếng nhất hiện nay, bao gồm ChatGPT của OpenAI, được hỗ trợ bởi các mô hình ngôn ngữ lớn - các hệ thống được cung cấp lượng dữ liệu khổng lồ, bao gồm sách, bài viết và nhận xét trực tuyến, để đưa ra phản hồi tốt nhất có thể cho các truy vấn của người dùng.
Nhiều công ty AI hàng đầu đang đặt cược rằng con đường hướng tới trí tuệ nhân tạo phức tạp hơn - có lẽ ngay cả những hệ thống AI có thể vượt trội hơn con người trong nhiều nhiệm vụ - là làm cho những mô hình ngôn ngữ lớn này thậm chí còn lớn hơn.
Điều đó đòi hỏi phải thu thập nhiều dữ liệu hơn, nhiều sức mạnh tính toán hơn và đào tạo hệ thống AI lâu hơn. Trong một cuộc phỏng vấn trên podcast vào đầu tháng 4, Dario Amodei, giám đốc điều hành của Anthropic, đối thủ của OpenAI, cho biết loạt mô hình AI hiện tại trên thị trường có chi phí đào tạo khoảng 100 triệu USD.
Ông nói: "Các mẫu xe hiện đang được đào tạo và sẽ ra mắt vào nhiều thời điểm khác nhau vào cuối năm nay hoặc đầu năm sau có giá gần 1 tỷ USD". "Sau đó, tôi nghĩ vào năm 2025 và 2026, chúng ta sẽ kiếm được nhiều hơn, khoảng 5 hoặc 10 tỷ USD".
Chip và chi phí điện toán
Phần lớn chi phí đó liên quan đến chip. Đây không phải là những bộ xử lý trung tâm (CPU) đã làm nên danh tiếng của Tập đoàn Intel hay những người anh em họ di động nhỏ gọn của họ cung cấp năng lượng cho hàng tỷ điện thoại thông minh.
Để đào tạo các mô hình ngôn ngữ lớn, các công ty AI dựa vào các đơn vị xử lý đồ họa - GPU - có thể xử lý lượng dữ liệu khổng lồ ở tốc độ cao. Những con chip này không chỉ khan hiếm mà còn cực kỳ đắt tiền, với những tính năng tiên tiến nhất được sản xuất chủ yếu bởi một công ty duy nhất.
Chip đồ họa H100 của Nvidia, tiêu chuẩn vàng để huấn luyện các mô hình AI, đã được bán với giá ước tính khoảng 30.000 USD - một số đại lý chào bán chúng với giá gấp nhiều lần số tiền đó. Và các công ty công nghệ lớn cần rất nhiều người trong số họ.
Giám đốc điều hành Meta Zuckerberg trước đây cho biết công ty của ông có kế hoạch mua 350.000 chip H100 vào cuối năm nay để hỗ trợ các nỗ lực nghiên cứu AI của mình. Ngay cả khi anh ta được giảm giá khi mua số lượng lớn, số tiền đó dễ dàng lên tới hàng tỷ USD.
Các công ty có thể thực hiện công việc này mà không cần mua chip thực tế, nhưng việc mượn chúng cũng rất tốn kém. Nói một cách ngắn gọn: Đơn vị đám mây của Amazon.com Inc. sẽ cho khách hàng thuê một cụm lớn các bộ xử lý phù hợp do Intel sản xuất với giá khoảng 6 USD/giờ. Ngược lại, một nhóm chip Nvidia H100 có giá gần 100 USD một giờ.
Tháng trước, Nvidia đã tiết lộ một thiết kế bộ xử lý mới có tên Blackwell, xử lý các mô hình ngôn ngữ lớn nhanh hơn gấp nhiều lần và dự kiến sẽ có giá tương tự như dòng Hopper bao gồm H100.
Nvidia cho biết sẽ cần khoảng 2.000 GPU Blackwell để đào tạo mô hình AI có 1,8 nghìn tỷ tham số. Đó là kích thước ước tính của GPT-4 của OpenAI, theo một vụ kiện của New York Times về việc công ty khởi nghiệp sử dụng các bài báo của mình để đào tạo các hệ thống AI.
Để so sánh, Nvidia cho biết họ cần 8.000 GPU Hopper để thực hiện nhiệm vụ tương tự. Nhưng sự cải thiện đó có thể được bù đắp bằng nỗ lực xây dựng các mô hình AI lớn hơn trong ngành.
Các trung tâm dữ liệu
Các công ty mua những con chip đó cần một nơi nào đó để đặt chúng. Meta, cùng với các công ty điện toán đám mây lớn nhất Amazon, Microsoft và Google và các nhà cung cấp năng lực điện toán cho thuê khác đang chạy đua để xây dựng các trang trại máy chủ mới. Những tòa nhà này có xu hướng được xây dựng tùy chỉnh. Chúng chứa các ổ đĩa cứng, bộ xử lý, hệ thống làm mát, các thiết bị điện và máy phát điện dự phòng.
Dell'Oro Group, một nhà nghiên cứu, ước tính rằng các công ty sẽ chi 294 tỷ USD để xây dựng và trang bị các trung tâm dữ liệu trong năm nay, tăng từ mức 193 tỷ USD vào năm 2020.
Phần lớn sự mở rộng đó theo dõi sự phát triển rộng rãi của các dịch vụ kỹ thuật số - phát trực tuyến video, sự bùng nổ dữ liệu doanh nghiệp, nguồn cấp dữ liệu truyền thông xã hội của bạn. Nhưng phần chi tiêu ngày càng tăng được dành cho chip Nvidia đắt tiền và phần cứng chuyên dụng khác cần thiết để hỗ trợ sự bùng nổ AI.
Ưu đãi và tài năng
Trong khi chip và trung tâm dữ liệu chiếm phần lớn chi phí, một số công ty AI cũng đang chi hàng triệu USD để cấp phép dữ liệu từ các nhà xuất bản.
OpenAI đã đạt được thỏa thuận với một số nhà xuất bản châu Âu để kết hợp nội dung tin tức của họ vào ChatGPT và đào tạo các mô hình AI của mình. Các điều khoản tài chính của các thỏa thuận này chưa được tiết lộ, nhưng Bloomberg News trước đó đã đưa tin rằng OpenAI đã đồng ý trả hàng chục triệu euro cho Axel Springer SE, nhà xuất bản Politico và Business Insider của Đức, để có quyền sử dụng các bài báo của mình.
Công ty khởi nghiệp này cũng đã tổ chức các cuộc đàm phán với Time, CNN và Fox News để cấp phép cho nội dung.
Trong khi OpenAI tích cực hơn trong việc đảm bảo các thỏa thuận cấp phép, các công ty công nghệ lớn cũng đang tìm cách thu thập dữ liệu ngôn ngữ mà họ cần để xây dựng các công cụ AI hấp dẫn. Google đã đạt được thỏa thuận trị giá 60 triệu USD để cấp phép dữ liệu từ Reddit, Reuters đưa tin. Và các nhân viên của Meta được cho là đã thảo luận về việc mua nhà xuất bản sách Simon & Schuster, New York Times đưa tin.
Các công ty công nghệ cũng đang bị cuốn vào cuộc chiến tranh giành nhân tài AI. Vào một thời điểm năm ngoái, Netflix Inc. đã đăng tuyển vị trí quản lý sản phẩm AI với mức lương lên tới 900.000 USD.
Lựa chọn thay thế rẻ hơn
Microsoft, công ty đã nỗ lực nhiều nhất để thúc đẩy sự điên cuồng xung quanh các mô hình ngôn ngữ lớn, gần đây cho biết họ sẽ thử một cách tiếp cận khác. Công ty đã giới thiệu ba mô hình AI nhỏ hơn , ít tính toán hơn.
Microsoft cho biết các mô hình ngôn ngữ lớn "vẫn sẽ là tiêu chuẩn vàng để giải quyết nhiều loại nhiệm vụ phức tạp", chẳng hạn như "lý luận nâng cao, phân tích dữ liệu và hiểu biết về ngữ cảnh".
Nhưng các mẫu nhỏ hơn có thể đủ cho một số khách hàng và trường hợp sử dụng nhất định. Các công ty khác, bao gồm Sakana AI, một công ty khởi nghiệp do hai cựu nhân viên Google thành lập, cũng đang tập trung vào các mô hình nhỏ hơn.
Rowan Curran, nhà phân tích cấp cao tại Forrester Research, người tập trung vào AI, cho biết: "Bạn không cần một chiếc xe thể thao mọi lúc. "Đôi khi bạn cần một chiếc xe tải nhỏ hoặc xe bán tải. Nó sẽ không phải là một loại mô hình rộng rãi mà mọi người đều sử dụng cho mọi trường hợp sử dụng".
Tuy nhiên, hiện tại, quan điểm thông thường trong thế giới AI là càng lớn thì càng tốt. Điều đó sẽ tốn kém.
(Nguồn: Bloomberg)
Tin liên quan
Advertisement
Advertisement
Đọc tiếp