07/07/2023 15:22
Sự bùng nổ của AI vẫn chưa phá vỡ được sự sụt giảm của chip nhớ
Cơn sốt do ChatGPT dẫn đầu là động lực lớn cho kết quả trong tương lai, mặc dù hiện tại chưa đủ vì Samsung Electronics dự báo lợi nhuận hoạt động giảm 96%.
Cơn sốt trí tuệ nhân tạo (AI) hiện nay dự kiến sẽ thúc đẩy sự tăng trưởng đáng kể về chip bộ nhớ. Nhưng thời điểm đó không phải là bây giờ.
Lời nhắc mới nhất vào hôm nay (7/7), khi Samsung Electronics, nhà sản xuất chip nhớ lớn nhất thế giới, dự kiến công bố báo cáo lợi nhuận quý 2 trong ngày 7/7 với mức giảm tới 96% so với cùng kỳ năm ngoái. Tình trạng dư thừa chip toàn cầu gây ra những tổn thất lớn cho hoạt động kinh doanh của gã khổng lồ công nghệ mặc dù nguồn cung cũng đã được hạn chế.
Theo báo cáo sơ bộ, nhà sản xuất chip và điện thoại thông minh lớn nhất thế giới ước tính lợi nhuận hoạt động của họ giảm xuống còn 600 tỷ won (459 triệu USD) trong quý từ tháng 4 đến tháng 6 từ mức 14,1 nghìn tỷ won của một năm trước đó.
Bộ nhớ đóng một vai trò thiết yếu trong việc kích hoạt các phiên bản tinh vi hơn của các công cụ trực tuyến dựa trên AI như ChatGPT của OpenAI, có thể tạo ra các phản hồi giống như con người từ các lời nhắc. Hoạt động song song với các đơn vị xử lý đồ họa do Nvidia sản xuất, chip bộ nhớ giúp tăng tốc thời gian tính toán và do đó rất quan trọng để xây dựng các ứng dụng AI nhanh hơn và phức tạp hơn.
Nhưng cú hích ban đầu từ việc đổ xô vào các dịch vụ AI tổng quát vẫn chưa đủ để vượt qua sự suy thoái công nghệ rộng lớn hơn đã làm giảm doanh số bán dẫn, bao gồm cả bộ nhớ.
SK Hynix dự kiến sẽ báo lỗ hoạt động 2,8 nghìn tỷ won trong quý từ tháng 4 đến tháng 6, với doanh thu trong kỳ giảm 53% so với cùng kỳ xuống còn 6 nghìn tỷ won, theo Fact set.
Samsung và SK Hynix sẽ công bố doanh thu đầy đủ của họ vào cuối tháng này.
Vào tuần trước, Sanjay Mehrotra , giám đốc điều hành của Micron Technology, cho biết các công cụ AI tổng quát như ChatGPT đã thúc đẩy nhu cầu về bộ nhớ và lưu trữ cho các máy chủ AI cao hơn mong đợi trong quý gần đây nhất.
Nhưng Micron có trụ sở tại mỹ, đứng thứ 3 trong lĩnh vực kinh doanh bộ nhớ, đã báo cáo khoản lỗ ròng 1,9 tỷ USD và doanh thu giảm 57% so với cùng kỳ năm ngoái trong quý kết thúc vào ngày 1/6.
Năm nay, doanh thu toàn cầu cho tất cả các loại chip được dự đoán sẽ giảm khoảng 10% xuống còn 515 tỷ USD, theo Thống kê Thương mại Chất bán dẫn Thế giới. Là một hạng mục, chip bộ nhớ đang chuẩn bị cho sự sụt giảm tồi tệ nhất trong số các loại chất bán dẫn chính, với doanh thu dự kiến sẽ giảm 35% xuống còn 84 tỷ USD, WSTS dự đoán.
Giá chip bộ nhớ, được thương mại hóa nhiều hơn so với các loại chất bán dẫn khác, bắt đầu giảm mạnh từ nửa cuối năm ngoái và tiếp tục trượt dốc trong năm nay do dư cung. Trong quý từ tháng 4 đến tháng 6, giá hợp đồng của hai loại bộ nhớ chính là DRAM và NAND flash đã giảm theo quý lần lượt là 21% và 13%, theo dự báo của Bernstein Research.
Lạm phát và những bất ổn kinh tế vĩ mô đã khiến người tiêu dùng và doanh nghiệp cắt giảm mạnh chi tiêu cho điện thoại thông minh, PC và máy chủ, tất cả đều thúc đẩy doanh số bán chip.
Nhưng tương lai có vẻ tươi sáng hơn. Trí tuệ nhân tạo AI sẽ hướng doanh số bán hàng nhiều hơn đến các dạng bộ nhớ thế hệ tiếp theo và mang lại nhiều lợi nhuận hơn. Và điều tồi tệ nhất của tình trạng sụt giảm doanh số bán hàng hiện tại có thể sớm kết thúc, các giám đốc điều hành ngành công nghiệp bộ nhớ cho biết, khi khách hàng tiếp tục mua hàng sau một thời gian điều chỉnh hàng tồn kho và cắt giảm sản xuất và đầu tư giúp làm thay đổi động lực cung-cầu theo hướng có lợi cho họ.
Samsung, SK Hynix và Micron đều đã ra mắt các loại DRAM thế hệ tiếp theo, một loại bộ nhớ chính, được nhắm mục tiêu sử dụng trong các hệ thống AI. Được gọi là "bộ nhớ băng thông cao", HBM xếp chồng nhiều lớp DRAM thành một, sau đó có thể đóng gói thành một đơn vị với các đơn vị xử lý đồ họa do Nvidia và các hãng khác sản xuất. Điều đó cho phép một lượng lớn dữ liệu di chuyển giữa bộ nhớ và bộ xử lý cùng một lúc. Thời gian để dữ liệu di chuyển giữa hai chip cũng giảm. Điều đó dẫn đến tốc độ và hiệu quả tính toán được cải thiện.
Theo SemiAnalysis, một công ty tư vấn ngành công nghiệp chip, HBM đắt hơn khoảng 5 lần so với chip DRAM tiêu chuẩn, mang lại tổng lợi nhuận lớn hơn cho các nhà sản xuất. Ngày nay, HBM chiếm chưa đến 5% doanh thu bộ nhớ trên toàn thế giới, nhưng dự kiến sẽ chiếm hơn 20% tổng doanh thu vào năm 2026, SemiAnalysis dự đoán.
SK Hynix là nhà cung cấp HBM hàng đầu cho Nvidia và kiểm soát khoảng một nửa thị trường vào năm ngoái, theo TrendForce, một công ty nghiên cứu thị trường công nghệ có trụ sở tại Đài Loan. Samsung chiếm 40% thị trường HBM và Micron có 10%.
Giám đốc tài chính của SK Hynix, Kim Woo-hyun, cho biết trong một cuộc gọi thu nhập vào tháng Tư, SK Hynix dự kiến doanh thu HBM của họ trong năm 2023 sẽ tăng hơn 50% so với cùng kỳ năm trước và dự kiến sẽ tăng thêm trong những năm tới. Samsung cũng đã chỉ ra sự gia tăng của các ứng dụng AI như ChatGPT như một động lực tích cực cho nhu cầu bộ nhớ trong tương lai.
Các nhà phân tích tại Citi cho biết trong một lưu ý gần đây cho các nhà đầu tư, tỷ lệ doanh thu DRAM trên toàn thế giới liên quan đến AI được dự đoán sẽ tăng từ 16% trong năm nay lên 41% vào năm 2025.
(Nguồn: WSJ)
Tin liên quan
Chủ đề liên quan
Advertisement
Advertisement