本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

研調:估2030年AI ASIC伺服器出貨占比近40%

2026/3/18 16:15(3/18 17:12 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
研調估2030年AI ASIC伺服器出貨占比近40%。(中央社檔案照片)
研調估2030年AI ASIC伺服器出貨占比近40%。(中央社檔案照片)

(中央社記者潘智義台北18日電)研調機構集邦科技最新AI server研究顯示,隨著以Google、Amazon等雲端服務供應商(CSP)為首的自研晶片態勢擴大,預估特定用途人工智慧伺服器(ASIC AI server)占整體AI伺服器的出貨比例,將從2026年的27.8%上升至2030年的近40%。

集邦科技(TrendForce)表示,在大型雲端服務供應商(CSP)加大自研晶片力道的情況下,輝達(NVIDIA)於GTC 2026技術大會改為著重各領域的人工智慧(AI)推理應用,有別於以往專注雲端AI訓練市場。其推動圖型處理器(GPU)、中央處理器(CPU)以及語言處器(LPU)等多元產品軸線分攻AI訓練、AI推理需求,並藉由Rack整合方案帶動供應鏈成長。

集邦說明,為鞏固在AI市場的領導地位,NVIDIA採取的其中一項策略為積極推動GB300、VR200等整合CPU、GPU的整櫃式方案,強調可擴展至AI推理應用。本次在GTC發表的Vera Rubin被定義為高度垂直整合的完整系統,涵蓋7款晶片和5款機櫃。

觀察Rubin供應鏈進度,集邦預估,2026年第2季記憶體原廠可提供HBM4給Rubin GPU搭載使用,助NVIDIA於第3季前後陸續出貨Rubin晶片。至於NVIDIA GB300、VR200 Rack系統出貨進程,前者已於2025年第4季取代GB200成為主力,預估至2026年出貨占比將達近80%,而VR200 Rack約於2026年第3季底可望逐步展開出貨量能,後續發展仍須視ODM實際進度而定。

另外,AI從生成跨入代理模型時代,在生成Token的解碼(Decode)階段面臨嚴重的延遲與記憶體頻寬瓶頸。為此,NVIDIA整合Groq團隊技術,推出專為低延遲推理設計的Groq 3 LPU,單顆內建500MB SRAM、整機櫃可達128GB。(編輯:張均懋)1150318

支持中央社

選擇與事實站在一起,您的每一份贊助,都是守護新聞自由的力量

小額贊助

下載中央社「一手新聞」APP,即時掌握最新消息

iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

請繼續下滑閱讀
字節跳動、騰訊等採購輝達H200晶片 中國政府據報已准
197