企業需建構專屬AI應用 方能將AI科技轉化成經營助力 提升企業競爭力
(中央社訊息服務20250512 16:47:43)COMPUTEX系列論壇活動 - AI NEXT FORUM下午場「AI生態系的新金礦–企業AI中心」
亞洲指標 B2B 科技專業展 COMPUTEX 與新創特展 InnoVEX 主辦單位之一 TCA(台北市電腦公會)表示,生成式 AI(GenAI)與多模態AI(Multimodal AI)模型不斷推陳出新,已讓各行各業必須直接面對AI科技數位轉型的迫切壓力,McKinsey & Company日前發布的 Superagency in the Workplace 研究報告更表示,AI 科技帶來的長期發展機會上看4.4兆美元,企業受影響對象將涵蓋企業主管、企業員工甚至是企業營運模式,AI科技對百工百業的影響,就跟蒸汽機對19世紀工業革命的影響一樣無遠弗屆。
為讓各大產業主管與相關 ICT 產業人士,更加了解在 AI 2.0 時代下的雲地端AI應用,進而依照企業營運特性規劃 AI 導入策略,TCA 於 5 月 6 日假台北漢來飯店辦理「COMPUTEX系列論壇活動 – AI NEXT FORUM」,下午場聚焦「AI生態系的新金礦 - 企業AI中心」,邀請資策會產業情報研究所(MIC)所長洪春暉、研華嵌入式事業群總經理張家豪、華碩共同執行長胡書賓、雙鴻董事長林育申、台達電源及系統事業群副總裁暨總經理陳盈源等產業專家,從AI 2.0技術突破、邊緣AI賦能機器人產業創新、AI基礎設施與AI數據中心建置、AI運算系統的電力與散熱解決方案等面向進行專題演講。TCA並邀請英特爾、永擎電子、卓越電子、智捷科技等多家科技大廠,現場展示英特爾新一代 Intel Core Ultra 與 Intel Xeon 處理器、NVIDIA Blackwell 企業 AI 伺服器、AI 邊緣監控整合盒、AI 邊緣運算平台等產品,國科會晶創競賽(ICTGC)也在現場介紹第三梯次徵案。
企業需建構專屬AI應用 方能將AI科技轉化成經營助力 進而提升企業競爭力
台北市電腦公會榮譽理事長童子賢致詞時指出,台灣在這一場AI的進步和革命中沒有缺席,也不能缺席,台灣一直是全球數位科技產業的重要夥伴、參與者和合作者,從40年前的個人電腦萌芽,到網路誕生,到進入能感測與智慧AIOT年代,一直進展到如今這一波AI應用。AI是另外一個里程碑,當AI打造完成基礎後,接下來就是要進入應用的年代,預期未來幾年會逐漸讓AI高度成長,跟浸潤式瀰漫在我們科技產品的身邊,十年後的世界就不用刻意去強調AI,就如同現在的世界不用特別去強調網路,因為網路已經無所不在。
童子賢表示,今天要探討的就是企業如何打造自己的AI中心,讓企業在這一篇AI革命中不要落後。向來台灣產業過往有個被批評的點,就是重生產、輕應用,重硬體製造、輕軟體研發。首先是算力,在AI這一波發展中,台灣在AI基礎結構跟硬體製造上有目共睹,尤其半導體產業、電路板、系統、機櫃製造上扮演全球AI算力關鍵核心角色。演算法的突破對AI發展很重要,這一波是2017年Transformer演算法起來,被實現在2022年OpenAI所發表ChatGPT 的GPT-3.5被引爆,當然ChatGPT只是大潮流下的引爆點之一,但是全世界對於AI的發展熱潮就被帶動起來了。
童子賢認為,在算力跟演算法之後,就是大數據的發展,而大數據不會掌握在一個人的手上或一個領域的手上,將牽涉到應用,不同的領域有不同的應用。發展AI的幾個條件,算力、演算法、大數據,條件已經成熟到可以把AI從理論推向各個應用場域的階段。所以下午的論壇會注重在,企業如何建構自己的AI應用,如何將科技的熱潮,轉化成企業經營的助力,進而提升自己的競爭力。
AI以人為中心 在生活與產業中落地 邊緣資料中心與AI終端裝置將提升市場接受度
資策會產業情報研究所(MIC)所長洪春暉在「AI新局,台灣AI軟硬體現況與展望」主題演講中點出,生成式AI朝向更大參數規模的大型語言模型(LLM)或專用領域的小型語言模型(SLM)發展,由於開源版本大量釋出,表現已經接近非開源模型。而AI應用發展趨勢中,AI將以人為中心,在生活與產業中落地生根,包括AI Agent、AI+終端裝置、AI賦能人形機器人等。至於AI應用落地與場域則相當多元化,目前在台灣的案例已經包括:病理診斷(雲象科技)、協作機器人(達明機器人 Techman Robot)、軟體定義工廠(MetAI)、風險帳戶警示(富邦銀行)、動畫創作(智寶國際)等多樣化場域。
展望2025市場發展,洪春暉指出AI算力需求帶動雲端資料中心擴建,AI PC換機潮與應用成熟進一步推動終端市場成長,並認為DeepSeek將帶動一波創新AI模型,短期雖影響大型資料中心建置規劃,卻也提供邊緣資料中心與AI終端裝置的採用新思維,預估將提升市場接受度。AI運算需求也將促進半導體先進製程、先進封裝與記憶體技術進步,讓科技大廠開發彈性組合的AI晶片,進而滿足Edge AI應用的少量多樣需求,創造更多Edge AI應用。
以邊緣運算平台與機器人核心架構 加速廠商開發多元應用場域的機器人解決方案
研華嵌入式事業群總經理張家豪在「邊緣 AI 賦能機器人產業創新」主題演講中表示,全球 AI 與邊緣運算科技快速發展,2032 年全球 Edge AI 市場規模上看 1436 億美元,而且應用領域涵蓋智慧製造、機器人、健康照護、智慧城市等場域;而在熱門的機器人領域當中,包括 AGV、AMR、機器手臂、巡檢機器人、服務型機器人、人形機器人等都需要 Edge AI 的技術。由於廠商開發機器人需要整合各類邊緣 AI 運算、感測模組軟硬體零組件,因此研華提出一套機器人核心架構,包括各項技術模組 (Building Blocks),包含 Edge AI Platform 的決策核心平台、感知與控制模組、系統整合能力,以支持機器人產業發展,除此之外,同步提供 Robotic Suite 軟體開發套件,加速產業機器人開發並落地上市,並持續提供更先進的 Edge Computing 平台,將 AI 技術導入,Edge + AI 將成為 Edge Computing 標準配備。
除了雲端資料中心持續發展,企業數據隱私安全與高效率小型語言模型快速發展 也加速企業本地AI資料中心建置需求
華碩共同執行長胡書賓在「AI數據中心佈局與發展」主題演講中指出,不管是大型語言模型的發展或是AI技術應用場域的推進,從Generative AI,朝向具備推裡規劃能力的Agentic AI,到能感知及回應實際物理世界的Physical AI,最後朝向人工智慧的終極聖杯- AGI通用人工智慧方向前進都成為AI data center市場成長的主要驅動力,包括雲端與本地端。華碩擁有完整的軟硬體研發能力、客製化彈性,為客戶提供end-to-end從硬體、軟體、平台軟體到建置、維運服務的AI server數據中心全方位解決方案。華碩從2011年起,已在台灣完成多座中大型 AI 資料中心建置,2024年更參與台灣最大的AI超算中心「Ubilink」,其算力高達到45.82 PFLOPs,累積了從設計到部署的完整解決方案,並具備L10到L12系統階段能力。
此外,由於企業對數據隱私安全和本地運算需求提高,再加上近年來高效率的小型語言模型如DeepSeek R1、LLaMA 4 Scout、Microsoft Phi-4等快速發展,使得小型化高效能的本地 AI 部署成為企業AI資料中心新趨勢,因此華碩對應推出各類本地AI資料中心用AI伺服器,包括4U、2U、1U、工作站與超小型桌面級AI超級電腦Ascent GX10(GB10),主要執行微調過的LLM或SLM,應用在如企業內部知識管理、AI 助理以及文件檢索增強生成(RAG)等場景,華碩並提供業界首創的 Multi-LM Tuner 工具,可以在本地資料中心直接進行語言模型微調,提升數據中心的運行效率與穩定性,並讓語言模型更能符合企業本地AI運算需求。
AI晶片TDP持續快速增加 推動AI資料中心全面導入液冷散熱趨勢不可逆
雙鴻董事長林育申在「AI基礎設施與先進散熱技術」主題演講中表示,當算力即國力成為各國AI軍備競賽趨勢,使得AI基礎設施需求持續增加,預估2028年全球市場規模上看900億美元。由於新AI伺服器耗電量大增,而且一台AI機櫃的散熱部分佔總體耗電量高達39%,再加上液冷散熱PUE(電源使用效率)遠低於傳統氣冷散熱,使得未來AI機房朝向液冷發展趨勢不可逆,因為液冷可有效降低AI資料中心整體用電量。
林育申也指出,液冷散熱技術的快速發展,也是因應AI伺服器用電量大幅增加的關係,以NVL 32為例,耗電量為55kW,所以還能用氣冷散熱,但是到NVL 72,耗電量增加至132kW,就一定要採用液冷方案,而未來的機櫃版本耗電量甚至上看300kW以上,如果沒有更先進的液冷散熱技術,就無法解決新AI晶片TDP(熱設計功耗)快速成長的散熱問題。
提升AI資料中心端到端能效 高功率機架式電容模組可穩定用電負載
台達電源及系統事業群副總裁暨總經理陳盈源在「AI運算挑戰 - 電力和散熱解決方案」主題演講中直接點出,隨著AI算力持續提升,AI資料中心用電量也持續上升。Gartner報告指出2024年全球AI資料中心耗電量達261TWh,接近台灣2024年用電總量283TWh,使得AI資料中心用電需求規劃已成為擴建AI資料中心的重要關鍵。因此台達透過解析從AI晶片到資料中心用電需求,設計出AI資料中心電網到晶片(Grid-to-Chip)完整電源解決方案,並且提供L2A CDU、L2L CDU等不同散熱解決方案。
陳盈源表示,在傳統AC供電資料中心架構中,在經過基礎設施、機櫃到伺服器,端到端能效約為87.6%,而且負載快速變動會對電網產生衝擊。因此台達設計出高功率機架式電容模組(PCS),其內建鋰離子電容,能夠進行快速充放電,透過削峰填谷的方式確保用電負載平穩。而為了提升用電效率,台達為AI資料中心推出創新高壓直流(HVDC)電源架構,也就是將中壓電網(10 kVAC ~ 33 kVAC)變壓至800 VDC,然後搭配電源機櫃與機架式電容機櫃穩定負載,再使用DC-DC轉換模組降壓至AI晶片需求的0.65V,簡化AC-DC轉換過程,即可把端到端能效提升至89%~92%,大幅提高AI資料中心能源效率。
AI NEXT FORUM中英文版活動影片已上傳至COMPUTEX Youtube影音頻道
>>COMPUTEX系列論壇活動 - AI NEXT FORUM中文版影片(【COMPUTEX 2025】AI NEXT FORUM- Cloud x Edge AI x Data Center - Chinese Version)
https://youtu.be/BmLiHItX2Cw
>>COMPUTEX系列論壇活動 - AI NEXT FORUM英文版影片:【COMPUTEX 2025】AI NEXT FORUM- Cloud x Edge AI x Data Center - English Version)
https://youtu.be/k9ZR96VSSYY
完成 COMPUTEX 與 InnoVEX 2025預先登錄 可獲免費入場觀展資格
為協助海內外買主與專業人士獲得 COMPUTEX 與 InnoVEX 最新動態與入場觀展資格,預先登錄系統已於日前正式開放,歡迎海內外買主與專業人士上網預先登錄,通過審核專業人士將可獲得免費入場觀展資格,主辦單位也將透過網站與電子報提供 COMPUTEX 與 InnoVEX 展會活動與展商產品最新資訊。COMPUTEX 與 InnoVEX 2025 預先登錄網址為 https://www.computexonline.com.tw/。
■《關於COMPUTEX TAIPEI及InnoVEX》
COMPUTEX TAIPEI 是台北市電腦公會施振榮理事長任內開辦及命名,1985 年邀請外貿協會共同主辦。InnoVEX 是兩會 2016 年開辦的新創展會,以科技新創公司為核心,透過多元展覽形式與媒合平台,加速 ICT 產業創新,並協助各階段新創尋找商業夥伴,期盼打造具影響力的全球新創生態圈。