預估2024年在大型語言模型(LLM)及「中小語言模型」兩大成長動能下,今年全球AI伺服器出貨量為194萬台。圖/freepik
生成式AI熱潮延燒,資策會產業情報研究所(MIC)今表示,光2023年AI伺服器已達全球伺服器總產值過半,預估2024年在大型語言模型(LLM)及「中小語言模型」兩大成長動能下,今年全球AI伺服器出貨量為194萬台,有利於我國伺服器代工、電源供應器、遠端控制晶片、ABF載板等產業鏈。
台灣伺服器產業出貨量,原本即占全球伺服器超過8成,其中AI伺服器的生產組裝代工更占9成。隨著全球AI伺服器市場持續成長,其占整體伺服器出貨比將從2023年12.4%,成長至2027年20.9%。
因此資策會MIC預估,2024年全球AI伺服器出貨量為194萬台、2025年達236萬台,一路成長至2027年320萬台,年複合成長率(CAGR)為24.7%。這其中包含價格昂貴並採用高階GPU的AI訓練伺服器,以及採用中低階GPU、FPGA、ASIC的AI推論伺服器。
展望2024年,資策會MIC表示,AI伺服器成長的兩大動能主要來自大型語言模型(LLM)的雲端訓練戰場,以及新興主戰場「中小語言模型」。前者如Google將於今年推出Gemini,以及Amazon也在訓練新的LLM。
後者中小語言模型會是2024年新興競爭領域,許多更為客製化、符合運算效率的模型將陸續出現。MIC產業顧問魏傳虔表示,此有利於我國伺服器代工、電源供應器、遠端控制晶片、ABF載板、散熱模組等產業鏈業者營收成長。