鴻海集團。 聯合報系資料照
鴻海(2317)3月10日宣布推出首款繁體中文AI大型語言模型(LLM),此模型是由輝達(NVIDIA)助攻,並以優異的運算成本,於四周內完成訓練。同時,該模型展現了強大的理解與推理能力,還能針對台灣使用者的語言風格進行優化,並在數學與邏輯推理測試中表現出色,優於Meta目前已經推出的同等級模型。(延伸閱讀:鴻海推繁體中文 AI 大模型 兼具優異的運算成本)
經營策略逐步朝軟硬兼施方向前進
鴻海是全球硬體代工製造龍頭,卻推出軟體應用的LLM,而且近期還把智慧城市的軟體應用,推廣至墨西哥,可以看出,鴻海目前的經營策略,逐步朝向以硬帶軟、軟硬整合的方向前進。
事實上,軟硬兼施早就是鴻海董事長劉揚偉的經營策略之一。劉揚偉認為,台灣產業過於傾斜至硬體製造,相對地,軟體產業市值太小、沒有充分發揮的空間,但軟體產業的發展不僅是台灣的機會,也是全球科技發展的大勢所趨,台灣應該抓住機會,讓軟體成為另一個具備規模效益的產業。因此,鴻海這次推出首款繁體中文AI大語言模型,符合其軟硬兼施的AI策略。
尤其DeepSeek橫空出世之後,打破了美國獨霸全球LLM的天下,一方面開啟了開源模式的AI浪潮,另一方面也開創了低成本的LLM,粉碎了要架構昂貴的資料中心基礎建設,才能打造出LLM的神話。再度凸顯了在新一代AI浪潮之下,只有軟體的革新與創新,才能抓住AI浪潮的商機,並創造出真正的價值。
鴻海研究院AI研究所所長栗永徽帶隊
受到劉揚偉的大力支持之下,鴻海研究院人工智慧研究所所長栗永徽透露,在2024年底的時候,全球LLM巨擘OpenAI 開始從對話型LLM,轉向推理型LLM的研發,是促使鴻海在差不多在同一時間,開始做推理模型的研發。

鴻海AI大語言模型
在今年1月農曆過年期間,栗永徽說:「當時我們已經準備開始大規模訓練FoxBrain的推理能力」,而幾乎在同一天, DeepSeek新聞發布,轟動全世界,這讓我們更加堅定做推理模型的方向是正確的,「今年整個農曆新年一周的假期,我們的研究員在公司上班,每天修改程式碼、資料,微調模型,最後終於把FoxBrain訓練完成」。他說,目前的團隊都是我們AI所博士級研究員,國籍包括台灣、越南。
他強調,完成語言模型的訓練,也不是一帆風順。例如,如何產生足夠多高質量的 training data?如何把參數量很大的模型,分散在多個節點上分散式訓練。如何在訓練時期盡量提高GPU使用率,如何訓練模型不只是做一般的對話,還能夠做到針對困難問題divide and conquer(分而治之),做深度推理。這些都是訓練FoxBrain時所遭遇到的困難。
已可打造比ChatGPT更具優勢的解決方案
至於鴻海的繁體中文AI大型語言模型(LLM),有比ChatGPT厲害嗎?他說,ChatGPT是通才,FoxBrain則是專才。「我們的LLM在台灣相關的學科知識, 已針對關鍵需求做專業微調,因此,在這方面的表現可量身打造,是比ChatGPT更具優勢的解決方案」。不過,我們也持續學習並融入最新技術,讓模型更強大。