國際科技大廠競爭生成式AI後端的大型語言模型(LLM)技術,Google今年初推出對話機器人Google Bard,領導研發團隊的Google傑出科學家紀懷新昨(16)日表示,以硬體為主力的台灣人才可以積極研究LLM技術與硬體的整合,Google Bard也樂於與擁有少數語言資料庫(如台語、客語)的學者、學術界合作,擴大未來的辨識和多種樣態的資料分析能力。
紀懷新是Google為數不多的「傑出科學家」,在Google帶領「Brain」研發團隊,專注AI架構、人機互動、機器學習、自然語言處理等相關技術研發,2013年至今有700多項成果,應用在Google的多項服務中,包括YouTube的推薦系統、遊戲的深度學習、手機系統的搜尋功能。目前Google Bard與LLM技術應用與研究,也是他團隊研究的項目之一。
紀懷新昨天與台灣媒體分享Google Bard開發的心得。他表示,Bard不斷改進,靠大型語言系統的資料,除翻譯外,現在還可以理解「為何如此翻譯」。未來的AI與大型LLM發展會遇到瓶頸,希望透過導入外部資料、透過用戶互動不斷改進, 希望改善Google Bard的缺點,更為人類生活所用。
他坦言,現在對話式AI存在的限制,包括會有幻覺、回答出現偏差性、使用者會認為「AI有自我感受」,更有不斷被惡意提示攻擊的狀況,透過不斷研究以改善問題。
Google今年初推出的實驗性對話式AI服務Google Bard後,7月起更擴大支援全球包含繁體中文在內的40種語言。紀懷新指出,Google Bard能做出正確的回應,是基於LLM豐富的資料,但收集數據很困難,對於特殊的少數語言,例如台語、客語、原民語等,要建立資料庫更不容易,全球不同地區可能有很多的研究及資料,Google也願意互相合作,以取得品質好的數據。