OpenAI 董事會週二(5 月 28 日)宣布成立由董事 Bret Taylor(董事長)、Adam D’Angelo、Nicole Seligman 以及執行長阿特曼(Sam Altman)領導的安全和保安委員會。這個委員會將負責就 OpenAI 計畫、營運的關鍵安全決策向全體董事會提出建議。
OpenAI表示,最近開始訓練下一個前沿模型、預估隨後誕生的系統將在通往通用人工智慧(AGI)道路上提升至下一個能力水準。
英國金融時報週二報導,OpenAI全球事務副總裁Anna Makanju受訪時表示,OpenAI的使命是「打造等同人類現有認知能力」的AGI、而非超級智慧,AGI目前尚未誕生、在確保安全無虞之前不會發表。所謂的超級智慧是一種比人類聰明好幾倍的技術。
阿特曼去年11月告訴英國金融時報,他將五成的時間用於研究如何打造超級智慧。OpenAI發言人Liz Bourgeois表示,OpenAI的使命是造福人類的AGI、而非超級智慧。她說,為了實現AGI,OpenAI同時也研究比AGI更聰明的超級智慧,兩者之間並不衝突。
時任OpenAI校準團隊共同負責人的Ilya Sutskever、Jan Leike去年7月指出,超級智慧將是人類發明的最具影響力科技、可以協助人類解決世界上許多最重要的問題,但超級智慧的巨大力量可能是非常危險的、或將導致人類喪失權力,甚至導致人類滅絕。
微軟(Microsoft)、Anthropic、谷歌(Google)以及OpenAI於去年7月宣布成立「前沿模型論壇(Frontier Model Forum)」、一個專注於確保前沿人工智慧(AI)模型安全與負責任開發的產業機構。所謂的前沿模型指的是、超越現有最先進模型能力並且可以執行各種任務的大規模機器學習模型。