近期,埃里克·施密特,這位曾任谷歌CEO的科技巨頭,在一場深度訪談中,對全球AI競賽的格局表達了深切關(guān)注。他指出,西方國家若不及時調(diào)整策略,專注于開源AI模型的研發(fā),恐將在這一關(guān)鍵領(lǐng)域的競賽中落后于中國。
施密特特別提到,當(dāng)前美國AI界的一個顯著問題是,除了meta的Llama模型外,眾多頂級的大語言模型,諸如谷歌的Gemini、Anthropic的Claude以及OpenAI即將推出的GPT-4,均采取了閉源策略。他警告,這種趨勢若持續(xù)下去,可能會導(dǎo)致中國在開源AI領(lǐng)域占據(jù)主導(dǎo)地位,而其他國家則可能被迫局限于閉源技術(shù)。
更進一步,施密特強調(diào)了開源技術(shù)對全球AI研究的重要性。他擔(dān)憂,如果西方國家不加大對開源技術(shù)的投資,將嚴重阻礙其大學(xué)在AI領(lǐng)域的科研進展。高昂的閉源模型費用,可能會讓這些學(xué)術(shù)機構(gòu)望而卻步,難以開展前沿研究。
在展望AI未來的發(fā)展趨勢時,施密特認為,開源與封閉模型的結(jié)合將是決定AI主導(dǎo)權(quán)的關(guān)鍵。盡管美國在AI開發(fā)的第一階段憑借如GPT-4等強大模型取得了領(lǐng)先地位,但他鼓勵歐洲等國家探索新的路徑,比如專注于打造適用于企業(yè)界的AI應(yīng)用程序,以此實現(xiàn)經(jīng)濟效益的最大化。
施密特還提出了一個頗具前瞻性的觀點,即西方國家應(yīng)與中國在AI安全領(lǐng)域展開合作。他指出,面對AI帶來的共同挑戰(zhàn),各國應(yīng)像軍隊測試火箭時分享信息那樣,相互協(xié)作,共同提升AI模型的安全性。他堅信,這種合作不僅有助于增強雙方的AI安全能力,更是推動全球AI健康發(fā)展的重要一步。