近期,OpenAI 宣布了一項(xiàng)備受矚目的計(jì)劃,即在今年夏季初推出自 GPT-2 之后的首個(gè)開源語(yǔ)言模型。這一消息引發(fā)了業(yè)界的廣泛關(guān)注,關(guān)于該模型的細(xì)節(jié)也逐漸被披露。
據(jù)知情人士透露,OpenAI 研究副總裁 Aidan Clark 正親自掛帥,領(lǐng)導(dǎo)這一開源模型的開發(fā)工作。盡管仍處于早期階段,但公司對(duì)該模型寄予厚望,期望其在推理能力上能夠超越現(xiàn)有的開源推理模型。值得注意的是,該模型將采用極為寬松的許可協(xié)議,幾乎不對(duì)使用或商業(yè)化設(shè)置任何限制,這一舉措顯然是為了避免像 Llama 和谷歌的 Gemma 等開源模型因限制過多而引發(fā)的社區(qū)爭(zhēng)議。
OpenAI 此舉的背景是,近年來(lái)面臨著來(lái)自競(jìng)爭(zhēng)對(duì)手的巨大壓力。中國(guó)的 DeepSeek 等公司采用開源策略,迅速取得了顯著成功。這些競(jìng)爭(zhēng)對(duì)手將模型提供給 AI 社區(qū)進(jìn)行實(shí)驗(yàn),甚至允許商業(yè)化使用,這一策略已被證明極為有效。例如,meta 在其 Llama 系列開源 AI 模型上投入巨大,并宣布該系列模型的下載量已超過 10 億次。DeepSeek 也迅速積累了大量全球用戶,并吸引了國(guó)內(nèi)投資者的廣泛關(guān)注。
據(jù)了解,OpenAI 的開源模型將采用“輸入文本,輸出文本”的模式,并可能允許開發(fā)者自由開啟或關(guān)閉其“推理”功能。雖然開啟推理功能可以提高模型的準(zhǔn)確性,但也會(huì)增加延遲。如果此次發(fā)布反響良好,OpenAI 可能會(huì)繼續(xù)推出更多模型,包括更小型的版本,以滿足不同用戶的需求。
然而,OpenAI 首席執(zhí)行官 Sam Altman 此前曾在公開場(chǎng)合表示,他認(rèn)為 OpenAI 在開源技術(shù)方面“站在了歷史的錯(cuò)誤一邊”。他在一次 Reddit 問答中坦言:“我個(gè)人認(rèn)為我們需要制定不同的開源策略。但并非 OpenAI 的每個(gè)人都認(rèn)同這一觀點(diǎn),這也不是我們當(dāng)前的首要任務(wù)?!北M管如此,OpenAI 仍然決定推出這一開源模型,并計(jì)劃對(duì)其進(jìn)行嚴(yán)格的“紅隊(duì)測(cè)試”和安全評(píng)估。
為了確保模型的安全性和可靠性,OpenAI 計(jì)劃為該模型發(fā)布一份詳細(xì)的技術(shù)報(bào)告,即模型卡。這份報(bào)告將展示 OpenAI 內(nèi)部和外部的基準(zhǔn)測(cè)試及安全測(cè)試結(jié)果,以便用戶了解模型的性能和潛在風(fēng)險(xiǎn)。Altman 在上個(gè)月的一篇帖子中表示:“在發(fā)布之前,我們將根據(jù)我們的準(zhǔn)備框架評(píng)估這一模型,就像對(duì)待其他任何模型一樣。鑒于我們知道該模型在發(fā)布后可能會(huì)被修改,我們還將進(jìn)行額外的工作?!?/p>
然而,OpenAI 在模型安全測(cè)試方面的做法也引發(fā)了一些 AI 倫理學(xué)家的批評(píng)。有批評(píng)指出,OpenAI 在對(duì)近期模型進(jìn)行安全測(cè)試時(shí)顯得過于匆忙,且未公布其他模型的模型卡。Altman 還被指控在 2023 年 11 月短暫被解職之前,誤導(dǎo)了 OpenAI 高管關(guān)于模型安全審查的情況。這些爭(zhēng)議無(wú)疑給 OpenAI 的開源計(jì)劃增添了一些不確定性。