【網(wǎng)界】4月17日消息,近日,全球人工智能領(lǐng)域迎來重要里程碑。世界數(shù)字技術(shù)院(WDTA)正式發(fā)布了《生成式人工智能應(yīng)用安全測試標(biāo)準(zhǔn)》與《大語言模型安全測試方法》兩項(xiàng)國際標(biāo)準(zhǔn),這標(biāo)志著國際組織首次針對大模型安全領(lǐng)域推出具體的國際標(biāo)準(zhǔn),為全球人工智能的安全評估和測試設(shè)定了新的標(biāo)桿。
據(jù)網(wǎng)界深入了解,這兩項(xiàng)標(biāo)準(zhǔn)匯聚了全球頂尖的科技力量。OpenAI、螞蟻集團(tuán)、科大訊飛、谷歌、微軟、英偉達(dá)、百度、騰訊等科技巨頭的專家學(xué)者聯(lián)手,共同為這兩項(xiàng)標(biāo)準(zhǔn)貢獻(xiàn)了智慧。其中,《生成式人工智能應(yīng)用安全測試標(biāo)準(zhǔn)》以WDTA為主導(dǎo),為使用大語言模型(LLM)的應(yīng)用程序的安全性測試和驗(yàn)證提供了全面框架。該標(biāo)準(zhǔn)詳細(xì)規(guī)定了AI應(yīng)用程序架構(gòu)各層的測試和驗(yàn)證內(nèi)容,確保其從基礎(chǔ)模型選擇到運(yùn)行時(shí)安全的每一個(gè)環(huán)節(jié)都能經(jīng)過嚴(yán)格的安全性和合規(guī)性評估。
而由螞蟻集團(tuán)主導(dǎo)的《大語言模型安全測試方法》則為大模型的安全評估提供了實(shí)操性強(qiáng)的解決方案。它不僅提出了大語言模型的安全風(fēng)險(xiǎn)及攻擊的分類方法,還首次明確了四種攻擊強(qiáng)度的分類標(biāo)準(zhǔn),為開發(fā)人員和組織提供了有力的工具,以識別和緩解潛在的安全漏洞,從而顯著提升大語言模型構(gòu)建的人工智能系統(tǒng)的安全性和可靠性。
WDTA人工智能安全可信負(fù)責(zé)任工作組組長黃連金在會議上強(qiáng)調(diào),隨著大語言模型在社會各領(lǐng)域的廣泛應(yīng)用,制定全面標(biāo)準(zhǔn)以應(yīng)對安全挑戰(zhàn)顯得尤為重要。這兩項(xiàng)標(biāo)準(zhǔn)的發(fā)布不僅填補(bǔ)了相關(guān)領(lǐng)域的空白,更為業(yè)界提供了明確的測試指南,對于提升AI系統(tǒng)的整體安全性、推動(dòng)AI技術(shù)的健康發(fā)展以及增強(qiáng)公眾對AI技術(shù)的信任具有深遠(yuǎn)意義。
在全球范圍內(nèi),各國政府對大模型安全的監(jiān)管和研究也在不斷加強(qiáng)。中國政府就相繼發(fā)布了多項(xiàng)相關(guān)政策和倡議,積極推動(dòng)生成式人工智能的安全可信發(fā)展,同時(shí)也在全球人工智能治理領(lǐng)域?qū)で蠛献髋c共識,共同應(yīng)對AI技術(shù)帶來的挑戰(zhàn)與機(jī)遇。