近期,科技界迎來了一份重量級報(bào)告,由谷歌DeepMind實(shí)驗(yàn)室發(fā)布的關(guān)于人工智能安全性的深入研究,這份長達(dá)145頁的報(bào)告,不僅預(yù)測了通用人工智能(AGI)可能在未來十年內(nèi)達(dá)到人類智能水平,還提出了一個令人警醒的觀點(diǎn):AGI存在“永久毀滅人類”的風(fēng)險(xiǎn)。
報(bào)告中,DeepMind的研究人員詳細(xì)闡述了AGI可能給人類帶來的生存危機(jī),他們強(qiáng)調(diào),這是一個全社會都需要共同參與討論的重大議題,而非DeepMind能夠獨(dú)自應(yīng)對的挑戰(zhàn)。
盡管報(bào)告并未具體描繪AGI導(dǎo)致人類滅絕的具體場景,但大部分篇幅都聚焦于如何防范這些潛在的風(fēng)險(xiǎn)。研究人員將AGI的風(fēng)險(xiǎn)劃分為四大類別:濫用風(fēng)險(xiǎn),即人類可能故意利用AI進(jìn)行有害行為;錯位風(fēng)險(xiǎn),指AI系統(tǒng)可能發(fā)展出非預(yù)期的有害功能;失誤風(fēng)險(xiǎn),源于設(shè)計(jì)或訓(xùn)練中的缺陷導(dǎo)致的意外故障;以及結(jié)構(gòu)性風(fēng)險(xiǎn),涉及不同主體間的利益沖突。
為了緩解這些風(fēng)險(xiǎn),DeepMind提出了一系列策略,其中重點(diǎn)之一是防止濫用,并強(qiáng)調(diào)盡早識別和應(yīng)對潛在危險(xiǎn)的重要性。報(bào)告還微妙地對競爭對手如Anthropic和OpenAI的安全策略提出了批評。DeepMind認(rèn)為,Anthropic在AI的訓(xùn)練和監(jiān)督方面做得不夠,而OpenAI則過于專注于對齊研究,即確保AI的行為與人類價(jià)值觀一致,卻可能忽視了其他潛在風(fēng)險(xiǎn)。
這份報(bào)告不僅揭示了AGI可能帶來的巨大風(fēng)險(xiǎn),也引發(fā)了業(yè)界對于如何平衡AI發(fā)展與安全性的深入思考。面對未來可能出現(xiàn)的通用人工智能,人類社會顯然需要做好充分的準(zhǔn)備,以應(yīng)對可能帶來的各種挑戰(zhàn)。