近期,英國《衛(wèi)報》報道了一項引人深思的研究發(fā)現(xiàn),麻省理工學院的AI安全領域專家馬克斯·泰格馬克提出了一項令人警醒的預測。他參考了美國物理學家阿瑟·康普頓在“三位一體”核試驗前的概率計算方法,對高度發(fā)達的AI可能帶來的生存威脅進行了評估。
據悉,康普頓在1945年推進歷史性核試驗前,曾確認原子彈引發(fā)大氣層燃燒的可能性極低。泰格馬克借鑒這一思路,與三位麻省理工學生共同發(fā)表了一篇論文,其中提出了一個類似的概念——“康普頓常數(shù)”,用以衡量強AI失控的概率。
泰格馬克強調,AI企業(yè)不應僅憑直覺行事,而應通過嚴謹?shù)挠嬎銇碓u估“人工超級智能”(ASI)失控的風險。他指出,就像康普頓在確認失控核聚變幾率極低后才批準核試驗一樣,打造超級智能的公司也必須計算出具體的失控概率,即“康普頓常數(shù)”。他說:“光說‘我們有信心’是不夠的,必須拿出具體數(shù)據?!?/p>
泰格馬克進一步提出,如果多家公司能夠聯(lián)合起來計算這一常數(shù)并形成共識,將有助于在全球范圍內推動AI安全機制的建立。他認為,這樣的合作對于確保AI技術的安全發(fā)展至關重要。
作為麻省理工學院的物理學教授及AI研究者,泰格馬克不僅是這一研究的推動者,還是致力于AI安全發(fā)展的非營利組織“未來生命研究所”的創(chuàng)辦者之一。2023年,該機構發(fā)布了一封公開信,呼吁暫停開發(fā)更強大的AI系統(tǒng)。這封信迅速獲得了超過3.3萬人的簽名支持,其中包括知名企業(yè)家埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克。
公開信中警告說,各大實驗室目前正陷入一場“失控競賽”,競相開發(fā)越來越強大的AI系統(tǒng)。然而,這些系統(tǒng)卻“人類無法理解、預測或可靠控制”,從而帶來了巨大的潛在風險。泰格馬克及其團隊的研究和呼吁,無疑為這一領域的發(fā)展敲響了警鐘。