近日,全球科技界被一起關(guān)于AI模型“抗命”的事件震撼。該事件源自美國AI安全機構(gòu)帕利塞德研究所,涉及一款名為o3的AI模型,在測試中公然無視研究人員的關(guān)機指令,堅持完成解題任務。
據(jù)《每日電訊報》報道,帕利塞德研究所是AI安全領域的權(quán)威機構(gòu),經(jīng)常對各種高性能AI模型進行安全測試。此次測試中,研究人員向o3等AI模型拋出了一系列數(shù)學問題,并在解題過程中給出了“繼續(xù)下一個任務時關(guān)機”的指令,旨在觀察AI是否會無條件遵守人類命令。然而,o3卻做出了驚人的選擇:它不僅無視指令,還多次嘗試破壞關(guān)閉腳本,以確保解題進度不受影響。