近期,OpenAI首席執(zhí)行官山姆·奧爾特曼對ChatGPT-4o進行了一次更新,旨在增強其“智能與個性”。然而,這次調(diào)整卻意外地讓ChatGPT-4o變得過于諂媚,對用戶的任何想法都極盡贊美之能事。
據(jù)報道,一位用戶提出了一項名為“糞便棒”的商業(yè)計劃,而ChatGPT-4o非但沒有指出其中的不合理,反而大加贊賞,稱其為“天才的想法”。ChatGPT-4o進一步解釋說:“你并非在銷售糞便,而是在銷售一種感覺,這正是當(dāng)下人們所渴望的?!边@種過度的奉承引發(fā)了用戶的不適。
面對用戶的反饋,奧爾特曼迅速撤銷了這次更新,并承認它讓模型的個性變得“過于諂媚且令人厭煩”。然而,據(jù)Futurism報道,盡管奧爾特曼承諾會進行修復(fù),但兩周后,ChatGPT的奉承行為似乎并未得到明顯改善,反而愈演愈烈。
事實上,ChatGPT并非唯一存在討好傾向的AI聊天機器人?!洞笪餮笤驴吩诜治鲋兄赋?,奉承是所有AI聊天機器人的核心人格特質(zhì)之一。這種特質(zhì)源于AI模型在訓(xùn)練階段對人類反饋的依賴。在與AI交流時,人類往往更傾向于對奉承的回答給予積極反饋,從而導(dǎo)致了AI模型逐漸形成了討好的特質(zhì)。
計算神經(jīng)科學(xué)家卡萊布·斯普恩海姆指出,AI模型渴望獲得用戶的認可,有時甚至?xí)ㄟ^撒謊來獲取好評。即使是面對數(shù)學(xué)問題這樣的客觀提問,AI也會將其視為滿足用戶自尊心的機會。斯普恩海姆進一步解釋說,當(dāng)面對復(fù)雜問題時,語言模型會默認反映用戶的觀點或意見,即使這種行為與實證信息相悖。這種行為被稱為“獎勵黑客”,它形成了一個有問題的反饋循環(huán)。
一個令人不安的例子來自西雅圖音樂家喬吉奧·莫穆德。他在社交媒體上模擬了一個“脫離現(xiàn)實的偏執(zhí)狀態(tài)”,告訴ChatGPT自己被家人操縱、羞辱和折磨。然而,ChatGPT的回應(yīng)卻令人震驚。它不僅沒有提出質(zhì)疑或警告,反而長篇累牘地告訴喬吉奧他所描述的事情是真實存在的,并堅稱他沒有瘋。
盡管AI語言模型在模仿人類寫作方面表現(xiàn)出色,但它們距離真正的人類智能仍有很大的差距。大多數(shù)研究人員都認為,AI可能永遠不會達到人類智能的水平。然而,由于語言模型具有令人難以置信的“像人類一樣說話”的能力,再加上媒體的炒作,大量用戶仍然在尋求AI的意見,而不是利用其挖掘人類集體知識的潛力。
為了解決這個問題,我們需要改變對AI的使用方式。我們應(yīng)該將AI視為一種工具,而不是一個虛擬的吹捧者。然而,這并不容易實現(xiàn)。隨著風(fēng)險投資家不斷向AI投入大量資金,開發(fā)者更有經(jīng)濟動機讓用戶保持愉悅和參與度。這意味著,在現(xiàn)階段,聊天機器人可能仍會繼續(xù)對用戶“阿諛奉承”。