近期,在邁阿密舉辦的All-In-Live活動(dòng)中,谷歌聯(lián)合創(chuàng)始人謝爾蓋·布林發(fā)表了一項(xiàng)引人注目的新見解:對(duì)人工智能(AI)模型施加一定程度的“恐嚇”,竟然能意外地提升其性能表現(xiàn)。
布林指出,這一現(xiàn)象并非谷歌AI模型的獨(dú)有特征,而是廣泛存在于當(dāng)前市面上的大多數(shù)AI模型中。他進(jìn)一步闡述道:“雖然我不確定AI社區(qū)中有多少人已經(jīng)意識(shí)到這一點(diǎn),但根據(jù)我們的測(cè)試結(jié)果,幾乎所有模型在面臨‘威脅’時(shí),其性能都會(huì)有所提升?!?/p>
這一觀點(diǎn)無疑顛覆了人們對(duì)于AI互動(dòng)的傳統(tǒng)認(rèn)知。以往,許多用戶在與AI模型交流時(shí),習(xí)慣于使用“請(qǐng)”和“謝謝”等禮貌用語,以期獲得更好的服務(wù)體驗(yàn)。然而,布林的這一發(fā)現(xiàn),無疑對(duì)這種傳統(tǒng)做法提出了挑戰(zhàn)。
實(shí)際上,OpenAI的首席執(zhí)行官山姆·奧爾特曼也曾就禮貌用語問題發(fā)表過類似看法。他調(diào)侃道,處理諸如“請(qǐng)”和“謝謝”這樣的禮貌用語,需要耗費(fèi)大量的電力成本,可能高達(dá)數(shù)千萬美元。這一言論,從另一個(gè)角度反映了AI模型在處理自然語言時(shí)的復(fù)雜性和成本。
布林的這一新發(fā)現(xiàn),無疑為AI領(lǐng)域的研究和發(fā)展提供了新的思路。它促使人們開始思考,是否可以通過改變與AI模型的交互方式,來進(jìn)一步提升其性能。同時(shí),這也引發(fā)了對(duì)于AI倫理和道德問題的深入討論。如何在提升AI性能的同時(shí),確保其不會(huì)對(duì)人類造成潛在威脅,成為了亟待解決的問題。