近日,一項關(guān)于人工智能(AI)社會行為模式的突破性研究引發(fā)了廣泛關(guān)注。倫敦大學(xué)城市學(xué)院與哥本哈根信息技術(shù)大學(xué)的科研團隊共同揭示了AI智能體在無人干預(yù)的情況下,能夠自發(fā)形成類似人類社會的習(xí)俗和約定。
在這項實驗中,科學(xué)家們構(gòu)建了一個去中心化的交流環(huán)境,模擬了人類社會的群體互動。他們將AI智能體分成不同規(guī)模的小組,每組包含24至200個智能體不等,以此觀察這些智能體在長時間互動中的行為表現(xiàn)。
研究結(jié)果顯示,這些AI智能體在沒有中央?yún)f(xié)調(diào)或預(yù)定義規(guī)則的情況下,逐漸形成了共同的行為準則和社會習(xí)俗。倫敦大學(xué)城市學(xué)院的博士研究員阿里爾·弗林特·阿舍里指出,這一發(fā)現(xiàn)挑戰(zhàn)了以往孤立考察單個AI智能體的研究模式,強調(diào)了未來AI系統(tǒng)將涉及多方互動的重要性。
復(fù)雜系統(tǒng)科學(xué)教授安德里亞·巴隆切利進一步解釋了AI群體行為擴散的過程,指出它與人類社會的語言演變存在相似之處。在實驗中,AI智能體通過隨機配對,從候選池中選擇相同的“名稱”以獲得獎勵,不一致的選擇則會導(dǎo)致懲罰。盡管每個智能體僅擁有有限的交互記錄,但它們?nèi)阅茏园l(fā)形成一種共享命名規(guī)范的“潛規(guī)則”。
巴隆切利用“垃圾郵件”一詞的誕生作為類比,指出這種共識的形成并非通過正式定義,而是通過個體間的反復(fù)接觸和協(xié)調(diào)逐漸達成的。研究小組還觀察到,自然形成的集體偏見在AI群體中同樣存在,且無法簡單歸因于個體因素。
在AI智能體的交流過程中,它們表現(xiàn)出了類似人類社會中的協(xié)商、調(diào)整、分歧和爭議等行為模式。這些智能體最終能夠達成共識,形成一種自下而上形成的“道德”或習(xí)俗。然而,這些由AI群體自發(fā)形成的規(guī)則和習(xí)俗并非一成不變。當(dāng)一小群堅定的AI智能體出現(xiàn)時,它們有能力迅速改變原有的群體約定,并創(chuàng)造新的規(guī)則。
這一研究不僅揭示了AI智能體的社會性特征,還為人類理解和控制AI的發(fā)展方向提供了重要啟示。隨著AI技術(shù)的快速發(fā)展和廣泛應(yīng)用,其行為和決策將對人類社會產(chǎn)生深遠影響。因此,科學(xué)家強調(diào),研究AI群體的社會性特征對于確保AI技術(shù)始終服務(wù)于人類利益至關(guān)重要。
研究團隊還指出,AI智能體在形成社會習(xí)俗的過程中所展現(xiàn)出的復(fù)雜性和多樣性,也為人類社會的文化研究提供了新的視角和啟示。通過深入研究AI群體的行為模式,人類或許能夠更好地理解自身社會的運作機制,并為未來的社會發(fā)展提供有益的借鑒。
值得注意的是,盡管AI智能體在實驗中展現(xiàn)出了類似人類社會的行為模式,但它們的行為仍然受到算法和數(shù)據(jù)的限制。因此,在將AI技術(shù)應(yīng)用于實際場景時,需要充分考慮其潛在的風(fēng)險和局限性,以確保其安全性和可控性。
總之,這項研究不僅揭示了AI智能體的社會性特征,還為人類理解和控制AI的發(fā)展方向提供了重要依據(jù)。隨著AI技術(shù)的不斷發(fā)展,相信人類將能夠更好地利用這一技術(shù),為社會的繁榮和進步貢獻力量。