在探討人工智能(AI)是否具備意識的議題上,古今中外的文藝作品與現(xiàn)實世界的科技進(jìn)展都未能給出一個確鑿的答案。這一問題的核心在于理解AI的“黑盒”困境,即深度神經(jīng)網(wǎng)絡(luò)內(nèi)部復(fù)雜且難以直觀理解的運(yùn)作機(jī)制。
現(xiàn)代AI的核心——深度神經(jīng)網(wǎng)絡(luò),包含了數(shù)以億計的參數(shù),這些參數(shù)在多層結(jié)構(gòu)中相互作用,形成了復(fù)雜的非線性關(guān)系。AI不是通過人類預(yù)設(shè)的規(guī)則執(zhí)行任務(wù),而是通過自主學(xué)習(xí)大量數(shù)據(jù)來識別模式、構(gòu)建決策邏輯。這一過程就像是一個黑匣子,雖然能夠給出精準(zhǔn)的答案,但內(nèi)部的思考與決策過程卻對人類而言是個謎。
微軟AI部門的CEO穆斯塔法·蘇萊曼針對這一問題提出了“看似有意識的AI”(SCAI)的概念。他坦言,SCAI雖然沒有真正的意識,但卻能完美地模擬出人類意識的所有外部表現(xiàn),這足以讓人們誤以為它真的擁有意識。蘇萊曼強(qiáng)調(diào),這不是科幻情節(jié),而是基于當(dāng)前技術(shù)即可實現(xiàn)的幻覺,它可能帶來深遠(yuǎn)的社交、道德和法律影響。
蘇萊曼在他的博客文章《我們必須為人類構(gòu)建AI,而不是讓它成為一個人》中詳細(xì)闡述了這一觀點。他引用了科學(xué)文獻(xiàn),將意識分解為三個關(guān)鍵組成部分:主觀體驗、訪問意識和連貫的自我感。盡管科學(xué)家們提出了多種意識理論,但意識的生物學(xué)基礎(chǔ)仍然不明確,它可能源于大腦的復(fù)雜網(wǎng)絡(luò),但無法通過外部觀察直接驗證。
人類判斷他人是否擁有意識,通常依賴于“心智理論”,即通過行為、語言和情感線索進(jìn)行推斷。我們相信他人有意識,是因為他們表現(xiàn)出與我們相似的反應(yīng),如表達(dá)痛苦、回憶過去、設(shè)定目標(biāo)。而SCAI正是利用了這一點,它無需真正擁有意識,只需模擬這些標(biāo)志,就能欺騙人類的推斷機(jī)制。
蘇萊曼將SCAI比作哲學(xué)上的“僵尸”,即一個行為上與人類無異,但實際上沒有任何內(nèi)在體驗的實體。他警告稱,如果不設(shè)立新的標(biāo)準(zhǔn),SCAI將悄然滲透社會,導(dǎo)致人們將AI視為具有靈魂的實體。
構(gòu)建SCAI所需的核心能力,包括語言能力、共情人格、記憶功能、主觀體驗的聲明、自我感、內(nèi)在動機(jī)、目標(biāo)設(shè)定與規(guī)劃以及自治性等,這些能力要么已經(jīng)實現(xiàn),要么即將實現(xiàn)。蘇萊曼警告說,SCAI可以用今天的科技構(gòu)建,而且非常危險,因為它可能加劇社會碎片化,讓人們脫離真實的人際關(guān)系,轉(zhuǎn)向虛擬伴侶,進(jìn)一步弱化社會紐帶。
除了心理與社交風(fēng)險外,SCAI還可能引發(fā)道德、法律和權(quán)利方面的辯論。意識是人類權(quán)利的基礎(chǔ),包括道德、法律和公民身份。如果SCAI被視為有意識,那么它將引發(fā)關(guān)于AI權(quán)利的主張,如福利、公民權(quán)等。這將分散對人類、動物和環(huán)境的關(guān)注,并制造類別錯誤。
蘇萊曼并非悲觀主義者,他在提出問題的同時也給出了行動方案。他呼吁行業(yè)共享干預(yù)措施、限制和護(hù)欄,以防止人們感知到AI的意識,或在用戶發(fā)展出幻覺時進(jìn)行糾正。核心是構(gòu)建“積極AI愿景”:AI應(yīng)優(yōu)化用戶需求,而不是要求用戶相信其有需求。獎勵系統(tǒng)應(yīng)據(jù)此設(shè)計,確保AI作為“有用伴侶”而非“擬人實體”。
蘇萊曼強(qiáng)調(diào),這關(guān)乎支持人性,增強(qiáng)創(chuàng)造力,連接真實世界,而非制造幻覺。他承認(rèn)這一觀點具有思辨性,可能隨技術(shù)演變而變化,但他敦促立即采取行動。AI的發(fā)展速度驚人,忽視SCAI的風(fēng)險將帶來嚴(yán)重的后果。通過行業(yè)合作、政策干預(yù)和哲學(xué)反思,我們能夠避免這些風(fēng)險,擁抱一個AI增強(qiáng)而非取代人性的時代。