近期,科技界對(duì)AI搜索工具的表現(xiàn)引發(fā)了廣泛關(guān)注。據(jù)科技媒體theregister報(bào)道,盡管AI搜索工具如Perplexity曾一度被視為傳統(tǒng)搜索引擎的有力競(jìng)爭(zhēng)者,其搜索結(jié)果在精確度上甚至超越了谷歌,但近期的版本更新卻使得這些工具的搜索質(zhì)量出現(xiàn)了下滑。
這一問題并非Perplexity所獨(dú)有,其他主流的AI搜索工具同樣存在類似的問題。theregister認(rèn)為,AI搜索質(zhì)量下降的根本原因在于“模型崩潰”。這一現(xiàn)象指的是AI系統(tǒng)由于過度依賴自身輸出的數(shù)據(jù)進(jìn)行訓(xùn)練,導(dǎo)致其準(zhǔn)確性、多樣性和可靠性逐漸喪失。模型崩潰主要由三個(gè)因素導(dǎo)致:錯(cuò)誤累積、稀有數(shù)據(jù)丟失以及反饋循環(huán)。
錯(cuò)誤累積意味著每一代AI模型都會(huì)繼承并放大前代模型的缺陷,導(dǎo)致問題不斷累積,難以解決。稀有數(shù)據(jù)丟失則使得一些罕見事件和概念在AI模型的訓(xùn)練中逐漸被淡化,導(dǎo)致模型在處理這些事件和概念時(shí)表現(xiàn)不佳。而反饋循環(huán)則強(qiáng)化了AI模型的狹窄模式,導(dǎo)致輸出結(jié)果重復(fù)或帶有偏見。
為了提升AI的表現(xiàn),業(yè)界引入了檢索增強(qiáng)生成(RAG)技術(shù),使大型語言模型(LLMs)能夠從外部數(shù)據(jù)庫提取信息,以減少“幻覺”現(xiàn)象的發(fā)生。然而,彭博社的研究卻發(fā)現(xiàn),即使采用了RAG技術(shù),包括GPT-4o、Claude-3.5-Sonnet等在內(nèi)的11個(gè)領(lǐng)先模型在處理5000多個(gè)有害提示時(shí),仍然會(huì)輸出錯(cuò)誤結(jié)果。
更糟糕的是,RAG技術(shù)的引入還帶來了其他風(fēng)險(xiǎn)。例如,它可能泄露客戶的隱私數(shù)據(jù),生成誤導(dǎo)性的市場(chǎng)分析及偏見投資建議。這些問題無疑進(jìn)一步加劇了AI搜索工具所面臨的信任危機(jī)。
AI模型崩潰的后果正在逐漸顯現(xiàn)。由于用戶和企業(yè)為了追求效率,越來越傾向于依賴AI生成的內(nèi)容,而不是投入人力創(chuàng)作高質(zhì)量的內(nèi)容,這導(dǎo)致了“垃圾輸入、垃圾輸出”(Garbage In / Garbage Out,GIGO)現(xiàn)象的普遍存在。從學(xué)生作業(yè)到偽造科研論文,甚至虛構(gòu)小說,AI的濫用正在各個(gè)領(lǐng)域造成不良影響。
AI模型崩潰還可能導(dǎo)致一些更嚴(yán)重的后果。例如,在醫(yī)療、金融等關(guān)鍵領(lǐng)域,如果AI搜索工具無法提供準(zhǔn)確可靠的信息,可能會(huì)導(dǎo)致誤診、金融欺詐等嚴(yán)重后果。因此,業(yè)界需要高度重視AI模型崩潰的問題,采取有效措施加以解決。
為了應(yīng)對(duì)AI模型崩潰的挑戰(zhàn),業(yè)界正在積極探索新的解決方案。例如,一些研究人員正在嘗試通過引入更多的外部數(shù)據(jù)和監(jiān)督訓(xùn)練來提高AI模型的準(zhǔn)確性和可靠性。同時(shí),也有學(xué)者提出,應(yīng)該加強(qiáng)對(duì)AI模型的監(jiān)管和評(píng)估,確保其在實(shí)際應(yīng)用中的表現(xiàn)符合預(yù)期。
總之,AI搜索工具的發(fā)展仍然面臨諸多挑戰(zhàn)和問題。盡管這些工具在某些方面表現(xiàn)出色,但在實(shí)際應(yīng)用中仍然存在諸多不足和缺陷。因此,我們需要保持對(duì)AI技術(shù)的審慎態(tài)度,不斷探索和完善其應(yīng)用方式和方法。