2025年,人工智能領域迎來了前所未有的熱潮,AI智能體的廣泛應用被視為科技發(fā)展的里程碑。然而,在這場技術盛宴中,一個名為“AI幻覺”的現(xiàn)象悄然浮現(xiàn),成為不容忽視的隱憂。
AI幻覺,指的是AI系統(tǒng)在面對未知或超出其訓練范圍的問題時,會編造出難以辨真?zhèn)蔚募毠?jié),生成與事實相悖的答案。這種“胡說八道”的能力,讓AI在醫(yī)療、法律、新聞等多個領域引發(fā)了信任危機。例如,今年2月,一組關于“中國80后累計死亡率為5.20%”的數(shù)據(jù)在網(wǎng)絡上廣泛傳播,后經(jīng)證實為AI大模型出錯所致,這一事件引發(fā)了公眾對AI準確性的質疑。
不僅如此,AI大模型還成為了謠言的放大器。從股市“黑嘴”到網(wǎng)絡平臺虛假信息,再到錯誤答案或謠言,AI已經(jīng)形成了一個完整的謠言傳播閉環(huán)。最近,一則關于“超一線明星在澳門輸了10億”的謠言在網(wǎng)絡上瘋傳,最終證實為一名網(wǎng)民利用AI智慧生成功能制作的虛假信息,該網(wǎng)民也因此受到了行政處罰。
AI幻覺的產生,源于多個方面的技術缺陷。首先,基礎訓練數(shù)據(jù)的參差不齊和無法保障的準確度,為AI幻覺埋下了病根。互聯(lián)網(wǎng)語料庫中的錯誤、偏見、虛構或不完整的信息,都會被AI模型學習并復現(xiàn)。其次,AI大模型在設計上更注重生成文本的流暢性,而非事實準確性,這導致AI在遇到冷門問題時,寧可編造細節(jié)也不會回答“我不知道”。最后,AI缺乏人類的常識和物理世界的體驗,無法驗證生成內容是否符合現(xiàn)實邏輯,因此容易生成不合理的內容。
在眾多AI大模型中,DeepSeek的幻覺問題尤為突出。據(jù)Vectara機器學習團隊的研究顯示,DeepSeek-R1的幻覺率高達14.3%,遠超行業(yè)其他推理模型。這與其出色的推理能力密切相關,推理增強的模型在處理復雜推理邏輯時,可能產生更多無法與數(shù)據(jù)源完全匹配的內容。
DeepSeek在撰寫專業(yè)內容時,盡管已經(jīng)要求信源準確,但給出的答案依然差強人意。在醫(yī)療領域,DeepSeek給出了詳細的數(shù)據(jù)及信源,但經(jīng)核查大部分為虛構信息。例如,在回答AI醫(yī)療方面的問題時,DeepSeek提到的Google Vision Transformer ViT-22B的數(shù)據(jù)和信源,實際上是Transformer進階版ViT-G/14在2021年的數(shù)據(jù),被DeepSeek張冠李戴,并以極專業(yè)的表述讓人信服。
AI幻覺的危害已經(jīng)顯現(xiàn),它不僅侵蝕了人類真實世界,還引發(fā)了一場前所未有的信息真實性“戰(zhàn)爭”。據(jù)南都大數(shù)據(jù)研究院發(fā)布的報告,2024年搜索熱度較高的50個國內AI風險相關輿情案例中,超1/5與AI造謠有關。AI謠言已經(jīng)成為社會公害,68%的網(wǎng)民曾因AI生成的“專家解讀”“權威數(shù)據(jù)”而誤信謠言。
為了應對AI幻覺泛濫,技術修補和社會聯(lián)防成為必要手段。技術平臺需要慎重處理互聯(lián)網(wǎng)海量文本篩選,加強數(shù)據(jù)監(jiān)管,確保AI訓練數(shù)據(jù)的真實性和合法性。同時,要通過自然語言處理(NLP)技術,分析數(shù)據(jù)的語義、邏輯結構,識別文本中的矛盾、不合理表述。要合理處理推理能力和準確性的平衡,避免創(chuàng)造力與準確度失衡。
對于內容平臺來說,應該守好內容底線,及時發(fā)現(xiàn)、治理和辟謠AI幻覺產出的內容及利用AI產出的虛假內容。同時,相關法律法規(guī)和政策也需要盡快落實。更重要的是,用戶自己要學會辨別虛假信息,加強防范意識,對AI保持警惕,進行交叉驗證,引導模型輸出真實信息。