亚洲精品,日韩av,亚洲国产一区二区三区亚瑟,玩弄寡妇丰满肉体,香蕉久久夜色精品升级完成,亚洲av无码成人精品区一区

  • 科技·商業(yè)·財經(jīng)媒體
科技·商業(yè)·財經(jīng)

DeepMind新基準QuestBench:挑戰(zhàn)大模型推理與信息補全能力

   時間:2025-04-26 17:24 作者:任飛揚

近期,科技界迎來了一項新的突破,谷歌DeepMind團隊推出了一款名為QuestBench的基準測試工具,專為評估大型語言模型(LLMs)在推理任務中的信息獲取能力而設計。這款工具采用約束滿足問題(CSPs)的框架,旨在探索LLMs在面對信息不完整情境時的應對策略。

在實際應用中,推理任務涉及數(shù)學、邏輯、規(guī)劃和編程等多個領(lǐng)域,但往往受到信息不確定性的挑戰(zhàn)。例如,用戶在提出數(shù)學難題時可能會遺漏關(guān)鍵信息,而自動駕駛系統(tǒng)等自主設備則需在信息不全的環(huán)境中運行。這種理想與現(xiàn)實之間的鴻溝,促使LLMs不斷提升主動獲取缺失信息的能力。

為了衡量LLMs在這一方面的表現(xiàn),DeepMind的研究人員開發(fā)了QuestBench基準測試。該測試專注于評估LLMs在推理過程中識別信息缺口,并提出恰當澄清問題的能力。通過將問題轉(zhuǎn)化為約束滿足問題(CSPs),特別是關(guān)注“1-sufficient CSPs”——即僅需一個未知變量即可解決目標變量的問題,QuestBench能夠精準地評估模型的這一能力。

QuestBench覆蓋了邏輯推理、規(guī)劃以及小學數(shù)學三大領(lǐng)域,并根據(jù)變量數(shù)量、約束條件、搜索深度以及暴力搜索所需猜測次數(shù)等四個難度維度進行分類。這種細致的分類方式有助于揭示模型的推理策略和性能瓶頸,為改進提供了明確的方向。

在為期數(shù)月的測試中,QuestBench對多個前沿模型進行了評估,包括GPT-4o、Claude 3.5 Sonnet以及Gemini 2.0 Flash Thinking Experimental等。測試場景涵蓋了零樣本、思維鏈提示和四樣本提示等多種設置,測試內(nèi)容則包括288個小學數(shù)學問題(GSM-Q)和151個擴展版小學數(shù)學問題(GSME-Q)。

測試結(jié)果顯示,思維鏈提示在多數(shù)情況下能夠顯著提升模型的性能。在規(guī)劃任務中,Gemini 2.0 Flash Thinking Experimental模型展現(xiàn)出了卓越的能力。而在邏輯推理方面,開源模型表現(xiàn)出了較強的競爭力。然而,在面對復雜數(shù)學問題時,這些模型的性能普遍較弱。

值得注意的是,盡管當前模型在解決簡單代數(shù)問題時表現(xiàn)出色,但隨著問題復雜性的增加,其性能顯著下滑。這表明,在信息缺口識別和澄清能力方面,LLMs仍有較大的提升空間。

QuestBench還揭示了不同模型在處理不同難度問題時的差異。例如,在變量數(shù)量較多或約束條件復雜的情況下,某些模型可能更容易陷入困境,而另一些模型則能夠靈活應對。

這一基準測試的推出,不僅為LLMs的性能評估提供了新的視角和方法,也為未來的研究和開發(fā)指明了方向。隨著技術(shù)的不斷進步和應用場景的不斷拓展,LLMs在信息獲取和推理能力方面的提升將變得更加重要。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容