近日,字節(jié)跳動旗下的豆包大模型團隊揭曉了其最新思考模型Seed-Thinking-v1.5的技術細節(jié),并宣布該模型將于4月17日通過火山引擎開放接口供用戶體驗。這一消息標志著字節(jié)跳動在自然語言處理領域邁出了重要一步。
Seed-Thinking-v1.5模型在多個領域展現(xiàn)出了卓越的性能。在數(shù)學推理方面,它在AIME 2024競賽中取得了86.7的高分,與OpenAI的o3-mini-high模型不相上下。在編程競賽中,該模型在Codeforces平臺上的通過率達到了55.0%,接近Gemini 2.5 Pro的水平。在科學推理任務上,Seed-Thinking-v1.5也取得了77.3%的優(yōu)異成績,同樣接近業(yè)界領先模型。而在通用任務中,人類評估顯示其表現(xiàn)超過了DeepSeek R1達8%,能夠覆蓋多種場景需求。
Seed-Thinking-v1.5模型采用了MoE架構,總參數(shù)達到200B,但激活參數(shù)僅為20B,這使其在保持高性能的同時,具備顯著的推理成本優(yōu)勢。與DeepSeek R1相比,該模型的單位推理成本降低了50%,實現(xiàn)了性能與效率的完美平衡。
為了提升模型的表現(xiàn)力,豆包大模型團隊在數(shù)據(jù)處理策略上進行了優(yōu)化。針對可驗證數(shù)據(jù),如數(shù)學和代碼題目,團隊通過百萬級數(shù)據(jù)的三重清洗流程,保留了10萬道高難度題目,并設計了答案整數(shù)化改造和離線沙箱驗證等機制,確保模型能夠輸出真實的推理過程。而對于非可驗證數(shù)據(jù),如創(chuàng)意寫作,團隊則基于豆包1.5 Pro訓練集,剔除低價值樣本,并采用兩兩對比獎勵法,優(yōu)化生成質(zhì)量。
團隊還構建了全新的評測基準,包括超難數(shù)學數(shù)據(jù)集BeyondAIME,該數(shù)據(jù)集包含100道無答案題干的題目,旨在解決現(xiàn)有測試區(qū)分度不足的問題。這一舉措不僅提升了模型的評測準確性,也為后續(xù)的優(yōu)化提供了有力支持。
在獎勵模型方面,團隊提出了雙軌獎勵機制,以兼顧“對錯分明”與“見仁見智”的任務。對于可驗證任務,團隊開發(fā)了兩代驗證器,從字符匹配升級為推理步驟逐行對比,確保了模型輸出的準確性。而對于非可驗證任務,團隊則引入pairwise對比訓練,通過大量“AB測試”捕捉人類對創(chuàng)意、情感等的隱性偏好,從而避免了“眾口難調(diào)”的問題。這一雙軌獎勵機制不僅提升了模型的訓練效率,也使其在不同場景下都能表現(xiàn)出色。
在訓練方法上,Seed-Thinking-v1.5采用了“監(jiān)督精調(diào)+強化學習”的雙階段優(yōu)化策略。在監(jiān)督精調(diào)階段,團隊基于40萬高質(zhì)量實例構建了長思考鏈數(shù)據(jù)集,并結合人工與模型協(xié)同篩選,確保模型能夠“像人類一樣思考”。而在強化學習階段,團隊通過三重數(shù)據(jù)引擎、算法創(chuàng)新以及在線數(shù)據(jù)適配技術,解決了訓練不穩(wěn)定、長鏈推理斷層等問題,使模型能夠在動態(tài)調(diào)整數(shù)據(jù)分布的過程中保持最佳訓練狀態(tài)。
最后,為了應對20B MoE(總參數(shù)200B)的復雜訓練需求,團隊對底層架構進行了優(yōu)化。HybridFlow編程模型支持算法快速探索與分布式并行運行,流式推理系統(tǒng)(SRS)則通過“流式推理”技術解耦模型演進與異步推理,將訓練速度提升了3倍。三層并行架構結合張量/專家/序列并行,動態(tài)均衡負載,基于KARP算法優(yōu)化GPU算力利用率,為模型的高效訓練提供了有力保障。