亚洲精品,日韩av,亚洲国产一区二区三区亚瑟,玩弄寡妇丰满肉体,香蕉久久夜色精品升级完成,亚洲av无码成人精品区一区

  • 科技·商業(yè)·財經(jīng)媒體
科技·商業(yè)·財經(jīng)

Cerebras AI芯片因DeepSeek服務需求激增,大語言模型推理成新熱點

   時間:2025-02-12 19:23 來源:ITBEAR作者:任飛揚

AI芯片巨頭Cerebras近期遭遇了一場前所未有的挑戰(zhàn),其CEO Andrew Feldman在一次訪談中透露,公司正被大量運行DeepSeek-R1大語言模型的訂單淹沒。

Cerebras,這家以推出高性能AI晶圓級芯片著稱的公司,其單塊芯片便能提供驚人的125 PFLOPS峰值算力,并搭配高達1.2PB的內(nèi)存容量,一直以來都是AI領域的佼佼者。然而,這次DeepSeek-R1的火爆需求,顯然超出了他們的預期。

DeepSeek-R1,這款被視作AI領域分水嶺的模型,其預訓練成本僅為GPTo1等主流模型的十分之一,但效果卻與之相近甚至更佳。Feldman表示,DeepSeek不僅在當前展現(xiàn)出了巨大影響力,更將推動更大規(guī)模AI系統(tǒng)的誕生。隨著成本的降低,AI市場的潛力正在被不斷挖掘。

在Cerebras的官方展示中,其晶圓級AI芯片在部署DeepSeek-R1 70B時,性能達到了1508 tokens/s,遠超GPU。然而,這款模型在推理過程中,卻需要消耗大量算力。由于采用了Chain-of-thought(CoT)方法增強推理能力,模型需要將多步問題分解為中間步驟,并在需要時執(zhí)行額外計算。這種逐字推理的方式,對于整段提示詞的推理需要多次進行,從而導致了算力的巨大需求。

面對這一痛點,Cerebras提出了利用蒸餾技術將大模型的“知識”轉移到小模型中的解決方案。大模型被稱為教師模型,而較小的模型則被稱為學生模型。通過這種方式,客戶可以在保持模型精度的同時,降低推理過程中的算力需求。

Cerebras在官網(wǎng)上表示,DeepSeek R1在蒸餾到Llama 70B后,精度幾乎沒有下降。為了改善用戶體驗,Cerebras為客戶提供了一種標準做法:利用開源在Hugging Face上的DeepSeek模型參數(shù)作為教師模型,蒸餾出一個較小的學生模型用于實際部署。

Feldman強調(diào),DeepSeek作為首個頂級的開源推理模型,是開源AI的重大勝利。通過蒸餾技術,開源模型只需公開模型參數(shù),研究人員無需訪問源碼便能復制新AI模型的進步。他認為,DeepSeek的經(jīng)濟性不僅震撼了整個AI行業(yè),更將吸引更多投資流向尖端AI芯片和網(wǎng)絡技術。

盡管有些人擔心計算成本的下降會導致市場萎縮,但Feldman指出,過去50年的歷史表明,降低成本反而能夠擴大市場容量。無論是電腦還是智能手機,價格的降低都推動了產(chǎn)品的普及。因此,他相信DeepSeek和Cerebras的推動將進一步加速AI市場的增長。

自去年8月開始提供公共推理服務以來,Cerebras自稱是“世界上最快的人工智能推理服務提供商”。然而,面對高昂的405B模型成本,該公司目前主要提供的是蒸餾后的70B模型。Feldman表示,雖然有一部分客戶愿意為更高的準確性支付更高的成本,但大多數(shù)客戶更傾向于選擇價格實惠的模型。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容