近期,科技界被一款名為Grok-3的人工智能模型震撼。這款由馬斯克麾下的xAI公司傾力打造的AI,據(jù)傳使用了高達(dá)20萬塊GPU進(jìn)行訓(xùn)練,其算力投入之巨,令業(yè)界瞠目結(jié)舌。Grok-3的問世,不僅讓一度低迷的英偉達(dá)股價重振旗鼓,更在多項基準(zhǔn)測試中超越了DeepSeek和OpenAI的模型,引發(fā)了廣泛討論。
Grok-3的輝煌戰(zhàn)績,似乎再次印證了AI領(lǐng)域“算力決定一切”的Scaling Law法則。一些AI研究者指出,盡管訓(xùn)練成本高昂,但Grok-3的成功表明,通過不斷擴(kuò)大預(yù)訓(xùn)練規(guī)模,仍有可能打造出性能卓越的非推理模型。這一觀點,無疑給那些信奉“力大磚飛”理念的從業(yè)者打了一劑強(qiáng)心針。
然而,Grok-3的輝煌背后,也隱藏著不小的爭議。據(jù)透露,其硬件成本高達(dá)30億美元,訓(xùn)練時長更是達(dá)到了驚人的2億GPU小時。這一數(shù)字,即便是對于財大氣粗的xAI來說,也是一筆不小的開銷。相比之下,DeepSeek-V3的訓(xùn)練成本就顯得微不足道了,僅需557.6萬美元和2048塊英偉達(dá)H800 GPU。
盡管成本高昂,但Grok-3的表現(xiàn)卻令人眼前一亮。在LMSYS Arena中,它以1400的超高Elo評分屠榜,各大模型望塵莫及。不僅如此,Grok-3還能制作出類似馬里奧的小游戲,甚至幫助用戶自學(xué)編程,其能力之強(qiáng),可見一斑。
然而,就在人們紛紛為Grok-3喝彩時,卻有人潑了一盆冷水。DeepSeek的前員工、現(xiàn)西北大學(xué)博士生王子涵在體驗了Grok-3 beta版后,發(fā)現(xiàn)它對于一些簡單問題的回答并不準(zhǔn)確。這一發(fā)現(xiàn),引發(fā)了人們對于Grok-3穩(wěn)定性和準(zhǔn)確性的質(zhì)疑。
不過,xAI的研究科學(xué)家林禹臣對此表示,Grok-3目前仍在測試階段,每天都會進(jìn)行改進(jìn)和優(yōu)化。他相信,隨著時間的推移,Grok-3的表現(xiàn)會越來越穩(wěn)定和出色。
事實上,Grok-3和DeepSeek之間的較量,不僅僅是技術(shù)和算力的比拼,更是商業(yè)策略和生態(tài)建設(shè)的較量。Grok-3目前采用閉源策略,每月收費30美元,而DeepSeek則早已以開源策略吸引了全球開發(fā)者,集成到了微信、百度、騰訊等主流應(yīng)用中,生態(tài)優(yōu)勢顯著。
盡管爭議不斷,但不可否認(rèn)的是,Grok-3的發(fā)布已經(jīng)對AI行業(yè)產(chǎn)生了深遠(yuǎn)的影響。它不僅讓市場和投資人的信心重燃,更推動了AI技術(shù)的加速發(fā)展。未來,無論是Grok-3還是DeepSeek,都將繼續(xù)在AI領(lǐng)域書寫屬于自己的傳奇。