OpenAI近日震撼發(fā)布了兩款全新AI模型——o3與o4-mini,這兩款模型被譽為OpenAI有史以來最強大、最智能的創(chuàng)作。它們不僅在技術(shù)上實現(xiàn)了飛躍,更在功能和應(yīng)用上開啟了新的篇章。
與前代產(chǎn)品相比,o3與o4-mini的最大亮點在于它們首次擁有了真正的視覺推理能力。這意味著,這兩款模型不僅能看圖識圖,更能基于圖像內(nèi)容進行深度思考和分析。這一突破性的進展,無疑將AI在視覺領(lǐng)域的應(yīng)用推向了一個新的高度。
更令人驚嘆的是,o3與o4-mini還具備了跨模態(tài)處理能力。它們能夠同時處理文本、圖像和音頻等多種類型的數(shù)據(jù),并作為智能體(Agent)自動調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具,以及進入深度思考模式。這種全方位的處理能力,使得這兩款模型在應(yīng)對復(fù)雜任務(wù)時更加游刃有余。
為了訓(xùn)練o3與o4-mini如何使用這些工具,OpenAI采用了強化學(xué)習(xí)的方法。經(jīng)過大量的訓(xùn)練和實踐,這兩款模型不僅學(xué)會了如何正確地使用工具,還能夠在合適的時機以正確的格式快速生成可靠的答案。這一能力的獲得,無疑將極大地提升AI在實際應(yīng)用中的效率和準確性。
在實際測試中,o3與o4-mini的表現(xiàn)同樣令人矚目。在AIME 2024數(shù)學(xué)競賽題目中,它們的準確率分別達到了91.6%和93.4%,遠超前代o1的74.3%。而在AIME 2025題目中,這兩款模型的準確率也分別達到了88.9%和92.7%。在Codeforces編程競賽評分中,支持終端工具的o3和o4-mini分別取得了2706和2719的ELO分數(shù),同樣領(lǐng)先于其他前輩模型。
為了讓更多的用戶能夠體驗到這兩款強大的模型,OpenAI宣布,即日起,ChatGPT的Plus、Pro會員以及Team用戶將可以直接使用o3、o4-mini以及更高版本的o4-mini-high。這一舉措無疑將極大地推動AI技術(shù)的普及和應(yīng)用。
總的來說,o3與o4-mini的發(fā)布標志著OpenAI在AI技術(shù)上的又一次重大突破。這兩款模型不僅擁有強大的視覺推理能力和跨模態(tài)處理能力,還在實際應(yīng)用中表現(xiàn)出了極高的準確性和效率。隨著它們的廣泛應(yīng)用和推廣,我們有理由相信,AI技術(shù)將在未來發(fā)揮更加重要的作用。