亚洲精品,日韩av,亚洲国产一区二区三区亚瑟,玩弄寡妇丰满肉体,香蕉久久夜色精品升级完成,亚洲av无码成人精品区一区

網(wǎng)界科技資訊 手機網(wǎng)站 站內(nèi)搜索
  • 助力產(chǎn)業(yè)數(shù)字化 推動數(shù)字產(chǎn)業(yè)化

OpenAI o1推理模型API正式開放,僅限部分高級開發(fā)者嘗鮮

   時間:2024-12-18 08:12 來源:ITBEAR作者:任飛揚

OpenAI近日在其“OpenAI 12天”系列活動中迎來了第九天的重大更新,正式向部分開發(fā)者開放了其名為o1的“推理”人工智能模型API。同時,該公司還發(fā)布了一系列其他開發(fā)者工具的更新,包括GPT-4o、實時API以及微調(diào)API等。

據(jù)悉,首批獲得o1 API訪問權(quán)限的開發(fā)者為OpenAI的“第五級”用戶,這一級別要求開發(fā)者在平臺上累計消費至少1000美元,并且賬戶自首次成功付款以來已超過30天。o1 API的推出取代了之前的o1-preview模型,標志著OpenAI在推理模型技術(shù)上的進一步推進。

o1模型的一大特點是其自我事實核查能力,這使它能夠有效避免一些常見的人工智能錯誤。然而,這種推理模型也伴隨著較高的計算成本和更長的響應(yīng)時間。OpenAI對o1的收費政策是,每分析約75萬字收取15美元,每生成約75萬字則收取60美元,這一費用是其最新“非推理”模型GPT-4o的六倍。

與o1-preview相比,o1 API在功能和可定制性上有了顯著提升。新增的功能包括函數(shù)調(diào)用、開發(fā)者消息以及圖像分析等,這使得模型能夠更靈活地適應(yīng)各種應(yīng)用場景。o1還提供了一個名為“reasoning_effort”的API參數(shù),允許開發(fā)者控制模型在回答問題前的思考時間,從而進一步優(yōu)化輸出結(jié)果。

OpenAI表示,o1模型已經(jīng)過“新近的后訓(xùn)練”,并發(fā)布了版本號“o1-2024-12-17”。與兩周前在ChatGPT中發(fā)布的o1模型相比,新版本在多個方面進行了改進,但具體細節(jié)并未透露。OpenAI正在逐步擴大訪問權(quán)限,并計劃覆蓋更多用戶級別,同時提高速率限制。公司表示,最新的o1模型在編程和商業(yè)相關(guān)問題上能夠提供更全面、更準確的回答,并且不太可能錯誤地拒絕請求。

在實時API方面,OpenAI也發(fā)布了新版本的GPT-4o和GPT-4o mini模型。這些模型作為實時API的一部分,旨在構(gòu)建具有低延遲、人工智能生成語音響應(yīng)的應(yīng)用程序。新模型擁有更高的數(shù)據(jù)效率和可靠性,并且使用成本更低。實時API目前仍處于測試階段,但已經(jīng)獲得了多項新功能,如并發(fā)的帶外響應(yīng)和WebRTC支持。

WebRTC的集成使得OpenAI能夠在網(wǎng)絡(luò)質(zhì)量不穩(wěn)定的情況下,實現(xiàn)流暢且響應(yīng)迅速的交互。這一功能對于基于瀏覽器的客戶端、智能手機和物聯(lián)網(wǎng)設(shè)備上的實時語音應(yīng)用程序尤為重要。OpenAI在12月初聘請了WebRTC的創(chuàng)建者Justin Uberti,以加強其在實時通信技術(shù)方面的實力。

最后,OpenAI還為其微調(diào)API引入了偏好微調(diào)功能。這一功能通過比較模型響應(yīng)的配對,來教導(dǎo)模型區(qū)分對問題的首選答案和“非首選”答案。公司還推出了針對Go和Java的官方軟件開發(fā)工具包“早期訪問”測試版,以進一步擴展其開發(fā)者生態(tài)。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容