近日,阿里云在視覺生成技術(shù)領(lǐng)域邁出了重要一步,其旗下的萬相2.1(Wan)模型正式宣布開源。此次開源行動不僅彰顯了阿里云對于技術(shù)共享的開放心態(tài),更通過采用Apache2.0這一極為寬松的協(xié)議,為全球開發(fā)者提供了前所未有的便利。
萬相2.1模型此次開源的內(nèi)容極為豐富,包括了14B和1.3B兩個參數(shù)規(guī)格的全部推理代碼和權(quán)重。這意味著開發(fā)者們無需從零開始,即可直接獲取到這一先進模型的核心資源。同時,該模型還支持文生視頻和圖生視頻任務,進一步拓寬了其應用場景和潛力。
盡管1.3B版本的參數(shù)規(guī)模相對較小,但其測試結(jié)果卻令人矚目。據(jù)透露,該版本不僅在性能上超越了部分更大尺寸的開源模型,甚至還逼近了某些閉源模型的水平。更令人欣喜的是,它能夠在消費級顯卡上流暢運行,僅需8.2GB的顯存即可生成高質(zhì)量的視頻內(nèi)容。這一特性無疑將大大降低視覺生成技術(shù)的門檻,使得更多開發(fā)者能夠輕松上手并探索這一領(lǐng)域的無限可能。
目前,全球開發(fā)者已經(jīng)可以在Github、HuggingFace和魔搭社區(qū)等多個平臺上下載并體驗萬相2.1模型。這一開源行動無疑將為視覺生成技術(shù)的發(fā)展注入新的活力,推動該領(lǐng)域不斷向前邁進。
隨著人工智能技術(shù)的不斷發(fā)展和普及,視覺生成技術(shù)已經(jīng)成為了一個備受關(guān)注的熱點領(lǐng)域。阿里云此次開源萬相2.1模型,不僅有助于推動該領(lǐng)域的技術(shù)進步和創(chuàng)新,更為全球開發(fā)者提供了一個共同學習和交流的平臺。相信在不久的將來,我們將看到更多基于這一模型的創(chuàng)新應用和技術(shù)成果涌現(xiàn)出來。