反超DeepSeek!阿里萬(wàn)相大模型登上全球開(kāi)源榜首
3月3日消息,如今,開(kāi)源大模型成為了當(dāng)前科技圈內(nèi)默契達(dá)成共識(shí)的“風(fēng)向標(biāo)”,就連其排行榜一舉一動(dòng),都在牽引著外界關(guān)注的神經(jīng)。
據(jù)開(kāi)源社區(qū)Hugging Face最新榜單顯示,開(kāi)源僅6天的阿里萬(wàn)相大模型已反超DeepSeek—R1,登頂模型熱榜、模型空間榜兩大榜單,成為近期全球開(kāi)源社區(qū)最受歡迎的大大模型。
根據(jù)最新數(shù)據(jù),萬(wàn)相2.1在Hugging Face及魔搭社區(qū)的總下載量已超百萬(wàn),在Github的Star數(shù)據(jù)超6K。
緊隨其后,排在第二名是Microsoft的 The Ultra-Scale playbook ,另外DeepSeek—R1模型暫列第三位。
此前,在2月25日深夜,阿里云宣布萬(wàn)相2.1(Wan)重磅開(kāi)源。
據(jù)了解,萬(wàn)相2.1開(kāi)源采用Apache2.0協(xié)議,14B和1.3B兩個(gè)參數(shù)規(guī)格的全部推理代碼和權(quán)重全部開(kāi)源,同時(shí)支持文生視頻和圖生視頻任務(wù)。
值得一提的亮點(diǎn)是,14B版本萬(wàn)相模型在指令遵循、復(fù)雜運(yùn)動(dòng)生成、物理建模、文字視頻生成等方面表現(xiàn)突出。
在權(quán)威評(píng)測(cè)集Vbench中,萬(wàn)相2.1以總分86.22%大幅超越Sora、Luma、Pika等國(guó)內(nèi)外模型,穩(wěn)居榜首位置。
另外,1.3B版本萬(wàn)相模型不僅超過(guò)了更大尺寸的開(kāi)源模型,甚至還和一些閉源的模型結(jié)果接近。
同時(shí)能在消費(fèi)級(jí)顯卡運(yùn)行,僅需8.2GB顯存就可以生成480P視頻,適用于二次模型開(kāi)發(fā)和學(xué)術(shù)研究。