當(dāng)前位置:首頁(yè) >  IDC >  云計(jì)算 >  正文

通義千問重磅開源Qwen2.5,性能超越Llama

 2024-09-19 15:15  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過

9月19日云棲大會(huì),阿里云CTO周靖人發(fā)布通義千問新一代開源模型Qwen2.5,旗艦?zāi)P蚎wen2.5-72B性能超越Llama 405B,再登全球開源大模型王座。Qwen2.5全系列涵蓋多個(gè)尺寸的大語(yǔ)言模型、多模態(tài)模型、數(shù)學(xué)模型和代碼模型,每個(gè)尺寸都有基礎(chǔ)版本、指令跟隨版本、量化版本,總計(jì)上架100多個(gè)模型,刷新業(yè)界紀(jì)錄。

Qwen2.5全系列模型都在18T tokens數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,相比Qwen2,整體性能提升18%以上,擁有更多的知識(shí)、更強(qiáng)的編程和數(shù)學(xué)能力。Qwen2.5-72B模型在MMLU-rudex基準(zhǔn)(考察通用知識(shí))、MBPP 基準(zhǔn)(考察代碼能力)和MATH基準(zhǔn)(考察數(shù)學(xué)能力)的得分高達(dá)86.8、88.2、83.1。

Qwen2.5支持高達(dá)128K的上下文長(zhǎng)度,可生成最多8K內(nèi)容。模型擁有強(qiáng)大的多語(yǔ)言能力,支持中文、英文、法文、西班牙文、俄文、日文、越南文、阿拉伯文等 29 種以上語(yǔ)言。模型能夠絲滑響應(yīng)多樣化的系統(tǒng)提示,實(shí)現(xiàn)角色扮演和聊天機(jī)器人等任務(wù)。在指令跟隨、理解結(jié)構(gòu)化數(shù)據(jù)(如表格)、生成結(jié)構(gòu)化輸出(尤其是JSON)等方面Qwen2.5都進(jìn)步明顯。

語(yǔ)言模型方面,Qwen2.5開源了7個(gè)尺寸,0.5B、1.5B、3B、7B、14B、32B、72B,它們?cè)谕葏?shù)賽道都創(chuàng)造了業(yè)界最佳成績(jī),型號(hào)設(shè)定充分考慮下游場(chǎng)景的不同需求,3B是適配手機(jī)等端側(cè)設(shè)備的黃金尺寸;32B是最受開發(fā)者期待的“性價(jià)比之王”,可在性能和功耗之間獲得最佳平衡,Qwen2.5-32B的整體表現(xiàn)超越了Qwen2-72B。

在MMLU-redux等十多個(gè)基準(zhǔn)測(cè)評(píng)中,Qwen2.5-72B表現(xiàn)超越Llama3.1-405B

72B是Qwen2.5系列的旗艦?zāi)P?,其指令跟隨版本Qwen2.5-72B-Instruct在MMLU-redux、MATH、MBPP、LiveCodeBench、Arena-Hard、AlignBench、MT-Bench、MultiPL-E等權(quán)威測(cè)評(píng)中表現(xiàn)出色,在多個(gè)核心任務(wù)上,以不到1/5的參數(shù)超越了擁有4050億巨量參數(shù)的Llama3.1-405B,繼續(xù)穩(wěn)居“全球最強(qiáng)開源大模型”的位置。

專項(xiàng)模型方面,用于編程的 Qwen2.5-Coder 和用于數(shù)學(xué)的 Qwen2.5-Math都比前代有了實(shí)質(zhì)性進(jìn)步。Qwen2.5-Coder 在多達(dá)5.5T tokens 的編程相關(guān)數(shù)據(jù)上作了訓(xùn)練,當(dāng)天開源1.5B和7B版本,未來還將開源32B版本;Qwen2.5-Math支持使用思維鏈和工具集成推理(TIR) 解決中英雙語(yǔ)的數(shù)學(xué)題,是迄今為止最先進(jìn)的開源數(shù)學(xué)模型系列,本次開源了1.5B、7B、72B三個(gè)尺寸和一款數(shù)學(xué)獎(jiǎng)勵(lì)模型Qwen2.5-Math-RM。

多模態(tài)模型方面,廣受期待的視覺語(yǔ)言模型Qwen2-VL-72B正式開源,Qwen2-VL能識(shí)別不同分辨率和長(zhǎng)寬比的圖片,理解20分鐘以上長(zhǎng)視頻,具備自主操作手機(jī)和機(jī)器人的視覺智能體能力。日前權(quán)威測(cè)評(píng)LMSYS Chatbot Arena Leaderboard發(fā)布最新一期的視覺模型性能測(cè)評(píng)結(jié)果,Qwen2-VL-72B成為全球得分最高的開源模型。

Qwen2-VL-72B在權(quán)威測(cè)評(píng)LMSYS Chatbot Arena Leaderboard成為成為全球得分最高的開源視覺理解模型

自從2023年8月開源以來,通義在全球開源大模型領(lǐng)域后來居上,成為開發(fā)者尤其是中國(guó)開發(fā)者的首選模型。性能上,通義大模型日拱一卒,逐步趕超美國(guó)最強(qiáng)開源模型Llama,多次登頂Hugging Face全球大模型榜單;生態(tài)上,通義從零起步、開疆拓土,與海內(nèi)外的開源社區(qū)、生態(tài)伙伴、開發(fā)者共建生態(tài)網(wǎng)絡(luò),截至2024年9月中旬,通義千問開源模型下載量突破4000萬,Qwen系列衍生模型總數(shù)超過5萬個(gè),成為僅次于Llama的世界級(jí)模型群。

HuggingFace數(shù)據(jù)顯示,截至9月中旬Qwen系列原生模型和衍生模型總數(shù)超過5萬個(gè)

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
通義千問

相關(guān)文章

  • 通義千問三款主力模型再降價(jià) 最高降幅85%

    9月19日,繼5月首次大幅降價(jià)后,阿里云百煉平臺(tái)上的三款通義千問主力模型再次降價(jià)。Qwen-Turbo價(jià)格直降85%,低至百萬tokens0.3元,Qwen-Plus和Qwen-Max分別再降價(jià)80%和50%。其中,Qwen-Plus推理能力追平GPT4,可應(yīng)用于復(fù)雜任務(wù),是效果、速度及成本均衡的最

    標(biāo)簽:
    通義千問
  • 通義千問升級(jí)旗艦?zāi)P蚎wen-Max,性能接近GPT-4o

    9月19日云棲大會(huì),阿里云CTO周靖人宣布,通義旗艦?zāi)P蚎wen-Max全方位升級(jí),性能接近GPT-4o。通義官網(wǎng)和通義APP的后臺(tái)模型均已切換為Qwen-Max,繼續(xù)免費(fèi)為所有用戶提供服務(wù)。用戶也可通過阿里云百煉平臺(tái)調(diào)用Qwen-Max的API。相比上一代模型,Qwen-Max在訓(xùn)練中使用了更多的

    標(biāo)簽:
    通義千問
  • 通義靈碼AI編程能力再進(jìn)化,說幾句話就能開發(fā)網(wǎng)頁(yè)

    9月19日,在2024杭州云棲大會(huì)上,隨著通義大模型能力的全面提升,阿里云通義靈碼迎來重磅升級(jí),從一年前只能完成基礎(chǔ)的輔助編程任務(wù),進(jìn)化到幾句話就能完成需求理解、任務(wù)拆解、代碼編寫、修改BUG、測(cè)試等開發(fā)任務(wù),最快幾分鐘可從0到1完成應(yīng)用開發(fā),提升數(shù)十倍開發(fā)效率。自去年首次亮相以來,通義靈碼已入職中

    標(biāo)簽:
    通義千問
  • 通義萬相發(fā)布視頻生成模型,可一鍵創(chuàng)作影視級(jí)高清視頻

    9月19日,在杭州云棲大會(huì)上,阿里云CTO周靖人宣布通義萬相全面升級(jí),并發(fā)布全新視頻生成模型,可生成影視級(jí)高清視頻,可應(yīng)用于影視創(chuàng)作、動(dòng)畫設(shè)計(jì)、廣告設(shè)計(jì)等領(lǐng)域。即日起,所有用戶可通過通義APP及通義萬相官網(wǎng)免費(fèi)體驗(yàn)。據(jù)介紹,通義萬相首批上線文生視頻、圖生視頻功能,在文生視頻功能中,用戶輸入任意文字提

    標(biāo)簽:
    通義千問
  • 通義靈碼推出企業(yè)版,底座模型CodeQwen1.5登頂權(quán)威榜單

    5月9日阿里云AI峰會(huì),通義靈碼宣布推出企業(yè)版,滿足企業(yè)用戶的定制化需求,幫助企業(yè)提升研發(fā)效率。通義靈碼是國(guó)內(nèi)用戶規(guī)模第一的智能編碼助手,基于SOTA水準(zhǔn)的通義千問代碼模型CodeQwen1.5研發(fā),插件下載量已超350萬。通義靈碼熟練掌握J(rèn)ava、Python、Go、JavaScript、Type

    標(biāo)簽:
    通義千問

熱門排行

信息推薦