在上海人工智能實(shí)驗(yàn)室推出的OpenCompass大模型測(cè)評(píng)榜單上,此前開(kāi)源的Qwen1.5-110B已領(lǐng)先于文心4.0等一眾中國(guó)閉源模型

通義千問(wèn)Qwen2系列模型大幅提升了代碼、數(shù)學(xué)、推理、指令遵循、多語(yǔ)言理解等能力。在MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench等國(guó)際權(quán)威測(cè)評(píng)中,Qwen2-72B一舉斬獲十幾項(xiàng)世界冠軍,超過(guò)美國(guó)的Llama3。

Qwen2-72B在十多個(gè)權(quán)威測(cè)評(píng)中獲得冠軍,超過(guò)美國(guó)的Llama3-70B模型

通義千問(wèn)團(tuán)隊(duì)在技術(shù)博客中披露,Qwen2系列包含5個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,其中Qwen2-57B-A14B為混合專家模型(MoE)。Qwen2所有尺寸模型都使用了GQA(分組查詢注意力)機(jī)制,以便讓用戶體驗(yàn)到GQA帶來(lái)的推理加速和顯存占用降低的優(yōu)勢(shì)。

Qwen2系列包含5個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型

在中英文之外,模型訓(xùn)練數(shù)據(jù)中增加了27種語(yǔ)言相關(guān)的高質(zhì)量數(shù)據(jù),提升了模型的多語(yǔ)言能力。Qwen2還增大了上下文長(zhǎng)度支持,Qwen2-72B-Instruct能夠完美處理128k上下文長(zhǎng)度內(nèi)的信息抽取任務(wù)。

魔搭社區(qū)模型下載地址:

Qwen2-72B https://modelscope.cn/models/qwen/Qwen2-72B
Qwen2-72B-Instruct https://modelscope.cn/models/qwen/Qwen2-72B-Instruct

據(jù)悉,通義千問(wèn)Qwen系列模型正在全球爆火,總下載量一個(gè)月內(nèi)翻了一倍,已突破1600萬(wàn)次。全球開(kāi)源社區(qū)已經(jīng)出現(xiàn)了超過(guò)1500款基于Qwen二次開(kāi)發(fā)的模型。Qwen系列的72B、110B模型多次登頂HuggingFace 的Open LLM Leaderboard開(kāi)源模型榜單。

阿里云CTO周靖人表示,“堅(jiān)持開(kāi)源開(kāi)放是阿里云的重要策略,我們希望打造一朵AI時(shí)代最開(kāi)放的云,讓算力更普惠、讓AI更普及。”

眾多開(kāi)源平臺(tái)和工具第一時(shí)間支持Qwen2

自2023年8月開(kāi)源以來(lái),通義千問(wèn)在全球開(kāi)源社區(qū)生態(tài)中已形成重要影響力。6月7日,Qwen2系列模型的API第一時(shí)間登陸阿里云百煉平臺(tái)。TensorRT-LLM、OpenVINO、OpenCompass、XTuner、LLaMA-Factory、Firefly、OpenBuddy、vLLM、Ollama等眾多全球開(kāi)源平臺(tái)和工具,也第一時(shí)間宣布支持Qwen2最新款模型。除了美國(guó)Llama開(kāi)源生態(tài)之外,通義千問(wèn)已成為全球開(kāi)發(fā)者的另一主流選項(xiàng)。

分享到

xiesc

相關(guān)推薦