2025年3月25日,當(dāng)全球AI巨頭還在為發(fā)布會(huì)排期時(shí),中國(guó)團(tuán)隊(duì)DeepSeek已悄然在Hugging Face上線了DeepSeek-V3-0324版本。這個(gè)沒(méi)有預(yù)熱、沒(méi)有宣傳的“深夜更新”,不僅以6850億參數(shù)刷新國(guó)產(chǎn)模型紀(jì)錄,更在代碼生成、數(shù)學(xué)推理等領(lǐng)域?qū)崿F(xiàn)“降維打擊”,被開(kāi)發(fā)者稱(chēng)為“Claude 3.7 Sonnet的隱形殺手”。
文字編輯|宋雨涵
1
數(shù)據(jù)說(shuō)話
看看V3和V3-0324有啥不一樣
指標(biāo) | DeepSeek V3(2024.12) | DeepSeek V3-0324(2025.03) | 變化/說(shuō)明 |
總參數(shù) | 6710億 | 6850億 | 增加140億參數(shù),可能用于擴(kuò)展模型深度或增強(qiáng)特定模塊(如多任務(wù)處理層MTP) |
每token激活參數(shù) | 370億 | 370億 | 保持相同激活規(guī)模,推測(cè)未調(diào)整稀疏激活機(jī)制或?qū)<一旌喜呗?/td> |
訓(xùn)練數(shù)據(jù) | 14.8萬(wàn)億token | 14.8萬(wàn)億token | 數(shù)據(jù)量未變,可能復(fù)用原有數(shù)據(jù)集或通過(guò)數(shù)據(jù)蒸餾技術(shù)優(yōu)化訓(xùn)練效率 |
訓(xùn)練成本 | 550萬(wàn)美元 | 550萬(wàn)美元(預(yù)估) | 成本控制仍是亮點(diǎn),可能通過(guò)優(yōu)化訓(xùn)練流程或硬件利用率維持成本不變 |
推理速度 | – | “X上稱(chēng)更快,未實(shí)錘” | 社區(qū)傳聞速度提升,需官方數(shù)據(jù)驗(yàn)證(可能涉及算子優(yōu)化或硬件加速) |
代碼能力 | – | 超越Llama 3.1 405B | 代碼生成能力顯著增強(qiáng),接近更大模型(如Sonnet 3.5)表現(xiàn) |
數(shù)學(xué)水平(MATH 500) | 強(qiáng) | “用戶稱(chēng)進(jìn)步顯著” | 數(shù)學(xué)推理能力大幅提升,可能優(yōu)化數(shù)學(xué)邏輯模塊或增加數(shù)學(xué)領(lǐng)域預(yù)訓(xùn)練數(shù)據(jù) |
上下文窗口 | 128K token | 128K token | 保持長(zhǎng)文本處理能力,未擴(kuò)展窗口長(zhǎng)度 |
再來(lái)看看具體有哪些升級(jí)
相較于上一版,從一個(gè)球在超立方體彈跳的Python腳本,即可看出V3代碼性能的改善。
甚至,它還能解鎖Claude 3.7 Sonnet很多玩法,代碼可以與之正面較量。
值得一提的是,DeepSeek V3另一大亮點(diǎn)在于采用MIT開(kāi)源協(xié)議,上個(gè)版本還是自定義許可證。
這不僅可以自由修改、分發(fā)模型,還支持模型蒸餾、商業(yè)化應(yīng)用。
網(wǎng)友讓模型設(shè)計(jì)的天氣頁(yè)面(左由新版DeepSeek-V3生成;右由初代DeepSeek-V3生成)
2
開(kāi)源普惠 VS 閉源壁壘
中國(guó) AI 的 “非對(duì)稱(chēng)優(yōu)勢(shì)”
維度 | 中國(guó)路徑(DeepSeek) | 西方路徑(OpenAI) |
硬件依賴(lài) | 優(yōu)化有限算力,適配昇騰910B等國(guó)產(chǎn)芯片 | 依賴(lài)英偉達(dá)GPU集群 |
商業(yè)策略 | 開(kāi)源普惠,降低技術(shù)使用門(mén)檻 | 閉源付費(fèi),構(gòu)建生態(tài)壁壘 |
技術(shù)路線 | 混合架構(gòu)+動(dòng)態(tài)負(fù)載均衡 | 純Transformer架構(gòu) |
DeepSeek 的突破揭示了中美AI競(jìng)爭(zhēng)的新范式。在芯片受限背景下,中國(guó)團(tuán)隊(duì)通過(guò)算法優(yōu)化實(shí)現(xiàn)反超。清華大學(xué)劉知遠(yuǎn)教授指出:“這種‘系統(tǒng)級(jí)創(chuàng)新效率’,正是中國(guó) AI 的隱形競(jìng)爭(zhēng)力?!?nbsp;與西方純Transformer架構(gòu)不同,DeepSeek采用混合架構(gòu),結(jié)合動(dòng)態(tài)負(fù)載均衡技術(shù),在有限算力下實(shí)現(xiàn)性能突破。
將開(kāi)源貫徹到底
DeepSeek此次以MIT許可證開(kāi)源模型權(quán)重,允許免費(fèi)商用與二次開(kāi)發(fā),與Claude 3.7 Sonnet等閉源模型的付費(fèi)模式形成鮮明對(duì)比。這一策略直接沖擊了OpenAI的盈利模式——后者GPT-5雖宣布免費(fèi)開(kāi)放,但仍依賴(lài)訂閱制構(gòu)建護(hù)城河。
此外GitHub上已涌現(xiàn)127個(gè)衍生工具,涵蓋代碼審查、網(wǎng)頁(yè)生成等領(lǐng)域,某智能網(wǎng)頁(yè)校對(duì)工具下載量突破5000次。
邊緣計(jì)算崛起:IDC預(yù)測(cè),到2026年,適配DeepSeek的邊緣AI服務(wù)器市場(chǎng)規(guī)模將突破200億美元。
R2蓄勢(shì)待發(fā),直指GPT-5
DeepSeek-V3-0324的發(fā)布被視為R2系列的前哨戰(zhàn)。根據(jù)行業(yè)規(guī)律,R2或于 2025年4月推出,直接對(duì)標(biāo)OpenAI的GPT-5。其技術(shù)路線聚焦三大方向:領(lǐng)域知識(shí)蒸餾(金融、醫(yī)療垂直優(yōu)化)、多模態(tài)融合(Q3推出圖文增強(qiáng)版)、推理能力升級(jí)(目標(biāo)響應(yīng)時(shí)間壓縮至500ms以?xún)?nèi))。