DoNews9月29日消息,DeepSeek 今日正式發布 DeepSeek-V3.2-Exp 模型,這是一個實驗性(Experimental)的版本。
作為邁向新一代架構的中間步驟,V3.2-Exp 在 V3.1-Terminus 的基礎上引入了 DeepSeek Sparse Attention(一種稀疏注意力機制),針對長文本的訓練和推理效率進行了探索性的優化和驗證。
DeepSeek Sparse Attention(DSA)首次實現了細粒度稀疏注意力機制,在幾乎不影響模型輸出效果的前提下,實現了長文本訓練和推理效率的大幅提升。
為了嚴謹地評估引入稀疏注意力帶來的影響,官方特意把 DeepSeek-V3.2-Exp 的訓練設置與 V3.1-Terminus 進行了嚴格的對齊。在各領域的公開評測集上,DeepSeek-V3.2-Exp 的表現與 V3.1-Terminus 基本持平。
目前,官方 App、網頁端、小程序均已同步更新為 DeepSeek-V3.2-Exp。
本次更新帶來了 API 大幅度降價,開發者調用 DeepSeek API 的成本將降低 50% 以上。
DeepSeek-V3.2-Exp 雖然已經在公開評測集上得到了有效性驗證,但仍然需要在用戶的真實使用場景中進行范圍更廣、規模更大的測試。為方便用戶進行對比測試,官方為 V3.1-Terminus 臨時保留了額外的 API 訪問接口。
DeepSeek-V3.2-Exp 模型現已在 Huggingface 與魔搭開源。