久久精品欧美日韩精品/狠狠色婷婷久久一区二区三区/国产精品午夜无码av体验区/丰满人妻av无码一区二区三区/成人做爰A片免费看网站爱酱

MAU被豆包反超,Deepseek擠了點牙膏

在R2多次傳聞更新然后被“鴿”之后,Deepseek又擠了一點牙膏。

10月20日,DeepSeek團隊在Hugging Face與GitHub上線并開源了DeepSeek-OCR,參數規模約3B,采用了“視覺-文字壓縮”方案,相較傳統OCR模型提升了的掃描效率。DeepSeek-OCR的出現,有望補上DeepSeek在工具模型領域的又一塊拼圖。

然而,最近兩個月,這家火爆2025的AI獨角獸,在C端用戶規模上遭遇了頭號競爭對手——豆包的反超。根據QuestMobile此前披露的數據,中國消費級AI助手的榜首在近期易位,8月數據顯示,“豆包”月活(MAU)約為1.57億,環比增長6.6%,反超DeepSeek約1.43億升至第一。在一些業內分析視角,“豆包”的反超源于其多模態能力的廣泛應用,以及與抖音生態的深度接入。

不過,DeepSeek方面似乎堅信憑借模型技術迭代,也可以走出差異化道路。?在最新的OCR模型發布說明中,團隊再次強調了“基礎能力”的重要性——這個模型不僅能識別中英文混合文本,還能處理手寫體、復雜表格等高難度場景,準確率在多個公開數據集上刷新了紀錄。隨著AI“六小龍”為代表的AI創業公司在2025年多少都呈現出一些“方向調整”的態勢,Deepseek似乎成為了國內唯一一家與“OpenAI模式”類似的企業:憑借出色的模型能力在C端市場沖到領先位置,并持續深耕超大參數模型賽道。

如果把2025年看作國內C端AI的“分水嶺”,上半場無疑是DeepSeek以開源與推理能力拉動的“技術爆炸時刻”,下半場豆包的反超,則更像是互聯網巨頭在深度整合資源后的“反擊時刻”。而讓出C端市場頭把交椅的Deepseek,卻遲遲沒有對旗下主力模型進行大版本更新。本次DeepSeek-OCR的“擠牙膏”,似乎是這家國內頂流AI創業公司,技術鏈路優先理念的又一次延續。

01

OCR,一項大眾并不陌生的技術,指將文本圖像轉換為機器可讀文本格式的流程。和此前的OCR系統/模型不同,Deepseek-OCR采用了“視覺-文字壓縮”方案,這樣一個只有3B大小的模型,卻在OmniDocBench測試中,僅使用100個視覺標記就勝過了GOT-OCR 2.0,后者用了256個視覺標記。而在標記數量少于800個的情況下,它也擊敗了MinerU 2.0,后者每頁需要超過6000個標記。

另一方面,百度在此前正式發布并開源其自研的多模態文檔解析模型PaddleOCR-VL。這一模型在全球權威的文檔解析評測榜單OmniBenchDoc V1.5中,以92.6分的成績登頂全球第一。而Deepseek緊隨其后發布的Deepseek-OCR的操作,在一些行業社群中被冠以“阻擊競爭對手”的標題。

回到Deepseek-OCR的“視覺-文字壓縮”方案,通常情況下,大語言模型在執行OCR任務時計算成本極高——處理的文字單元越多,計算量就會呈二次方增長。傳統的OCR系統在識別一頁文檔時,往往需要處理上千個文字標記才能完成用戶指令。

而在Deepseek-OCR,模型工程人員嘗試了一種更高效的路徑:利用視覺語言模型(VLM),直接在語義層面對圖像中的文字信息進行壓縮,將原本需要成千上萬文字標記才能表達的內容,映射為更少量、更具語義密度的視覺標記,從而顯著降低整體計算成本。

此外,DeepSeek-OCR還擁有“深度解析模式”,能將財務類圖表直接轉化為結構化數據,自動生成Markdown表格與圖像。這意味著,一份包含數字、曲線、圖注的財報截圖,不再需要人工復制粘貼或二次整理,系統就能還原出可編輯的分析稿格式。

這套系統的核心由兩部分組成:負責圖像理解的DeepEncoder,以及基于DeepSeek-3B-MoE架構的文字生成模塊。DeepEncoder約有3.8億參數,專門分析圖像并生成壓縮后的視覺特征;而文字生成部分啟用了5.7億個活躍參數,用于根據這些視覺特征生成高精度的文字描述。

據了解,Deepseek-OCR在10倍壓縮下解碼精度可達97%,即使在20倍壓縮下也能保持60%的準確率。這意味著一張圖像僅需LLM所需token的一小部分,即可表示整篇文檔。

從技術維度看,該模型代表著DeepSeek正在從“語言模型+Chatbot”核心路徑,向更多的用戶場景拓展。伴隨著Deepseek-OCR的正式開源,其相關能力有望進一步產品化,在長文本、表格、跨頁文檔的壓縮與提取場景均有應用空間。

回顧Deepseek的通用大模型產品線不難發現,OCR能力一直是R1系列的能力短板。此前,盡管DeepSeek R1在成本效益和邏輯性能方面具有明顯的優勢,但PDF解讀等場景與其他頂級模型(Claude Opus 4和ChatGPT-5)相比仍然較為有限。缺乏原生OCR、文件大小限制以及文件API缺失,使得DeepSeek R1無法成為完整的文檔解決方案。

所以,DeepSeek-OCR既有可能衍生出獨立工具產品,也可能是后續通用模型迭代的“技術積累”動作。而傳說中的大版本更新,根據《The Information》在此前的報道中披露,“盡管DeepSeek工程師過去數月一直在高強度開發R2模型,但CEO梁文鋒對新模型的性能表現并不滿意。”

R2的面世時間也因此一拖再拖,但產品領域的競爭對手卻已經拍馬趕到。就在幾周前,另一款AI App取代了Deepseek ,成為了新的C端AI應用月活冠軍。豆包,帶著字節系產品的龐大生態,在下半年卷土重來。

02

根據QuestMobile數據,2025年8月,豆包月活用戶數約為1.57億,環比增長約6.6%;同期DeepSeek月活約為1.43億。豆包時隔兩個季度,在國內C端AI應用市場中重新奪回頭部地位。

奪回“月活冠軍”,豆包的成功離不開其生態優勢與用戶觸點積累。和Deepseek不同,豆包定位為面向所有“大眾用戶”、強調場景化體驗,在語音、圖像、社交分享等領域均延展了模型能力,降低了用戶使用門檻。與此相比,DeepSeek雖在技術上表現強勁,卻更像ChatGPT模式的聊天應用,入口單一、使用門檻相對更高。

具體而言,豆包對于Deepseek的包圍主要體現在以下三個領域:一方面,豆包天然可以借助抖音等字節系社交平臺的分發能力。從豆包面世以來,字節方面在AI產品投放上積攢了大量經驗,在一些視頻網站上,各種“劇情”的豆包廣告層出不窮,許多新用戶往往在這一過程中被動接觸并轉化。

另一方面,豆包在立項一開始就瞄準了最廣泛的受眾,產品體驗面更寬。甚至在兩個產品的名字上就可以窺探一二。相比起“Deepseek”的極客風,“豆包”這個名字,對于國內用戶也相對更朗朗上口。在APP的logo設計上,豆包也選擇了更加擬人化的處理。據了解,在豆包立項之初,人格化交互能力就是豆包能力建設的板塊之一,隨豆包一同公測的還有聊天Agent“小寧”,可以說,陪伴/擬人的屬性在一開始就是豆包基因的一部分。

此外,憑借著字節在語音/視頻生成等多領域建立起的模型矩陣,如今的豆包堪稱AI圈的超級APP。支持多種多模態(文本、語音、圖像、視頻生成)功能,功能繁雜的同時也有清晰的用戶引導邏輯,小白用戶上手快,讓“非AI玩家”也能有不錯的體驗。

《WIRED》在此前披露的一篇專欄中這樣形容“豆包”:“它就像ChatGPT、Midjourney、Sora、Character.ai、TikTok、Perplexity等眾多功能集成在一個應用程序中。”事實證明,這種大而全的一體化AI解決方案,對于0基礎的AI產品用戶確實相對友好。

據《南華早報》報道,今年1月,爆火的DeepSeek取代ChatGPT,一度奪得App Store美區榜首位置。但在隨后一段時期,國內幾大AI巨頭紛紛開始發力,C端AI應用市場陷入了投流和“內卷”的競爭中,除了剛剛奪回第一名寶座的豆包,騰訊旗下的元寶在8月也收獲了22.4%的用戶增長,MAU達到3300萬。螞蟻集團旗下的AQ健康應用也沖進了榜單前十,該應用于6月推出,8月用戶數環比增長60.1%。

而據QuestMobile數據顯示,5月份離開DeepSeek的用戶中,約有40%轉投豆包。在“好用”和“好玩又好用”之間,對于大部分普通用戶而言,后者的吸引力顯然更大一些。

在這場頭名競逐中,豆包和背后的字節跳動擁有了科技巨頭級的體量、數據和全球布局,而DeepSeek的優勢在于靈活、學院派的研究范式,以及一條更“專注”的技術路線。而在2025年10月的節點,是豆包憑借著更大的生態體量,成功擠到了隊伍最前面。

03

盡管DeepSeek在2025年初曾取得引人關注的用戶增長與技術突破,但其后增長勢頭出現減緩跡象。咨詢公司羅蘭貝格此前披露的報告指出,截至2025年2月,DeepSeek與豆包在中國Top 10 AI應用中并列,但彼時Deepseek領先豆包約3600萬MAU。此后,豆包在8月完成反超。

從產品更新節奏看,DeepSeek在2024年底發布V3模型,今年5月發布R1-0528,優化了R1模型的幻覺問題。但在這之后,盡管大版本更新傳言不斷,但傳說中的R2卻遲遲未現真身。在本次OCR模型發布之前,Deepseek在下半年的主要動作是更新了V3.1模型,支持混合推理模式以及128K tokens的長上下文輸入。

而在月活榜單被豆包擠到第二名后,Deepseek也并未在App端交互/生態上做出大幅優化動作。事實上,從年初爆火到至今,Deepseek App一直沿用著類似“ChatGPT”風格的交互邏輯,沒有豆包里各種第一方/第三方Agent,堅定走在“模型即產品”的道路上。

在戰略路徑上,Deepseek始終堅持“技術深耕”的路線。本次更新的Deepseek-OCR模型也說明,這家AI獨角獸在LLM領域仍然有著領先的技術探索能力。但面對競爭對手們龐大的生態優勢,Deepseek眼下的產品理念和風格,對于用戶規模的轉化效率仍有待觀察。

不過,DeepSeek確實沒理由太過焦慮,即使被豆包反超,Deepseek仍然坐擁1.5億月活,在C端領域已經打響了口碑。而在技術指標上,Deepseek也一直在延續超大參數模型策略,V3系列總參數量高達671B,同期AI“六小龍”其他的開源模型,如智譜GLM-4.5只有355B。

此外,在一些業內視角看來,DeepSeek-OCR的發布,一方面在C端工具類場景有著不錯的應用前景,同時也可能成為模型訓練的“催化劑”。據了解,DeepSeek-OCR每天可以在單個Nvidia A100 GPU上處理超過20萬頁數據。如果使用20臺服務器,每臺服務器運行8塊A100處理器,吞吐量將躍升至每天3300萬頁。

這樣的吞吐效率,可以有效幫助構建其他大模型的訓練數據集。對于走超大參數路線的AI企業而言,LLM訓練中往往需要海量高質量文本,而DeepSeek-OCR出現,無疑在這一領域指向了一條更高效的解決鏈路。

未來,DeepSeek如果想要在后續和豆包“掰掰手腕”,生態因素仍然是不得不考慮的因素。強如OpenAI,進入2025年后,也在積極拓展模型能力在各領域生態的構建,不管是參與AI玩具等硬件方案的研究,還是Sora2以短視頻平臺的方式與用戶見面,OpenAI已經給Deepseek留下了參考模板。

換言之 ,Deepseek眼下的要緊事,除了加速下一代模型的迭代外,利用好手上的龐大的C端用戶規模同樣至關重要。由于模型產品線不同,Deepseek短期內顯然無法復刻字節/OpenAI的生態策略。但對于這家技術底色濃厚的AI獨角獸而言,在C端生態上能否搞出一些差異化的路線,將是它能否再度向豆包發起沖擊的重要因素。

特別聲明:本文為合作媒體授權DoNews專欄轉載,文章版權歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉載請聯系原作者及原出處獲取授權。(有任何疑問都請聯系idonews@shenlucha.cn)

MAU被豆包反超,Deepseek擠了點牙膏
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2025 All Rights Reserved