2026-02-27 16:59:00
每經編輯|張錦河
據媒體2月27日報道,在業界對新一代旗艦模型DeepSeek V4的翹首期盼中,DeepSeek團隊卻悄然放出了一篇新的學術論文。

這篇論文由DeepSeek聯合北大、清華共同撰寫,將研究方向投向了決定大模型實際應用落地的關鍵一環——推理速度,為日益復雜的AI智能體,提供一套高效的底層系統解決方案。
具體來說,新論文介紹了一個名為DualPath的創新推理系統,專門針對智能體工作負載下的大模型(LLM)推理性能進行優化。通過引入“雙路徑讀取KV-Cache(類似記憶緩存)”機制,重新分配存儲網絡負載,將離線推理吞吐量最高提升 1.87 倍,在線服務的每秒智能體運行數平均提升 1.96 倍。
論文在引言部分提到,大模型正從單輪對話機器人和獨立推理模型,快速演進為智能體系統 ——能夠自主規劃、調用工具,并通過多輪交互解決實際任務。這種應用范式的轉變,推動大模型推理工作負載發生重大變革:從傳統的人類-大模型交互,轉向人類-大模型-環境交互,交互輪次可達數十甚至數百輪。
上下文會跨輪次累積,最終長度可能達到極值。此時模型不需要大量計算,反而需要頻繁從硬盤讀取歷史上下文的 KV-Cache;現有系統中,只有負責預處理的引擎會讀取KV-Cache,它的網卡帶寬被占滿,而負責生成內容的解碼引擎,網卡帶寬基本閑置,導致整個系統速度被卡脖子。
因此,論文提出的DualPath,針對智能體工作負載、重新設計現代推理架構中 KV-Cache加載邏輯,解決大模型做智能體任務時,速度被 “數據讀取”拖慢的核心問題,重要的是把閑置的帶寬資源利用起來,相當于給數據讀取 “多開了一條高速路”,實現速度的大幅提升。
這一論文成果延續了DeepSeek一貫的風格,在工程化層面將性能優化推向極致。有從業者認為,DeepSeek做這類優化屬于缺顯卡的無奈之舉,屬于“臟活兒累活兒”,大家更期待團隊在模型上做創新。
關于DeepSeek V4的發布時間,市場傳聞已幾經更迭。從最初傳聞的2月春節前后,到外媒最新報道的“最快下周”,再到業內人士預測的3月前后,傳聞鏈條愈發撲朔迷離。
就在近日,外網有網友爆料稱,DeepSeek 正在測試 V4 Lite 模型,代號為“Sealion-lite”,上下文窗口為 100萬tokens,并原生支持多模態推理。也有消息提及,DeepSeek已在近期將重大更新版本V4向華為等國內廠商提供提前訪問權,以支持其優化處理器軟件,確保模型在硬件上高效運行。然而,英偉達等廠商尚未獲得類似權限。
面對傳聞,DeepSeek依舊保持其一貫的沉默,目前并未進行任何回應。
此前,DeepSeek被大量用戶吐槽風格突變,"變冷淡",從原本細膩共情變為不稱昵稱、文風生硬帶“登味”,共情能力下降。
2月12日晚,話題“Deepseek被指變冷淡了”登上微博熱搜。當天,多名用戶反饋,DeepSeek在網頁端和APP端進行了版本更新,支持最高1M(百萬)Token的上下文長度。而去年8月發布的DeepSeekV3.1上下文長度拓展至128K。
作為較早入局國內大模型賽道的玩家,DeepSeek憑借早期技術積累和差異化定位,曾在AI助手市場占據先發優勢。而隨著字節跳動豆包、百度文心一言、阿里通義千問等巨頭產品加速迭代,以及ChatGPT、Claude等海外強敵持續施壓,國內AI助手賽道已進入白熱化競爭階段。
每日經濟新聞綜合第一財經、公開信息
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP