DeepSeek論文斬獲ACL 2025最佳論文,知乎掀起“稀疏注意力”解碼潮
近日舉行的ACL 2025頒獎禮上,由DeepSeek與北京大學聯合發表,并由梁文鋒親自“掛帥”的論文榮獲最佳論文獎。該研究提出的原生稀疏注意力(NSA)機制,為自然語言處理領域的效率突破提供了新思路。此次DeepSeek斬獲大獎,再度引發了學界對這一前沿技術的關注,而稀疏注意力一直是知乎上討論的AI熱點話題之一,眾多AI開發者紛紛在知乎上解碼一線科研成果,分享開發經驗。
何為原生稀疏注意力機制?不少知乎答主以AI開發者身份充當“解碼器”,以生活化的比喻科普專業技術概念。知乎答主李明殊將NSA機制比作去超市購物,“好比一個人去大超市買牙膏,傳統方法是逐排瀏覽所有貨柜;而NSA機制會做兩件事:一是‘數據壓縮’,先找到超市導覽圖確定日用品樓層,二是‘智能選擇’,重點聚焦清潔洗護區”。他認為這種機制更像人類的思考過程,更加“類人”,能顯著提升計算機訓練和推理速度,降低成本,同時保持準確性。
更多一線從業者從專業技術角度深入闡釋。復旦大學計算機技術碩士、知乎答主Nil-9解讀了NSA的三個主要部件:壓縮模塊、Blockwise選擇模塊和滑動注意力,指出“NSA既包含了Memory compression的思路,在這個基礎上又引入了稀疏化,并且還加入了位置先驗的稀疏化(sliding component)”。計算機硬件從業者、知乎答主錘煉小助手則將NSA概括為:“一個針對transformer attention的、簡單有效、高度硬件友好的token數量壓縮算法”。
知乎上圍繞稀疏注意力的專業討論早有積累,且極具行業前瞻性。2024年,清華大學計算機系副教授、知乎答主劉知遠團隊發布大模型長文本理解方法InfLLM,其中涉及的NSA改進方案被DeepSeek此次論文引用。InfLLM項目參與者、知乎答主xcjthu也深度參與NSA討論,并表示,“正如Deepseek-V3帶給大家的震撼一樣,我認為NSA的硬件親和性是這篇論文最精彩的部分”。
除了高校研究項目,多家AI明星企業也相繼發布了有關稀疏注意力的研究成果。微軟亞研院高級研究員曹士杰分享了團隊稀疏注意力相關的研發進展;月之暗面則發布了開源稀疏注意力框架MoBA。這些一線開發者不約而同選擇知乎作為專業交流陣地,形成AI科研成果碰撞的獨特場域。
自 2011年上線以來,知乎始終是 科技 領域的前沿討論場,記錄了不同技術周期下開發者的創新成果。隨著AI時代的到來,大批AI開發者、從業者涌入并活躍于此。截至目前,知乎已聚集起1600萬科技與AI領域持續學習者,356萬科技與AI話題深度創作者,沉淀了858萬個AI相關問題、2000多萬個AI專業回答。知乎已然成為開發者首發項目、首談方向、首秀成果的陣地,為AI前沿技術和應用提供了重要的創新窗口和趨勢指引。