網易有道全面擁抱DeepSeek-R1,加速AI教育應用商業化落地
1月20日,DeepSeek震撼發布DeepSeek-R1,這款推理大模型在數學、編程及邏輯推理等多個領域展現出了與OpenAI頂尖模型比肩的實力,同時實現了API調用成本90%-95%的大幅縮減,無疑為科技界投下了一顆開年“重磅炸彈”。DeepSeek-R1的深度推理能力不僅為AI產業的多元化發展開辟了新航道,也為包括教育在內的多個行業帶來了革新動力。
作為教育科技企業,網易有道堅持深入挖掘教育場景下的大模型應用價值。2月6日,網易有道率先宣布全面擁抱DeepSeek-R1,旗下AI全科學習助手“有道小P”結合DeepSeek-R1超長思維鏈所提供的思考及分析能力,進一步優化了其個性化答疑功能,能夠提供更具深度、更強準確性的解題思路,大幅度升級了用戶體驗。
(“有道小P”APP界面截圖)
此外,Hi Echo、有道智云、QAnything等產品也將全面接入DeepSeek?推理能力,并于近日陸續升級;?融合全新推理大模型能力的智能硬件新品及“有道小P”?2.0版本將在不久后正式推出。
?
推理大模型加速AI教育落地
“理科大模型的成熟將大大拓展AI在教育和其它行業中的應用。我們在去年預測理科大模型將快速成熟,實際的技術創新來得更快,短短幾個月DeepSeek -R1就誕生了。這對于教育應用非常關鍵,可以說教學過程中最大的場景,最難的問題都依賴理科大模型的能力,所以我們對R1及其它推理模型的應用非常看好。” 網易有道CEO周楓表示。
內部評測數據顯示,DeepSeek-R1在有道K12測試集上的準確率高達88%,這一亮眼表現進一步堅定了有道全面啟用該模型的決心。
(DeepSeek-R1在有道k12測試集上的準確率達88%)
網易有道首席科學家段亦濤指出,DeepSeek-R1憑借完善的計算基礎設施、高效的DualPipe訓練框架、低精度訓練的創新應用,以及稀疏連接、合理分層設計等架構優化,實現了模型性能的大幅提升與成本的有效控制。 尤為值得一提的是,DeepSeek-R1采用的“強化學習”技術,摒棄了傳統的PRM方法,直接以結果為導向進行獎勵,促使AI學會更高效地思考,并展現出初步的反思能力,為行業樹立了新的技術標桿。
答疑是推理模型在教育領域應用的關鍵場景,除了前文提到的有道小P,網易有道此前在大模型“答疑”方面還進行了諸多實踐,包括有道智能硬件明星產品詞典筆X7及X7 Pro。在大模型能力支持下,X7系列成為真正意義上的AI大模型詞典筆,開啟了AI詞典筆的全科輔導時代,一經上市便受到用戶廣泛歡迎。隨著DeepSeek - R1的強勢加持,強大的推理能力必將使該類硬件產品的答疑功能得到進一步的提升和優化,為用戶提供更加精準、高效的學習支持。
新模型和新技術雙向擁抱
事實上,有道在大模型推理方面已經進行了積極的探索。此前,有道推出了國內首個輸出分步式講解的推理模型“子曰-o1”,并對外開源。作為垂類模型,子曰-o1展現出輕量級、低成本、中文邏輯推理、思維鏈技術等能力優勢,助力教育推理模型的廣泛應用。
2023年,網易有道率先推出國內首個教育大模型“子曰”,并將這些應用落地到全系軟件和硬件產品中,成為國內在教育場景中落地應用最快的企業。此次有道將在模型和技術側全面擁抱DeepSeek-R1,既能利用通用大模型的泛化能力,又能通過對垂直模型的深度把控構建護城河,有望形成多層次的競爭優勢。
技術層面,模型間的融合將形成協同效應。有道自研子曰大模型已積累教育場景下的豐富垂直數據資源,結合DeepSeek-R1的通用推理能力,可構建“專業領域+通用智能”的混合架構,提升在教育交互過程等復雜場景下的精準度。與此同時,其自研大模型可快速消化教育數據,生成高質量微調樣本,優化DeepSeek-R1的本地化表現。
另一方面,段亦濤認為擁抱DeepSeek-R1的新技術有利于其將子曰打造成為更強大的教育大模型。“依托對教育行業的認知和產品用戶數據的積累,有道此前已自研了教育領域的推理模型。開源技術會促進我們更好的利用這些資源優勢,降低我們的試錯成本,從而根據自己的需求定制、優化自有模型,筑牢子曰在教育領域的護城河。”
周楓強調,高質量開源和低價模型必然會帶來AI的大繁榮。DeepSeek將給千行萬業帶來巨大變化——AI成本降低必將加速行業發展,很快將有更多的AI使用,更多的算力需求,以及更多的就業機會和更快的科技和經濟進步。
DeepSeek-R1的全球性爆火再次助燃了大模型的“推理潮”。作為教育科技企業,2025年網易有道將依托深厚的AI技術積累,持續加大對大模型推理能力的探索力度,堅持“場景為先、應用為王”的發展理念,聚焦行業場景落地,攜手DeepSeek為代表的推理大模型共同推動教育行業邁向智能化的未來。 雷峰網雷峰網 (公眾號:雷峰網)
雷峰網原創文章,未經授權禁止轉載。詳情見 轉載須知 。