得一微發布AI
近日,得一微電子(YEESTOR)發布集成AI-MemoryX技術的顯存擴展解決方案。該方案依托自研存儲控制芯片和AI存儲系統級創新,顯著提升單機的顯存容量,讓32B、70B、110B、671B等DeepSeek系列大模型實現單機微調訓練,為AI大模型的微調訓練提供功能強大且 經濟 實惠的解決方案。
得一微電子及相關合作伙伴將提供完整的微調訓練機解決方案,助力眾多行業拓展智能應用邊界,在產業競爭中占據先機。
低成本實現顯存擴展,解鎖百倍大模型微調訓練提升
訓練和推理對GPU顯存的需求存在顯著差異。對于同一尺寸的模型,訓練所需的顯存通常是推理的20倍以上。目前市場上,訓推一體機在支持大模型微調訓練方面仍面臨顯存容量的挑戰,通常只能支持7B、14B等大模型的微調訓練,難以支持110B、70B、32B等更大模型的微調訓練。
得一微發布的AI-MemoryX顯存擴展卡,將促進訓推一體機能夠支持超大尺寸大模型的微調訓練,幫助客戶支持高達110B(甚至671B)規模的訓練任務。同時,AI-MemoryX技術將原本需耗費數百上千萬的硬件擴充成本,降低至數萬元級別,大幅降低了超大模型訓練的門檻。這將使得更多企業甚至個人都能夠以有限的資源,高效開展大規模模型的訓練與微調。
高效解決顯存瓶頸,開啟單機微調訓練新方式
顯存不足,一直是單機微調訓練超大模型的最大障礙。當下受GPU技術以及 商業 模式的限制,單張GPU顯存容量極為有限,中端顯卡的顯存容量大多在48GB到64GB之間。以DeepSeek 70B模型為例,微調訓練所需的顯存高達1TB到2TB,這意味著需要動用30多張顯卡;而對于DeepSeek 671B模型,更是需要達到10TB到20TB的顯存,對應300多張顯卡。如此龐大的硬件需求,不僅成本高昂,還使得部署極為復雜,嚴重阻礙了大模型單機微調的普及。
得一微電子的AI-MemoryX技術通過其創新性的顯存擴展方案,使單機顯存容量從傳統顯卡的幾十GB提升到10TB級別,大幅降低了微調訓練對GPU數量的需求。得益于此,DeepSeek不同尺寸的大模型(如32B、70B、110B、671B等)僅需1到16張顯卡,配合顯存擴展技術,即可高效完成單機訓練微調。該技術為大模型在各行業的應用推廣提供了有力支持。
得一微電子推出的 AI-MemoryX 解決方案,是一個完整的微調訓練機方案,涵蓋大模型訓練框架、顯存擴展卡軟件棧以及顯存擴展卡X200系列,為大模型微調訓練提供全方位的技術支持與賦能。
得一微AI-MemoryX技術特色,發掘微調的潛力和價值
監督微調SFT:小樣本撬動大效能
華裔科學家、“AI教母”李飛飛團隊等研究人員,僅用1000個樣本對模型進行監督微調,并創新性地提出預算強制(budget forcing)技術,讓s1-32B模型在多個基準測試中超越閉源模型OpenAI o1-preview,成為目前樣本效率極高的推理模型。
s1-32B模型并非從零構建,而是基于預訓練模型(阿里通義千問 Qwen2.5-32B - Instruct)進行監督微調。這一成果表明,當模型知識基礎足夠扎實時,少量高質量示例即可通過推理鏈激活其潛在推理能力,無需依賴海量數據,高效且實用。
思維鏈微調CoT:注入行業思維,提升推理深度
各行各業都有其獨特的思維方式,而精心設計的推理鏈,不僅能助力模型精準理解問題,還能顯著提升其推理的準確性和泛化能力。
DeepSeek通過蒸餾技術,將R1模型的思考能力傳遞給其他模型,讓它們也具備R1級別的思考實力。企業開發者可以提供優質的行業問題與示范,引導模型自主深入思考,以微調為橋梁,將千行百業的人類專家的思維模式和思考過程融入大模型的推理鏈條中,使模型更契合行業特點和實際需求。
強化學習微調RFT:規則框架下的自我進化
每個行業都有每個行業需要解決的問題和方法。強化學習微調,相當于賦予AI一套復雜的規則與思考框架,使其在反復實踐與推理中,逐步掌握解決問題的高效方法。這一訓練方式依托微調數據集和測試數據集兩大核心數據集。模型先通過微調數據集進行學習,再使用測試數據集驗證推理能力,找出不足并針對性調整。通過這種持續迭代的自我訓練與驗證,模型推理能力不斷攀升,最終在特定領域達到專業級水平,為專業應用場景提供強大支撐。
得一微電子,引領存算技術新潮流
得一微電子始終錨定存儲控制、存算一體、存算互聯領域的技術前沿,致力成為行業領先的芯片設計公司。公司面向企業級、車規級、工業級、消費級等全場景應用,提供量身定制的解決方案與服務。