持續開(kāi)源!中國聯(lián)通對DeepSeek系列思維鏈模型 進(jìn)行“自適應慢思考”優(yōu)化升級

數碼
TIME
2025-02-25 11:18
通信世界全媒體
分享

日前,DeepSeek團隊宣布將在“2月27日至3月3日”陸續開(kāi)源5個(gè)代碼庫,這與中國聯(lián)通一直秉持的開(kāi)源普惠理念不謀而合。繼中國聯(lián)通于1月開(kāi)源元景“自適應慢思考”思維鏈大模型后,又針對DeepSeek系列模型進(jìn)行了“自適應慢思考”優(yōu)化升級,現已開(kāi)源,開(kāi)源地址詳見(jiàn)文末。這也是目前業(yè)界首個(gè)對DeepSeek系列思維鏈模型做“自適應慢思考”優(yōu)化升級的工作。

DeepSeek官宣開(kāi)源周

“以我為主,為我所用”的開(kāi)放創(chuàng )新

元景思維鏈大模型具備多學(xué)科、多場(chǎng)景通用推理能力,且能在確保慢思考能力不打折的情況下,做到針對不同任務(wù)和難度的自適應慢思考,大幅降低了資源消耗,實(shí)現了大模型“慢思考”能力高性?xún)r(jià)比落地應用。

元景思維鏈大模型接入DeepSeek-R1并非簡(jiǎn)單的“拿來(lái)主義”,而是“從其善,優(yōu)其不善”,對DeepSeek-R1版本進(jìn)行了調整,最大程度規避了其面對簡(jiǎn)單問(wèn)題“過(guò)度思考”的現象,使模型具備了“自適應”能力。即在面向難度較高問(wèn)題時(shí)使用慢思考模式生成長(cháng)思維鏈,面向簡(jiǎn)單問(wèn)題時(shí)則傾向于生成簡(jiǎn)潔的思維鏈,迅速準確的輸出相關(guān)答案。這樣避免了答案的冗余、資源的浪費以及減少用戶(hù)等待時(shí)間,提升用戶(hù)體驗。

調整步驟完整分享

難度自適應微調:為實(shí)現模型推理的難度自適應,中國聯(lián)通利用DeepSeek-R1滿(mǎn)血版模型采樣生成數據,通過(guò)復雜度量化模塊構造長(cháng)度偏好數據集,對于簡(jiǎn)單問(wèn)題從采樣答案中挑選長(cháng)度較短的答案,對困難問(wèn)題挑選長(cháng)度較長(cháng)的答案,使得答案長(cháng)度與當前問(wèn)題復雜度相匹配。在此基礎上對DeepSeek-R1進(jìn)行微調,使得微調后的模型具備對不同難度題目的自適應慢思考能力。具體改造流程如下圖所示。

自適應慢思考的DeepSeek-R1滿(mǎn)血版模型訓練流程圖

二次蒸餾:針對DeepSeek-R1的系列蒸餾模型,由于其使用的蒸餾數據來(lái)自訓練滿(mǎn)血版R1時(shí)使用的訓練數據,而非由性能更好的R1滿(mǎn)血版自身生成的數據,這會(huì )導致得到的蒸餾模型未能充分學(xué)習R1滿(mǎn)血版的能力,蒸餾效果大打折扣。為解決這個(gè)問(wèn)題,中國聯(lián)通使用了二次蒸餾的策略,即利用DeepSeek-R1滿(mǎn)血版將已積累的高質(zhì)量數據轉化為包括深度思考過(guò)程的長(cháng)思維鏈格式數據,在DeepSeek-R1蒸餾系列模型基礎上再進(jìn)行一次微調,使模型具備更強的推理能力。

難度自適應強化學(xué)習:在對模型進(jìn)行二次蒸餾后,中國聯(lián)通進(jìn)一步借鑒DeepSeek-R1的構建思路,在GRPO算法基礎上提出了一種難度自適應強化學(xué)習算法DA-GRPO(Difficulty Adaptive GRPO),對二次蒸餾模型進(jìn)行難度自適應的強化學(xué)習訓練,進(jìn)一步提升其推理效果。除了使用傳統的基于規則的正確性獎勵、格式獎勵、語(yǔ)言一致性獎勵外,DA-GRPO還基于每個(gè)問(wèn)題的復雜程度和生成答案的長(cháng)度對獎勵得分進(jìn)行校準。具體而言,如果模型對一個(gè)簡(jiǎn)單問(wèn)題輸出較長(cháng)的答案,則對獎勵分數進(jìn)行相應的懲罰。同時(shí),若模型對困難的問(wèn)題輸出較長(cháng)的答案,則給予其更高的獎勵分數,以鼓勵其進(jìn)行更充分的思考。這樣,通過(guò)提高樣本答案獎勵得分的區分度,使模型具備根據問(wèn)題難度輸出相應長(cháng)度答案的能力,在保證推理準確率的前提下顯著(zhù)減少了答案冗余和資源消耗,從而實(shí)現對不同難度問(wèn)題的自適應慢思考。

自適應慢思考的DeepSeek-R1蒸餾版模型訓練流程圖

推理計算量節省約30%!實(shí)測效果對比一覽

中國聯(lián)通以DeepSeek-R1-distill-32B模型為例,對上述方法的效果進(jìn)行了驗證。通過(guò)在數學(xué)任務(wù)測評集(MATH500)上對比以及具體實(shí)驗可以看到,經(jīng)過(guò)難度自適應改造后的模型在不同難度等級問(wèn)題上生成的回答長(cháng)度較原版均明顯下降,并且對于最高難度(Level 5)輸出的回答長(cháng)度降幅最大,體現了模型對不同難度等級問(wèn)題具備自適應慢思考能力。經(jīng)過(guò)測評,這種創(chuàng )新的自適應慢思考方法,平均可節省約30%的推理計算量,冗余輸出大幅減少,用戶(hù)體驗得到有效提升。

回答長(cháng)度對比:原版DeepSeek-R1-distill-32B(淺藍)vs自適應版(深藍)

除了通過(guò)對DeepSeek-R1模型進(jìn)行自適應慢思考優(yōu)化升級外,中國聯(lián)通還在緊鑼密鼓推進(jìn)對DeepSeek-R1系列模型的能力邊界量化和安全價(jià)值觀(guān)增強等相關(guān)工作的探索。未來(lái),中國聯(lián)通將持續與以DeepSeek為代表的先進(jìn)開(kāi)源模型深度融合,不斷升級元景基礎模型能力和MaaS平臺功能,貫徹開(kāi)源普惠理念,推進(jìn)算力普惠、模型普惠、應用普惠,以先進(jìn)數智水平賦能社會(huì )千行百業(yè)。

目前,自適應慢思考版的DeepSeek-R1-distill-32B已在GitHub、魔搭、始智等社區全面開(kāi)源,地址如下:

GitHub:https://github.com/UnicomAI/Unichat-DeepSeek-R1-distill-32B

魔搭:https://www.modelscope.cn/UnicomAI/Unichat-DeepSeek-R1-distill-32B

始智:https://wisemodel.cn/models/UnicomLLM/Unichat-DeepSeek-R1-distill-32B

THE END
免責聲明:本文系轉載,版權歸原作者所有;刊載之目的為傳播更多信息,如內容不適請及時(shí)通知我們。

相關(guān)熱點(diǎn)

  乘聯(lián)會(huì )秘書(shū)長(cháng)崔東樹(shù)近日發(fā)文稱(chēng),乘聯(lián)會(huì )根據2025年1月乘用車(chē)行業(yè)數據發(fā)布的較好表現,以及考慮到2025年的國家政策促銷(xiāo)費的良好政策取向和未來(lái)環(huán)境變化趨勢,對2025年的行...
新能源
  記者2月24日從深圳市眾擎機器人科技有限公司(以下簡(jiǎn)稱(chēng)眾擎機器人)獲悉,日前該公司研發(fā)的人形機器人完成全球首例機器人前空翻特技,展示出眾擎機器人不僅行走優(yōu)雅穩定,還...
智能AI

相關(guān)推薦

1
3
人人狠狠综合久久亚洲88_国产超薄丝袜足底脚交国产_日本wvvw高清中文字幕_97国产品香蕉在线观看