6 月 4 日消息,上海人工智能實(shí)驗(yàn)室聯(lián)合清華大學(xué)、伊利諾伊大學(xué)香檳分校等學(xué)府,組建國(guó)際團(tuán)隊(duì)研發(fā)新方法,通過(guò) Clip-Cov 和 KL-Cov 技術(shù)有效應(yīng)對(duì)策略熵崩潰問(wèn)題。
背景簡(jiǎn)介
大型語(yǔ)言模型(LLMs)近年來(lái)在推理能力上的突破,讓強(qiáng)化學(xué)習(xí)(RL)的應(yīng)用范圍從單一任務(wù)擴(kuò)展到更廣泛的場(chǎng)景,這種進(jìn)步賦予了模型更強(qiáng)的泛化能力和邏輯推理能力。
然而,與傳統(tǒng)的模仿學(xué)習(xí)不同,強(qiáng)化學(xué)習(xí)需要更高的計(jì)算資源來(lái)支持從經(jīng)驗(yàn)中學(xué)習(xí),核心問(wèn)題在于策略熵(反映了模型在利用已知策略和探索新策略之間的平衡)的下降。
熵值過(guò)低會(huì)導(dǎo)致模型過(guò)度依賴已有策略,喪失探索能力。這一探索-利用權(quán)衡(exploitation-exploration trade-off)是強(qiáng)化學(xué)習(xí)的基礎(chǔ),如何控制策略熵成為訓(xùn)練中的關(guān)鍵難題。
策略熵崩潰的理論與實(shí)踐突破
為解決這一問(wèn)題,研究團(tuán)隊(duì)提出了一個(gè)經(jīng)驗(yàn)公式:R = ?a exp H + b,其中 H 代表策略熵,R 為下游任務(wù)表現(xiàn),a 和 b 為擬合系數(shù)。這一公式揭示了策略性能與熵值之間的權(quán)衡關(guān)系,指出熵耗盡是性能瓶頸。
研究進(jìn)一步分析了熵動(dòng)態(tài)變化,發(fā)現(xiàn)其受動(dòng)作概率與 logits 變化協(xié)方差的驅(qū)動(dòng)。為此,團(tuán)隊(duì)創(chuàng)新性地提出了 Clip-Cov 和 KL-Cov 兩種技術(shù),分別通過(guò)裁剪高協(xié)方差 token 和施加 KL 懲罰來(lái)維持熵水平。
實(shí)驗(yàn)基于 Qwen2.5 模型和 DAPOMATH 數(shù)據(jù)集,覆蓋數(shù)學(xué)任務(wù),結(jié)果顯示新方法在 7B 和 32B 模型上分別提升了 2.0% 和 6.4% 的性能,尤其在 AIME24 和 AIME25 等高難度基準(zhǔn)測(cè)試中,32B 模型性能提升高達(dá) 15.0%。
研究團(tuán)隊(duì)在包括 Qwen2.5、Mistral、LLaMA 和 DeepSeek 在內(nèi)的 11 個(gè)開(kāi)源模型上進(jìn)行了測(cè)試,參數(shù)規(guī)模從 0.5B 到 32B 不等,涵蓋數(shù)學(xué)和編程任務(wù)的 8 個(gè)公開(kāi)基準(zhǔn)測(cè)試。
訓(xùn)練采用 veRL 框架和零樣本設(shè)置,結(jié)合 GRPO、REINFORCE++ 等算法優(yōu)化策略性能。結(jié)果表明,Clip-Cov 和 KL-Cov 技術(shù)能維持更高的熵水平,例如 KL-Cov 方法在基線熵值趨于平穩(wěn)時(shí)仍保持 10 倍以上的熵值。
這不僅解決了策略熵崩潰問(wèn)題,也為強(qiáng)化學(xué)習(xí)在語(yǔ)言模型中的擴(kuò)展提供了理論支持。研究強(qiáng)調(diào),熵動(dòng)態(tài)是性能提升的關(guān)鍵瓶頸,未來(lái)需進(jìn)一步探索熵管理策略,以推動(dòng)更智能語(yǔ)言模型的發(fā)展。
附上參考地址
The Entropy Mechanism of Reinforcement Learning for Large Language Model Reasoning
The Entropy Mechanism of Reinforcement Learning for Reasoning Language Models
本文鏈接:http://www.tebozhan.com/showinfo-45-13428-0.html上海 AI 實(shí)驗(yàn)室聯(lián)合清華等大學(xué)突破強(qiáng)化學(xué)習(xí)算法,攻克 AI 推理熵崩潰難題
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: “立即行動(dòng)!”:OpenAI CEO 奧爾特曼示警,AI 時(shí)代企業(yè)不行動(dòng)就出局
下一篇: Claude Explains 首秀:AI 撰寫(xiě)專業(yè)技術(shù)博客,探索人機(jī)內(nèi)容協(xié)作新模式