9 月 13 日消息,昆侖萬維發布了兩款全新的獎勵模型 Skywork-Reward-Gemma-2-27B 和 Skywork-Reward-Llama-3.1-8B。在獎勵模型評估基準 RewardBench 上,這兩款模型分別位列排行榜上的第一和第三位。
獎勵模型(Reward Model)是強化學習(Reinforcement Learning)中的核心概念和關鍵組成,它用于評估智能體在不同狀態下的表現,并為智能體提供獎勵信號以指導其學習過程,讓智能體能夠學習到在特定環境下如何做出最優選擇。
獎勵模型在大語言模型(Large Language Model,LLM)的訓練中尤為重要,可以幫助模型更好地理解和生成符合人類偏好的內容。
與現有獎勵模型不同,Skywork-Reward 的偏序數據僅來自網絡公開數據,采用特定的篩選策略,以獲得針對特定能力和知識領域的高質量的偏好數據集。
Skywork-Reward 偏序訓練數據集包含約 80,000 個樣本,通過在這些樣本上微調 Gemma-2-27B-it 和 Llama-3.1-8B-Instruct 基座模型,獲得最終的 Skywork-Reward 獎勵模型。
附相關鏈接如下:
RewardBench 排行榜:https://huggingface.co/spaces/allenai/reward-bench
27B 模型地址:https://huggingface.co/Skywork/Skywork-Reward-Gemma-2-27B
8B 模型地址:https://huggingface.co/Skywork/Skywork-Reward-Llama-3.1-8B
偏序數據地址:https://huggingface.co/collections/Skywork/skywork-reward-data-collection-66d7fda6a5098dc77035336d
本文鏈接:http://www.tebozhan.com/showinfo-45-7291-0.html昆侖萬維發布獎勵模型 Skywork-Reward,登頂 RewardBench 排行榜
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com