AVt天堂网 手机版,亚洲va久久久噜噜噜久久4399,天天综合亚洲色在线精品,亚洲一级Av无码毛片久久精品

當前位置:首頁 > 元宇宙 > AI

院士領銜推出大模型的第 3 種記憶:比參數存儲和 RAG 都便宜,2.4B 模型越級打 13B

來源: 責編: 時間:2024-07-11 17:26:17 126觀看
導讀 給大模型加上第三種記憶格式,把寶貴的參數從死記硬背知識中解放出來!中科院院士鄂維南領銜,上海算法創新研究院等團隊推出 Memory3,比在參數中存儲知識以及 RAG 成本都更低,同時保持比 RAG 更高的解碼速度。在實驗

給大模型加上第三種記憶格式,把寶貴的參數從死記硬背知識中解放出來!IgA28資訊網——每日最新資訊28at.com

中科院院士鄂維南領銜,上海算法創新研究院等團隊推出 Memory3,比在參數中存儲知識以及 RAG 成本都更低,同時保持比 RAG 更高的解碼速度。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

在實驗中,僅有 2.4B 參數的 Memory3 模型不僅打敗了許多 7B-13B 的模型,在專業領域任務如醫學上的表現也超過了傳統的 RAG 方法,同時推理速度更快,“幻覺”問題也更少。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

目前相關論文已上傳到 arXiv,并引起學術界關注。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

知識按使用頻率分類

這一方法受人腦記憶原理啟發,獨立于存儲在模型參數中的隱性知識和推理時的短期工作工作記憶,給大模型添加了顯式記憶。IgA28資訊網——每日最新資訊28at.com

具體來說,人類的記憶大致可以分為三部分:IgA28資訊網——每日最新資訊28at.com

顯式記憶:可以主動回憶的長期記憶,比如讀過的文章。獲取顯式記憶很容易,但提取時需要一定的回憶過程。IgA28資訊網——每日最新資訊28at.com

隱式記憶:無意識使用的長期記憶,比如騎自行車的技能。獲取隱式記憶需要大量重復練習,但使用時毫不費力。IgA28資訊網——每日最新資訊28at.com

外部信息:存在大腦之外的信息,如考試時的備考資料。獲取和使用都很輕松,但遇到新問題時作用有限。IgA28資訊網——每日最新資訊28at.com

可以看出,三種記憶形式在獲取和使用的效率上形成了鮮明的互補。人腦會根據知識的使用頻率,巧妙地在它們之間分配存儲位置,從而最小化整體開銷。IgA28資訊網——每日最新資訊28at.com

反觀大模型,目前主要依賴在參數中以隱式記憶的形式來存儲知識,這導致兩個問題:IgA28資訊網——每日最新資訊28at.com

知識分配效率低:無論一個知識使用得多頻繁,都一視同仁塞進參數里,導致大量冷知識占用了寶貴的參數空間。IgA28資訊網——每日最新資訊28at.com

知識提取效率低:每次使用知識,都得動用大量參數參與計算。IgA28資訊網——每日最新資訊28at.com

目前在訓練階段,團隊將大模型比作顯式記憶能力受損的患者,靠學習如何系鞋帶一樣的大量重復練習才能背下一點知識,消耗大量的數據和能量。IgA28資訊網——每日最新資訊28at.com

在推理階段,大模型又好像一個人每寫一個單詞時都要回憶起畢生所學的一切,就很不合理。IgA28資訊網——每日最新資訊28at.com

基于以上思路,團隊按照知識的預期使用頻率(橫軸)計算了讀寫成本(縱軸),陰影區域表示給定記憶格式的最小成本區域。IgA28資訊網——每日最新資訊28at.com

結果發現,把常用知識塞進模型參數里成本最低,但容量有限;不常用的知識直接檢索效率最高,但每次讀取都要重新編碼,成本高;而顯式記憶則是個平衡點,對于使用次數中等的大部分知識最劃算。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

記憶電路理論

團隊進一步在論文中提記憶電路理論,在大模型語境下重新定義知識和記憶,以確定哪些知識更適合存儲為顯式記憶,以及什么樣的模型架構適合讀寫顯式記憶。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

通過分析一些已知的大模型內部機制,如事實問答、搜索復制粘貼等,團隊認為大模型中的每條知識都可以表示為一個輸入-輸出關系,加上實現這個關系的內部電路(circuit)。IgA28資訊網——每日最新資訊28at.com

電路指計算圖中的一個子圖,由一些注意力頭和 MLP 神經元組成,這些電路的輸入輸出具有一定的語義關聯。大模型的知識可進一步分為兩類:IgA28資訊網——每日最新資訊28at.com

具體知識(specific knowledge):電路的輸入和輸出都具有明確的語義,如常識、常見短語等。IgA28資訊網——每日最新資訊28at.com

抽象知識(abstract knowledge):電路的輸出語義可變,如搜索、復制、粘貼,需要通過輸入推理出輸出。IgA28資訊網——每日最新資訊28at.com

接下來,作者引入可分離知識(separable knowledge)的概念:如果一個知識可以僅通過文本實現而不必內置到模型參數里,那它就是可分離的。IgA28資訊網——每日最新資訊28at.com

可模仿知識(imitable knowledge)是可分離知識的一個特例,可以直接用描述這條知識自身的文本去“教會”另一個不具備這條知識的大模型,無需通過參數來編碼。IgA28資訊網——每日最新資訊28at.com

一個核心結論是,具體知識都是可模仿的,因此也是可分離的,都可轉化為顯式記憶。論文從理論上給出了(非形式化)證明。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

團隊進一步把具體知識按使用次數分成“無關緊要”、專業知識和常見短語三個等級,不同等級按照讀寫成本分別適合三種不同的記憶格式。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

擁有顯式記憶的大模型 Memory3

那么如何實現顯式記憶呢?IgA28資訊網——每日最新資訊28at.com

以注意力層的 key-value 向量作為顯式記憶的載體,在推理之前,Memory3 模型將所有引用文本轉換為顯式記憶,并將它們保存在硬盤或非易失性內存設備上。IgA28資訊網——每日最新資訊28at.com

在推理時,模型會查詢與當前上下文最相關的一些顯式記憶,將它們并入注意力機制中,與上下文的 key-value 向量一起計算注意力分數,生成下一個 token。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

然而,海量文本轉化成的顯式記憶不僅需要更多的磁盤空間,而且在推理過程中還會占用 GPU 內存,從而損害 LLM 生成的吞吐量。IgA28資訊網——每日最新資訊28at.com

為此,Memory3 采取了多維度壓縮優化策略:IgA28資訊網——每日最新資訊28at.com

layer 維度:只有前半部分的注意力層(記憶層)產生和存取顯式記憶,后半部分仍然是普通的注意力層。IgA28資訊網——每日最新資訊28at.com

head 維度:每層只有少部分 head(如 1/5)負責處理顯式記憶的 key-value,其他 head 保持原樣。IgA28資訊網——每日最新資訊28at.com

token 維度:對于每個 head,只選取參考文本中最相關的少量 token(如 8 個),提取其 key-value 作為顯式記憶。IgA28資訊網——每日最新資訊28at.com

最后再進一步用向量量化(vector quantization)壓縮每個 key 和 value 向量到更短的表示。IgA28資訊網——每日最新資訊28at.com

多級壓縮的組合,使得顯式記憶的規模從 45.9TB 壓縮到 4.02TB,壓縮到一個 GPU 集群通常配備的存儲容量之內。IgA28資訊網——每日最新資訊28at.com

另外,團隊在顯式記憶的讀寫上還有一些值得注意的細節設計:IgA28資訊網——每日最新資訊28at.com

推理時為了避免不同文本片段重復檢索顯式記憶,Memory3 每隔 64 個 token 做一次檢索,中間共享檢索結果。IgA28資訊網——每日最新資訊28at.com

頻繁調用顯式記憶會產生 IO 開銷。為此,Memory3 在內存中維護了一個固定大小的緩存,存儲最近訪問過的顯式記憶。IgA28資訊網——每日最新資訊28at.com

對于參考文本,模型使用不同的輸入符號(“<s>Reference:”)將其與普通文本區分開,避免干擾文本理解。IgA28資訊網——每日最新資訊28at.com

對于顯式記憶中的不同文本片段,模型為其分配了同一區間的位置編碼,保留局部上下文。這種”平行”位置編碼避免了長文本中間部分被忽略的問題。IgA28資訊網——每日最新資訊28at.com

最終訓練出來的 Memory3 模型,在 HuggingFace 排行榜上的評測結果如下,顯式記憶將平均分數提高了 2.51%。IgA28資訊網——每日最新資訊28at.com

相比之下 Llama2-7B 和 13B 之間的分數差異為 4.91%,而 13B 模型的非嵌入參數數量接近 7B 模型的兩倍。IgA28資訊網——每日最新資訊28at.com

因此,可以說顯式記憶可以將“有效模型大小”提高了 2.51/4.91≈51.1%。如果用 Qwen-1.8B 和 4B 來做參考,計算結果相似,“有效模型大小”提高 49.4%。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

在幻覺評估上,Memory3 避免了將文本壓縮到模型參數中可能會導致的信息丟失,表現的比大部分模型要好。IgA28資訊網——每日最新資訊28at.com

IgA28資訊網——每日最新資訊28at.com

論文中還詳細報告了從數據到訓練、微調和對齊過程的具體設置,感興趣的可以查看原文。IgA28資訊網——每日最新資訊28at.com

論文地址IgA28資訊網——每日最新資訊28at.com

https://arxiv.org/abs/2407.01178IgA28資訊網——每日最新資訊28at.com

參考鏈接IgA28資訊網——每日最新資訊28at.com

[1]https://x.com/rohanpaul_ai/status/1809782336021537094IgA28資訊網——每日最新資訊28at.com

本文來自微信公眾號:量子位(ID:QbitAI),作者:夢晨IgA28資訊網——每日最新資訊28at.com

本文鏈接:http://www.tebozhan.com/showinfo-45-5088-0.html院士領銜推出大模型的第 3 種記憶:比參數存儲和 RAG 都便宜,2.4B 模型越級打 13B

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 古爾曼:蘋果首款支持 Apple Intelligence 的智能家居設備將是一款桌面機器人

下一篇: 中國開源操作系統 openKylin(開放麒麟)發布 AIPC 版本

標簽:
  • 熱門焦點
  • 清華、北大等86所高校布局元宇宙,是風口還是噱頭?

    作者:徐賜豪來源:區塊鏈日報據全國高校人工智能與大數據創新聯盟元宇宙專委會不完全統計,截至2023年7月,全國共有86所高校戰略布局元宇宙領域,其中本科院校73所,高職專科院校13所
  • 內容行業大變天,爆款全靠AI?

    出品 | 微果醬(wjam123456)作者 | 陳出木題圖 | 文心一格 AI的發展之快出乎所有人的預料,似乎一夜之間便呼嘯而來。無論是資本的風向標,抑或是生活工作的輔助、流量口,還是茶余飯
  • 挖來Meta AR高管,難道蘋果也要進軍元宇宙?

    “被曝光”的才是最吸引人的產品,相信有關注過蘋果硬件消息的朋友們都明白這樣的道理。往近了說有蘋果“即將發布”的iPhone SE 3和M2芯片,往遠了說有“折疊屏iP
  • 米哈游推出元宇宙品牌;VR/AR老牌企業當紅齊天完成B輪+融資

    今日熱點:蘋果AR/VR頭顯的FaceTime或基于Memojis和SharePlay構建而成;VR/AR老牌企業當紅齊天完成B輪+融資;米哈游推出元宇宙品牌HoYoverse;國產VR射擊游戲《Contra
  • 避坑指南:遠離具有這些特性的NFT

    關于NFT,在我們的文章中一直以來都是常駐嘉賓,不止因為NFT背后隱藏的潛力,更因為在這個NFT世界里冥冥之中仿佛有一雙幕后的手,OpenSea、庫里、ERC115、視覺中國、
  • 百度元宇宙希壤是什么?(附下載)

    百度元宇宙希壤是什么,最近很多人關注。還有很多人問希壤怎么下載、百度希壤怎么進入?今天小編帶你來全面了解一下。“希壤”是百度于2021年12月27日于百度AI開
  • Interface正大光明的“跑路”,社區成員贊格局大

    今日凌晨,一個廣泛受社區期待的潛力藍籌項目Interfaces突然發文宣布項目停止運營,后續也不會有鑄造NFT系列的活動。這對社區來說就是一重磅炸彈,大多數人完全不明
  • Steam 禁止NFT和加密貨幣原因曝光

    近日,Valve(V社)總裁Gabe Newell接受PC Gamer采訪時解釋了該平臺禁止NFT和加密貨幣的原因。早在2021年10月18日,PC Gamer就報道Steam推出的新規:使用區塊鏈或允許交
  • 爆發在即的Layer2賽道百花齊放,誰將是領跑者?

    還記得幾年前最早我們提起ETH擴容,首先想到就是Layer2,而Layer2里,首先想到的是閃電網絡,狀態通道,Plasma…然后折騰了幾年,發現并沒有什么用,許多項目方和資本也等不
Top