AVt天堂网 手机版,亚洲va久久久噜噜噜久久4399,天天综合亚洲色在线精品,亚洲一级Av无码毛片久久精品

當前位置:首頁 > 科技  > 測評

Nature封面:AI訓AI 越訓越傻

來源: 責編: 時間:2024-07-28 07:50:30 101觀看
導讀 AI訓練AI,可能會讓AI變傻?!來自牛津、劍橋等學校機構的研究人員最新發現,使用合成數據訓練,大模型可能會崩潰。其研究成果被選為最新的Nature封面。直接一個:GARBAGE OUT!要知道,現在絕大部分科技公司的

AI訓練AI,可能會讓AI變傻?!lVF28資訊網——每日最新資訊28at.com

來自牛津、劍橋等學校機構的研究人員最新發現,使用合成數據訓練,大模型可能會崩潰。其研究成果被選為最新的Nature封面lVF28資訊網——每日最新資訊28at.com

直接一個:GARBAGE OUT!lVF28資訊網——每日最新資訊28at.com

Nature封面:AI訓AI 越訓越傻lVF28資訊網——每日最新資訊28at.com

要知道,現在絕大部分科技公司的大模型都在用合成數據來緩解“數據荒”。這下無疑是整個行業澆了一波冷水。lVF28資訊網——每日最新資訊28at.com

研究團隊給了這樣一個例子。lVF28資訊網——每日最新資訊28at.com

他們測試了Meta的OPT-125m模型,詢問了關于中世紀建筑的相關信息。lVF28資訊網——每日最新資訊28at.com

Nature封面:AI訓AI 越訓越傻lVF28資訊網——每日最新資訊28at.com

每一次微調都是由上一次生成的數據來訓練。結果前面幾輪回答還好。結果就在第九次,就開始胡說八道……lVF28資訊網——每日最新資訊28at.com

扯到兔子是什么鬼?!lVF28資訊網——每日最新資訊28at.com

該論文主要作者表示,他們曾考慮過合成數據可能對大模型造成誤差,但未曾預料到模型的惡化速度會如此迅速。lVF28資訊網——每日最新資訊28at.com

三個誤差導致模型崩潰lVF28資訊網——每日最新資訊28at.com

首先,團隊定義了什么是模型崩潰。lVF28資訊網——每日最新資訊28at.com

模型崩潰是一個退化過程,模型生成的內容會污染下一代的訓練數據集。而在被污染的數據上訓練之后,新一代模型就容易誤解現實。lVF28資訊網——每日最新資訊28at.com

以此循環往復,一代更比一代差。lVF28資訊網——每日最新資訊28at.com

Nature封面:AI訓AI 越訓越傻lVF28資訊網——每日最新資訊28at.com

按照時間推移,主要分為兩種情況:早期模型崩潰和晚期模型崩潰。lVF28資訊網——每日最新資訊28at.com

早期模型崩潰中,模型開始丟失一些尾部信息。(類似概率分布中一些低概率事件) 而在晚期模型崩潰,模型將收斂到同原始分布幾乎沒有任何相似之處。lVF28資訊網——每日最新資訊28at.com

這一過程的發生,同模型設計、學習過程和所用數據質量有關。lVF28資訊網——每日最新資訊28at.com

具體到理論中,主要包括了這三個誤差導致大模型同原始模型的偏離。lVF28資訊網——每日最新資訊28at.com

統計近似誤差。這是主要類型的誤差,由于樣本數量有限而產生,并隨著樣本數量趨于無窮大而消失。這是因為在重新采樣的每一步中信息都有可能丟失,這種概率不為零。函數表達性誤差。這種誤差是由于函數近似表達能力有限而產生的。特別是,神經網絡只有在其規模達到無窮大時才是通用近似值。不過,在沒有其他兩種誤差的情況下,這種誤差只會發生在第一代。函數近似誤差。主要由學習過程局限性引起,例如隨機梯度下降的結構偏差或目標的選擇。這種誤差可以看作是在無限數據和每一代都具有完美表達能力的情況下產生的誤差。lVF28資訊網——每日最新資訊28at.com

對語言模型的影響lVF28資訊網——每日最新資訊28at.com

隨后研究人員評估了模型崩潰對語言模型的影響。由于從頭開始訓練大模型成本非常高,他們選擇評估語言模型最常見的設置:微調設置lVF28資訊網——每日最新資訊28at.com

每個訓練周期都從具有最新數據的預訓練模型開始。訓練數據來自另一個經過微調的預訓練模型。lVF28資訊網——每日最新資訊28at.com

他們用Meta因果語言模型OPT-125m,在wikitext2上進行了微調。lVF28資訊網——每日最新資訊28at.com

為了從訓練好的模型中生成數據,團隊使用了five-way波束搜索。他們將訓練序列設為 64 個token長度;然后對于訓練集中的每個token序列,要求模型預測下一個64個token。lVF28資訊網——每日最新資訊28at.com

他們會瀏覽所有原始訓練數據集,并生成一個相同大小的人工數據集。如果模型的誤差為0,它就會生成原始的wikitext2數據集。lVF28資訊網——每日最新資訊28at.com

為了進一步感受區別,他們采用兩種不同的設置:一組是除了最開始訓練,后續過程沒有任何原始訓練數據;另一組則是保留10%的原始數據。lVF28資訊網——每日最新資訊28at.com

Nature封面:AI訓AI 越訓越傻lVF28資訊網——每日最新資訊28at.com

結果顯示,隨著時間推移,模型產生的錯誤會增加。在模型完全崩潰之前,它還會導致模型遺忘數據集中低概率事件,他們的輸出也變得更加同質化。最終也就出現了開頭這一現象。lVF28資訊網——每日最新資訊28at.com

另外在VAE、GMM模型中看到了類似模型崩潰的現象。lVF28資訊網——每日最新資訊28at.com

Nature封面:AI訓AI 越訓越傻lVF28資訊網——每日最新資訊28at.com

Nature封面:AI訓AI 越訓越傻lVF28資訊網——每日最新資訊28at.com

來自杜克大學的Emily Wenger教授表示,到目前為止,要緩解這一問題并非易事。lVF28資訊網——每日最新資訊28at.com

有領先的科技公司已經部署了一項技術,即嵌入“水印”——lVF28資訊網——每日最新資訊28at.com

標記AI生成的內容,讓其在訓練數據中排除。但困難在于,這需要科技公司之間的協調,因此不太具有商業可行性。lVF28資訊網——每日最新資訊28at.com

這樣一來,那從之前互聯網獲取數據的公司,他們訓練的模型更能代表現實世界。所以,最開始那一波大模型算是有了先發優勢。lVF28資訊網——每日最新資訊28at.com

對于這一觀點,你怎么看呢?lVF28資訊網——每日最新資訊28at.com

本文鏈接:http://www.tebozhan.com/showinfo-25-104032-0.htmlNature封面:AI訓AI 越訓越傻

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 暴雪全面回歸!《爐石傳說》國服消息今日公布

下一篇: 168萬元 比亞迪首款超跑來了!仰望U9 8月開始交付

標簽:
  • 熱門焦點
Top