【新智元導讀】只有 10 億參數的 xLAM-1B 在特定任務中擊敗了 LLM 霸主:OpenAI 的 GPT-3.5 Turbo 和 Anthropic 的 Claude-3 Haiku。上個月剛發布的蘋果智能模型只有 30 億參數,就連阿爾特曼都表示,我們正處于大模型時代的末期。那么,小語言模型(SLM)會是 AI 的未來嗎?
大語言模型的 Scaling Law 被一些人視為「金科玉律」,但另一些人卻不以為意。前陣子,香港大學馬毅教授就公開宣稱,「如果相信只靠 Scaling Law 就能實現 AGI,你該改行了」。
確實有很多模型不是單純靠資源的堆砌,而是憑借創新能力脫穎而出。驗證了一條不同于 Scaling Law 的道路 —— 少即是多。
xLAM-1B 就是如此,只有 10 億參數,但是在功能調用任務中表現優于更大規模的模型,包括 OpenAI 的 GPT-3.5 Turbo 和 Anthropic 的 Claude-3 Haiku。
它也因此被稱為「Tiny Giant」—— 小巨人!
憑借遠超預期的卓越性能,這個小模型或許會改變端側 AI 的格局。
西方將這種以弱勝強的故事稱之為「David-versus-Goliath」(大衛迎戰歌利亞),這源于一個圣經故事 —— 大衛與巨人歌利亞作戰時還是個孩子,他不像歌利亞那樣穿著盔甲,他撿了一塊石頭,放在投石器里。把石頭甩出去,擊中歌利亞的額頭,擊倒了這個巨人。
科技媒體 Venturebeat 在報道這個小模型時,就將之比喻為人工智能領域的「大衛迎戰歌利亞」時刻。
我們最關心的一點是,xLAM-1B 是如何做到的?
簡言之,這得益于在數據處理上的創新方法。其背后團隊開發了 APIGen,這是一套自動化流程,可以生成高質量、多樣化且可驗證的數據集,用于訓練 AI 模型在函數調用任務中的表現。
論文地址:https://arxiv.org/pdf/2406.18518
小而強大:高效 AI 的力量xLAM-1B 最令人欣喜的在于,它不占地兒。因為模型規模小,所以適合設備上的應用。這對企業人工智能的影響是巨大的,它有可能使 AI 助手功能更強大、反應更靈敏,并且能在計算資源有限的智能手機或其他設備上本地運行。
訓練數據的質量和多樣性是支撐 xLAM-1B 強大性能的關鍵。APIGen 自動數據生成流水線利用 21 個不同類別的 3673 個可執行 API,對每個數據點進行了嚴格的三階段驗證:格式檢查、實際函數執行和語義驗證。
各種 AI 模型在不同評估指標下的性能對比圖。GPT-4-0125-Preview 在總體準確性方面遙遙領先,而 xLAM-7B 等較小的模型在特定任務中表現出了競爭力,這對大模型總是表現更好的說法提出了挑戰
這種方法代表了人工智能發展戰略的重大轉變。
雖然許多公司都在競相建立越來越大的模型,但 xLAM-1B 所使用的方法表明,更智能的數據處理可以帶來更高效、更有效的人工智能系統。
通過關注數據質量而非模型大小,xLAM-1B 提供了一個很好的例子,它可以用比競爭對手少得多的參數執行復雜的任務。
顛覆 AI 現狀:從 LLM 到 SLM這一突破的潛在影響絕不僅限于 xLAM-1B 這個模型的推出。
通過證明更小、更高效的模型可以與更大的模型競爭,xLAM-1B 正在挑戰人工智能行業的主流觀點,作為小語言模型(SLM)的新軍,和一統江湖的大語言模型(LLM)開戰。
科技公司一直在爭相建立最大的大語言模型。例如,今年 4 月,Meta 公司發布了擁有 4000 億參數的 Llama 3,它所包含的參數數量是 2022 年 OpenAI 最初的 ChatGPT 模型的兩倍。
盡管尚未得到證實,但 GPT-4 估計擁有約 1.8 萬億個參數。
不過,在過去幾個月里,包括蘋果和微軟在內的一些最大的科技公司都推出了小語言模型。
這些模型的大小僅為 LLM 對應模型的一小部分,但在許多基準測試中,它們在文本生成方面可以與 LLM 相媲美,甚至更勝一籌。
6 月 10 日,在蘋果公司的全球開發者大會上,發布了擁有約 30 億參數的蘋果智能模型。
4 月底,微軟發布了其 Phi-3 SLM 系列,擁有 38 億到 140 億個參數。
在一系列測試中,微軟最小的模型 Phi-3-mini 與 OpenAI 的 GPT-3.5(1750 億個參數)不相上下,其表現也優于谷歌的 Gemma(70 億個參數)。
測試通過向模型提出有關數學、哲學、法律等方面的問題,評估了模型對語言的理解能力。
更有趣的是,擁有 70 億個參數的微軟 Phi-3-small 在許多基準測試中的表現都明顯優于 GPT-3.5。
波士頓東北大學研究語言模型 Aaron Müller 并不驚訝 SLM 在某些功能上可以與 LLM 相提并論。
Müller 說,「這是因為一味增加參數數量并不是提高模型性能的唯一方法,在更高質量的數據上進行訓練也能產生類似的結果。」
例如,微軟的 Phi 模型是在經過微調的「教科書質量」數據上訓練出來的,這些數據的風格更加一致,比 LLM 通常依賴的來自互聯網的高度多樣化文本更容易學習。
同樣,蘋果公司也在高質量、更復雜的數據集上訓練 SLM。
Müller 表示,更重要的是,SLM 可以使語言模型的使用平民化。
迄今為止,人工智能的開發一直集中在幾家有能力部署高端基礎設施的大公司手中,而其他規模較小的公司和實驗室則不得不支付高昂的費用來獲得授權。
由于 SLM 可以在價格更低廉的硬件上輕松訓練,因此資源有限的人更容易獲得 SLM。
SLM 的興起正值 LLM 之間的性能差距迅速縮小,科技公司希望能在 Scaling Law 之外,探索其他性能升級途徑。
在 4 月份的一次活動中,OpenAI 的首席執行官 Altman 表示,他相信我們正處于大模型時代的末期?!肝覀儗⒁云渌绞阶屇P妥兊酶谩!?span style="display:none">ENc28資訊網——每日最新資訊28at.com
也就是說,經過精心策劃的 SLM 向構建可解釋性人工智能更近了一步。
對于像蘇黎世聯邦理工學院計算機科學研究員 Alex Warstadt 這樣的研究人員來說,SLM 還能為一個長期存在的科學問題提供新的見解:兒童是如何用很少的文字數據就學會語言和思維的。
Warstadt 和包括東北大學 Müller 在內的一批研究人員一起組織了 BabyLM 挑戰賽,參賽者要在小數據上優化語言模型訓練。
SLM 不僅有可能揭開人類認知的新秘密,還有助于改進生成式人工智能。
在兒童 13 歲時,他們已經接觸了約 1 億個單詞,在語言方面比聊天機器人更勝一籌,但他們只能獲得 0.01% 的數據。
Warstadt 說,雖然沒人知道是什么讓人類如此高效,但「在小規模上進行高效的類人學習,當擴展到 LLM 規模時,可能會帶來巨大的改進」。
重塑 AI 的未來:從云到設備xLAM-1B 展現出的端側 AI 的發展潛力,很可能標志著人工智能領域的重大轉變 —— 挑戰「模型越大越好」的觀念,讓人工智能在消耗有限資源的條件下也能持續生長。
目前,由于所涉及模型的規模和復雜性,許多先進的人工智能功能都依賴于云計算。
如果像 xLAM-1B 這樣的較小模型也能提供類似的功能,就能讓更強大的人工智能助手直接在用戶的設備上運行,從而提高響應速度,并解決與基于云的人工智能相關的隱私問題。
隨著邊緣計算和物聯網設備的激增,對更強大的設備上人工智能功能的需求也將激增。
xLAM-1B 的成功可能會催生新一輪的人工智能開發浪潮,其重點是創建為特定任務量身定制的超高效模型,而不是「樣樣通」的龐然大物。
這可能會帶來一個更加分布式的人工智能生態系統,在這個生態系統中,專業模型在設備網絡中協同工作,可能會提供更強大、反應更快、更能保護隱私的人工智能服務。
這一發展還能使人工智能能力民主化,讓較小的公司和開發人員無需大量計算資源就能創建復雜的人工智能應用。
此外,它還可以減少人工智能碳足跡,因為較小的模型在訓練和運行時所需的能源要少得多。
xLAM-1B 給業界帶來的沖擊有很多,但有一點是顯而易見的:在人工智能的世界里,大衛剛剛證明了他不僅可以與歌利亞競爭,還有可能將其淘汰。人工智能的未來可能不再被巨頭所操控的云端,而是在你自己手中。
參考資料:
https://venturebeat.com/ai/salesforce-proves-less-is-more-xlam-1b-tiny-giant-beats-bigger-ai-models/
https://x.com/SFResearch/status/1807811770267971984?t=j_LOjgVPy41ZpjwkoXmRiQ&s=19
本文來自微信公眾號:新智元(ID:AI_era)
本文鏈接:http://www.tebozhan.com/showinfo-26-98886-0.html少即是多,10 億參數“小巨人”xLAM-1B 在特定任務中擊敗 GPT-3.5 Turbo
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com