4月2日消息,據媒體報道,在最近的一篇論文中,蘋果的研究團隊宣稱,他們提出了一個可以在設備端運行的模型ReALM,這個模型在某些方面可以超過GPT-4。
ReALM的參數量分別為80M、250M、1B和3B,體積都非常小,適合在手機、平板電腦等設備端運行。
ReALM研究的主要是,讓AI識別文本中提到的各種實體(如人名、地點、組織等)之間的指代關系的過程。
論文將實體分為三種:
屏幕實體(On-screen Entities):指的是當前顯示在用戶屏幕上的內容。
對話實體(Conversational Entities):指的是與對話相關的內容。例如,用戶說“打電話給媽媽”,那么媽媽的聯系人信息就是對話實體。
后臺實體(Background Entities):指的是與用戶當下操作或屏幕顯示內容可能并不直接相關的實體,比如正在播放的音樂或即將響起的鬧鈴。
論文表示,盡管大型語言模型已經證明在多種任務上具有極強的能力,但在用于解決非對話實體(如屏幕實體、后臺實體)的指代問題時,它們的潛力還沒有得到充分利用。
而ReALM則是一種全新的方法,通過將其性能與GPT-3.5和GPT-4進行了對比,顯示最小模型的性能與GPT-4相當,而更大的模型則顯著超過了GPT-4。
這項研究有望用來改進蘋果設備上的Siri助手,幫助Siri更好地理解和處理用戶詢問中的上下文。
本文鏈接:http://www.tebozhan.com/showinfo-25-80564-0.html蘋果AI放大招!聲稱其設備端模型性能優于GPT-4
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com