6 月 28 日消息,Meta 官方在 X 平臺宣布推出 LLM 編譯器,這是一個基于 Meta Code Llama 構建的模型家族,具有額外的代碼優化和編譯器功能。這些模型可以模擬編譯器,預測代碼大小的最佳傳遞,并可反匯編代碼,可以針對新的優化和編譯器任務進行微調。
Meta 在 HuggingFace 上公開了 LLM 編譯器的 7B 和 13B 模型,采用寬松的許可協議,允許用于研究和商業用途。
附鏈接:https://huggingface.co/collections/facebook/llm-compiler-667c5b05557fe99a9edd25cb
研究人員在論文中表示,LLM 在各種軟件工程和編碼任務中展示其能力,然而在代碼和編譯器優化領域的應用仍然未被充分探索。為了解決這一問題,Meta 引入了 LLM 編譯器,這是一個專為代碼優化任務設計的預訓練模型套件。
LLM 編譯器模型在包含 5460 億個 LLVM-IR 和匯編代碼標記的龐大語料庫上進行了訓練,并經過指令微調以解釋編譯器行為,旨在為學術研究人員和行業從業者在編譯器優化方面的進一步研究和開發提供一個可擴展的、具有成本效益的基礎。
LLM 編譯器在代碼大小優化方面取得了顯著成果。在測試中,該模型的優化潛力達到了自動調整搜索的 77%,這一結果可以顯著縮短編譯時間,提高各種應用的代碼效率。
本文鏈接:http://www.tebozhan.com/showinfo-45-4890-0.htmlMeta 發布基于 Code Llama 的 LLM 編譯器:優化代碼大小、反匯編
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 五糧液濃香酒:勞動節送禮的精致藝術