AVt天堂网 手机版,亚洲va久久久噜噜噜久久4399,天天综合亚洲色在线精品,亚洲一级Av无码毛片久久精品

當(dāng)前位置:首頁 > 元宇宙 > AI

英偉達(dá)發(fā)布 Llama-3.1-Nemotron-51B AI 模型:創(chuàng)新神經(jīng)架構(gòu)搜索等技術(shù)讓單 H100 GPU 運(yùn)行 4 倍以上負(fù)載

來源: 責(zé)編: 時間:2024-09-27 16:34:24 58觀看
導(dǎo)讀 9 月 25 日消息,英偉達(dá) 9 月 23 日發(fā)布博文,宣布推出 Llama-3.1-Nemotron-51B AI 模型,源自 Meta 公司的 Llama-3.1-70B,不過創(chuàng)新使用神經(jīng)架構(gòu)搜索(NAS)方法,建立了一個高度準(zhǔn)確和高效的模型。Llama-3.1-Nemotron-51

9 月 25 日消息,英偉達(dá) 9 月 23 日發(fā)布博文,宣布推出 Llama-3.1-Nemotron-51B AI 模型,源自 Meta 公司的 Llama-3.1-70B,不過創(chuàng)新使用神經(jīng)架構(gòu)搜索(NAS)方法,建立了一個高度準(zhǔn)確和高效的模型。iGd28資訊網(wǎng)——每日最新資訊28at.com

Llama-3.1-Nemotron-51B 簡介

Llama-3.1-Nemotron-51B AI 模型基于Meta 公司 2024 年 7 月發(fā)布的 Llama-3.1-70B 模型,共有 510 億參數(shù)。iGd28資訊網(wǎng)——每日最新資訊28at.com

該 AI 模型主要采用了神經(jīng)架構(gòu)搜索(NAS)技術(shù)微調(diào),平衡性能和效率,在高工作負(fù)荷下,只需要一片 H100 GPU 即可運(yùn)行,大大降低了內(nèi)存消耗、計算復(fù)雜性以及與運(yùn)行此類大型模型相關(guān)的成本。iGd28資訊網(wǎng)——每日最新資訊28at.com

英偉達(dá)認(rèn)為這種方式在保持了出色的精度前提下,顯著降低了內(nèi)存占用、內(nèi)存帶寬和 FLOPs,并證明可以在創(chuàng)建另一個更小、更快的變體來加以推廣。iGd28資訊網(wǎng)——每日最新資訊28at.com

Llama-3.1-Nemotron-51B 性能

相比較 Meta 的 Llama-3.1-70B 模型,Llama-3.1-Nemotron-51B 在保持了幾乎相同的精度情況下,推理速度提高了 2.2 倍。iGd28資訊網(wǎng)——每日最新資訊28at.com

準(zhǔn)確率能效 MT BenchMMLUText generation(128/1024)Summarization/ RAG (2048/128)Llama-3.1- Nemotron-51B- Instruct8.9980.2%6472653Llama 3.1-70B- Instruct8.9381.66%2975339Llama 3.1-70B- Instruct (single GPU)——1274301Llama 3-70B8.9480.17%2975339效率和性能方面的突破

開發(fā) LLM 過程中面臨的主要挑戰(zhàn)之一是如何平衡精度與計算效率。許多大規(guī)模模型都能提供最先進(jìn)的結(jié)果,但卻需要耗費(fèi)大量的硬件和能源資源,這限制了它們的適用性。iGd28資訊網(wǎng)——每日最新資訊28at.com

英偉達(dá)的新模型在這兩個相互競爭的因素之間取得了微妙的平衡。iGd28資訊網(wǎng)——每日最新資訊28at.com

iGd28資訊網(wǎng)——每日最新資訊28at.com

Llama-3.1-Nemotron-51B 實現(xiàn)了令人印象深刻的精度與效率權(quán)衡,減少了內(nèi)存帶寬,降低了每秒浮點(diǎn)運(yùn)算次數(shù) (FLOP),并減少了總體內(nèi)存占用,同時不影響模型執(zhí)行推理、總結(jié)和語言生成等復(fù)雜任務(wù)的能力。iGd28資訊網(wǎng)——每日最新資訊28at.com

改進(jìn)工作量管理,提高成本效益

Llama-3.1-Nemotron-51B 的一個突出特點(diǎn)是能夠在單個 GPU 上管理更大的工作負(fù)載。該型號允許開發(fā)人員在更具成本效益的環(huán)境中部署高性能 LLMs,在一個 H100 設(shè)備上運(yùn)行以前需要多個 GPU 才能完成的任務(wù)。iGd28資訊網(wǎng)——每日最新資訊28at.com

Llama-3.1-Nemotron-51B 模型還減少了內(nèi)存占用,在推理過程中可以在單個 GPU 上運(yùn)行 4 倍以上的工作負(fù)載,從而帶來了一系列新的機(jī)遇。iGd28資訊網(wǎng)——每日最新資訊28at.com

架構(gòu)優(yōu)化:成功的關(guān)鍵

Llama-3.1-Nemotron-51B 的成功主要?dú)w功于一種新穎的結(jié)構(gòu)優(yōu)化方法。傳統(tǒng)上,LLMs 是使用相同的塊構(gòu)建的,這些塊在整個模型中重復(fù)出現(xiàn)。iGd28資訊網(wǎng)——每日最新資訊28at.com

這雖然簡化了構(gòu)建過程,但也帶來了效率低下的問題,特別是在內(nèi)存和計算成本方面。iGd28資訊網(wǎng)——每日最新資訊28at.com

英偉達(dá)通過采用 NAS 技術(shù)來優(yōu)化推理模型,從而解決了這些問題。該團(tuán)隊采用了分塊蒸餾過程,即訓(xùn)練更小、更高效的學(xué)生模型(student model),以模仿更大的教師模型(teacher model)的功能。iGd28資訊網(wǎng)——每日最新資訊28at.com

iGd28資訊網(wǎng)——每日最新資訊28at.com

通過完善這些學(xué)生模型并評估其性能,英偉達(dá)開發(fā)出了 Llama-3.1 版本,在大幅降低資源需求的同時,還能提供類似的準(zhǔn)確度。iGd28資訊網(wǎng)——每日最新資訊28at.com

Puzzle 算法和知識蒸餾

Llama-3.1-Nemotron-51B 有別于其他模型的另一個關(guān)鍵組件,就是 Puzzle 算法。iGd28資訊網(wǎng)——每日最新資訊28at.com

iGd28資訊網(wǎng)——每日最新資訊28at.com

該算法對模型中的每個潛在區(qū)塊進(jìn)行評分,并確定哪些配置能在速度和精度之間取得最佳平衡。iGd28資訊網(wǎng)——每日最新資訊28at.com

跑分 Llama-3.1 70B-instructLlama-3.1-Nemotron-51B- Instruct 準(zhǔn)確率winogrande85.08%84.53%99.35%arc_challenge70.39%69.20%98.30%MMLU81.66%80.20%98.21%hellaswag86.44%85.58%99.01%gsm8k92.04%91.43%99.34%truthfulqa59.86%58.63%97.94%xlsum_english33.86%31.61%93.36%MMLU Chat81.76%80.58%98.55%gsm8k Chat81.58%81.88%100.37%Instruct HumanEval (n=20)75.85%73.84%97.35%MT Bench8.938.99100.67%

通過使用知識蒸餾技術(shù),Nvidia 縮小了參考模型(Llama-3.1-70B)與 Nemotron-51B 之間的精度差距,同時顯著降低了訓(xùn)練成本。iGd28資訊網(wǎng)——每日最新資訊28at.com

場景 Input/Output Sequence LengthLlama-3.1- Nemotron- InstructLlama-3.1-70B-InstructRatioLlama (TP1)Chatbot128/1285478 (TP1)2645 (TP1)2.072645Text generation128/10246472 (TP1)2975 (TP4)2.171274Long text generation128/20484910 (TP2)2786 (TP4)1.76646System 2 reasoning128/40963855 (TP2)1828 (TP4)2.11313Summarization/ RAG2048/128653 (TP1)339 (TP4)1.92300Stress test 12048/20482622 (TP2)1336 (TP4)1.96319

iGd28資訊網(wǎng)——每日最新資訊28at.com

附上參考地址iGd28資訊網(wǎng)——每日最新資訊28at.com

Advancing the Accuracy-Efficiency Frontier with Llama-3.1-Nemotron-51BiGd28資訊網(wǎng)——每日最新資訊28at.com

Nvidia AI Releases Llama-3.1-Nemotron-51B: A New LLM that Enables Running 4x Larger Workloads on a Single GPU During InferenceiGd28資訊網(wǎng)——每日最新資訊28at.com

本文鏈接:http://www.tebozhan.com/showinfo-45-7797-0.html英偉達(dá)發(fā)布 Llama-3.1-Nemotron-51B AI 模型:創(chuàng)新神經(jīng)架構(gòu)搜索等技術(shù)讓單 H100 GPU 運(yùn)行 4 倍以上負(fù)載

聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 星紀(jì)魅族正在開發(fā)星紀(jì)戰(zhàn)車、機(jī)器人等新品

下一篇: 微軟發(fā)布新工具,檢測和糾正 AI 幻覺內(nèi)容

標(biāo)簽:
  • 熱門焦點(diǎn)
Top