在當地時間11月13日,英偉達(NVIDIA)宣布推出NVIDIA HGX? H200,這款新產品旨在為全球領先的AI計算平臺提供更強大的動力,計劃從2024年第二季度開始在全球系統制造商和云服務提供商處提供。
H200采用了基于NVIDIA Hopper?架構的設計,搭載了NVIDIA H200 Tensor Core GPU,具備高級內存,可處理大規模數據,特別適用于生成式AI和高性能計算工作負載。與H100相比,據介紹,NVIDIA H200在推理Llama2模型時的速度幾乎提升了兩倍。測試結果顯示,基于Meta的Llama 2大模型的輸出速度大約是H100的兩倍。
盡管英偉達目前尚未透露H200的具體價格,但根據《CNBC》報道,上一代H100的價格估計在每個2.5萬美元至4萬美元之間。英偉達發言人Kristin Uchiyama透露,最終的定價將由NVIDIA的制造伙伴決定。
在這次發布的H200中,首次采用了HBM3e存儲器規格,這使得GPU的存儲器帶寬從H100的每秒3.35TB提高到4.8TB,提升了1.4倍,存儲器總容量也從H100的80GB提高到141GB,容量提升了1.8倍。
此外,據業內人士透露,三星電子計劃從明年1月開始向英偉達供應高帶寬內存HBM3,這將被應用在英偉達的圖形處理單元(GPU)上。英偉達高性能運算產品副總裁Ian Buck表示,整合更快、更廣泛的HBM存儲器有助于提升對運算要求較高的任務的性能,包括生成式AI模型和高性能運算應用程式,同時優化GPU的使用率和效率。
本文鏈接:http://www.tebozhan.com/showinfo-27-26491-0.html英偉達:H200輸出速度約H100的兩倍
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
下一篇: 兩大晶圓廠表示消費電子市場需求正在恢復