4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 開源模型,共有 1760 億個參數,Context 長度(上下文文本)為 6.5 萬個 token,可以通過 Torrent 下載。
Mistral AI 公司自成立以來一直備受外界關注,“6 人團隊,7 頁 PPT,8 億融資”不斷締造傳奇,而且在得到微軟的投資之后更是進入發(fā)展快車道。
該公司今天發(fā)布的 Mixtral 8x22B 是個開源模型,官方目前放出了 Torrent 種子鏈接,文件大小為 281GB。用戶可以通過磁性鏈接直接下載,或者通過 HuggingFace 和 Perplexity AI Labs 平臺進行下載。附上相關截圖如下:
Mixtral 8x22B 共有 1760 億個參數,Context 長度(上下文文本)為 6.5 萬個 token,不過為單一任務可以調用部分模型(440 億參數),因此使用起來更加靈活。
本文鏈接:http://www.tebozhan.com/showinfo-45-3976-0.html1760 億參數、大小 281GB,Mixtral 8x22B 開源模型登場:可 Torrent 下載
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 英偉達 H100 AI GPU 短缺緩解,交貨時間從 3-4 個月降至 2-3 個月
下一篇: 未來產業(yè)展望(人民觀察)