Mixtral 8x22B 開源模型終於來了,可透過 Torrent 下載
到目前為止,AI 行業度過了忙碌的幾天
2分鐘讀
發表於
請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 閱讀更多
重點說明
- 隨著人工智慧競賽的白熱化,Mistral 推出了其前沿模型 Mixtral 8x22B。
- 開源模型有 176B 個參數和 65K 個 token 的上下文長度
- 它可以透過 Torrent 下載。
米斯特拉爾帶著一個重大聲明回來了。週三早些時候,隨著人工智慧競爭的白熱化,這家微軟支持的法國公司推出了其前沿模型 Mixtral 8x22B。
其中最好的部分是什麼?它是一個開源系統,您可以透過Torrent下載它,檔案大小為281GB,作為AI啟動 發布了它的磁力鏈接 在 X(以前稱為 Twitter)上。現在也可以在 擁抱臉 困惑人工智慧實驗室.
Mistral 大部分由 Google 和 Meta 的前員工組成。該公司的前身型號 Mixtral 8x7B 是 推出 早在去年 2 月,但據說在 MMLU、ARC Challenge、MBPP 等某些基準測試中,它的表現優於 Llama-70 3.5B 和 OpenAI 的 GPT-XNUMX 等競爭對手。
現在,Mixtral 8x22B 具有 176B 參數和 65K 令牌的上下文長度。儘管它很大,但它只使用較小的部分(44B)來完成每個任務,使其使用起來更經濟實惠。
毫無疑問,這是人工智慧產業最繁忙的 24 小時之一。谷歌終於做出了 雙子座 1.5 Pro 上市 在大多數國家,並將其 Duet AI for Developers 重新命名為 Gemini 代碼協助,將其基礎設施從 Codey 遷移到 Gemini。
來自 Meta 的另一個訊息, 信息 根據獨家報道,Facebook 所有者準備在下週推出較小的 Llama 3 版本。
使用者論壇
0消息