Mixtral 8x22B オープン ソース モデルがついに登場、Torrent 経由でダウンロード可能
AI業界ではこれまでのところ忙しい数日間が続いている
2分。 読んだ
上で公開
MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む
キーノート
- AI の競争が激化する中、ミストラルはフロンティア モデルである Mixtral 8x22B を発売しました。
- オープンソース モデルには 176B のパラメータと 65K トークンのコンテキスト長があります
- Torrent経由でダウンロード可能です。
ミストラルが重大発表とともに戻ってきました。 AIの競争が激化する中、水曜日の早朝、Microsoftが支援するフランスの同社は、最先端モデルMixtral 8x22Bを発売した。
一番良いところは?これはオープンソース システムであり、AI スタートアップとして Torrent 経由でファイル サイズ 281 GB でダウンロードできます。 マグネットリンクを投稿しました X(以前はTwitterとして知られていました)で。現在も利用可能です 抱き合う顔 と Perplexity AI ラボ.
ミストラルのほとんどはグーグルとメタの元従業員で構成されている。同社の前身モデルである Mixtral 8x7B は、 打ち上げ 昨年2月に遡りますが、MMLU、ARC Challenge、MBPPなどの特定のベンチマークでは、Llama-70 3.5BやOpenAIのGPT-XNUMXなどのライバルを上回ったと言われています。
現在、Mixtral 8x22B には 176B のパラメーターと 65K トークンのコンテキスト長があります。巨大ではありますが、各タスクに使用する部品は少ない (44B) ため、より手頃な価格で使用できます。
AI 業界で最も忙しい 24 時間の XNUMX つであることは間違いありません。 Googleがついに作った Gemini 1.5 Pro が利用可能 ほとんどの国で、Duet AI for Developers としてブランド名を変更しました。 ジェミニコードアシスト、インフラストラクチャを Codey から Gemini に移行します。
メタからのもう一つのニュース、 情報 Facebook の所有者が来週 Llama 3 の小型バージョンをリリースする準備ができていると独占的に報告しました。
ユーザーフォーラム
0メッセージ