Snowflake Arctic は、「エンタープライズ AI に最適な LLM」であると自負しています。それはかなり大きな主張です

今すぐHuggingFaceでSnowflakeを試すことができます

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • Snowflake は Arctic を導入し、低コストで Llama 3 70B に匹敵すると主張しています。
  • Arctic は、コーディングや SQL 生成などのエンタープライズ タスクに優れています。
  • Arctic は、Dense-MoE ハイブリッドを使用して、さまざまなバッチ サイズの効率を最適化します。

Snowflake は、当初は元 Oracle の科学者によって設立されたクラウド コンピューティングの巨人ですが、現在は AI 戦争で有力企業に挑戦しています。会社が立ち上げた スノーフレーク北極は、最新の「エンタープライズ AI に最適な LLM」であり、Llama 3 70B と同等よりも優れており、Llama 8 の XNUMXB バリアントよりも優れていると主張しました。

Snowflake は発表の中で、Arctic モデルは Llama 3 70B のパフォーマンスに匹敵するものの、コンピューティング要件とコストが低いと主張しています。これは、コーディング (HumanEval+ および MBPP+)、SQL 生成 (Spider)、命令追従 (IFEval) などの分野およびベンチマークにおけるエンタープライズ インテリジェンス タスクに最適であると宣伝されています。

特にそれを考慮すると、それは大きな主張です ラマ3 70B 重要なテストでは、GPT-4 Turbo や Claude 3 Opus などの他の主要モデルに対して良好なパフォーマンスを示しています。 Meta の次期モデルは、MMLU (主題の理解)、GPQA (生物学、物理学、化学)、HumanEval (コーディング) などのベンチマークで高いスコアを獲得していると伝えられています。

Snowflake Arctic は、Dense-MoE ハイブリッドを使用して、10B 高密度トランスと 128×3.66B MoE MLP を組み合わせています。これは合計 480B のパラメーターになりますが、アクティブに使用されるのは 17B のみで、トップ 2 ゲートで選択されます。 

1 のような小さいバッチ サイズの場合、Arctic はメモリ読み取りを Code-Llama 4B と比較して最大 70 倍、Mixtral 2.5x8B と比較して最大 22 倍削減します。しかし、バッチサイズが大幅に増加すると、北極はコンピューティングに制約されるようになります。 CodeLlama 4B および Llama 70 3B と比べて、コンピューティングの負担が 70 倍少なくなります。

Snowflake Arctic を試すことができます 抱き合う顔。同社はまた、このモデルが AWS、Microsoft Azure、Perplexity などの他のモデル ガーデンにも間もなく提供されることを約束しています。

ユーザーフォーラム

0メッセージ