Snowflake Arctic jest dumny z tego, że jest „najlepszym LLM dla sztucznej inteligencji dla przedsiębiorstw”. To dość duże twierdzenie

Możesz teraz wypróbować Snowflake na HuggingFace

Ikona czasu czytania 2 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Kluczowe uwagi

  • Snowflake wprowadza Arctic, twierdząc, że może konkurować z Llamą 3 70B niższymi kosztami.
  • Arctic przoduje w zadaniach korporacyjnych, takich jak kodowanie i generowanie SQL.
  • Korzystając z hybrydy Dense-MoE, Arctic optymalizuje wydajność dla różnych wielkości partii.

Snowflake, gigant przetwarzania w chmurze utworzony początkowo przez byłych naukowców Oracle, rzuca teraz wyzwanie wielkim graczom w wojnie ze sztuczną inteligencją. Firma wystartowała Arktyka płatka śniegu, swój najnowszy „najlepszy LLM dla sztucznej inteligencji dla przedsiębiorstw” i stwierdził, że jest lepszy niż na poziomie Llama 3 70B i lepszy niż wariant 8B tego ostatniego.

W swoim ogłoszeniu Snowflake twierdzi, że model Arctic dorównuje wydajnością Llama 3 70B, ale ma niższe wymagania obliczeniowe i koszty. Jest reklamowany jako idealny do zadań związanych z inteligencją przedsiębiorstwa w obszarach i testach porównawczych, takich jak kodowanie (HumanEval+ i MBPP+), generowanie SQL (Spider) i wykonywanie instrukcji (IFEval).

To duże twierdzenie, zwłaszcza biorąc pod uwagę to Lama 3 70B w ważnych testach wypadł dobrze w porównaniu z innymi głównymi modelami, takimi jak GPT-4 Turbo i Claude 3 Opus. Nadchodzący model Meta podobno dobrze wypada w testach porównawczych, takich jak MMLU (zrozumienie przedmiotów), GPQA (biologia, fizyka i chemia oraz HumanEval (kodowanie).

Snowflake Arctic łączy gęsty transformator 10B z 128×3.66B MoE MLP przy użyciu hybrydy Dense-MoE. Łącznie daje to 480B parametrów, ale aktywnie wykorzystywanych jest tylko 17B, wybranych przy użyciu bramkowania top-2. 

W przypadku małych partii, takich jak 1, Arctic zmniejsza odczyty pamięci nawet 4 razy w porównaniu do Code-Llama 70B i do 2.5 razy mniej niż Mixtral 8x22B. Jednak w miarę znacznego wzrostu wielkości partii Arctic staje się ograniczony obliczeniami. Wymaga 4x mniej obliczeń niż CodeLlama 70B i Llama 3 70B.

Możesz wypróbować Snowflake Arctic Przytulanie twarzy. Firma obiecuje również, że model wkrótce pojawi się w innych ogrodach modelowych, takich jak AWS, Microsoft Azure, Perplexity i nie tylko.

Forum użytkowników

Wiadomości 0