Модель Mixtral 8x22B з відкритим кодом нарешті прибула, її можна завантажити через Torrent
Наразі це були напружені дні в індустрії ШІ
2 хв. читати
Опубліковано
Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі
Основні нотатки
- Компанія Mistral випустила свою передову модель Mixtral 8x22B, оскільки гонка за ШІ розгорається.
- Модель із відкритим кодом має 176 B параметрів і довжину контексту 65 K маркерів
- Його можна завантажити через торрент.
Mistral повертається з великим оголошенням. Раніше в середу французька компанія, яку підтримує Microsoft, випустила свою передову модель Mixtral 8x22B, оскільки гонка за ШІ розгорається.
Найкраща частина цього? Це система з відкритим вихідним кодом, і ви можете завантажити її через Torrent із розміром файлу 281 ГБ як запуск AI опублікував своє посилання Magnet на X (раніше відомий як Twitter). Він також тепер доступний на HuggingFace та Perplexity AI Labs.
Mistral в основному складається з колишніх співробітників Google і Meta. Попередником компанії була модель Mixtral 8x7B запущений ще в грудні минулого року, але кажуть, що він перевершив таких конкурентів, як Llama-2 70B і OpenAI GPT-3.5 у певних тестах, таких як MMLU, ARC Challenge, MBPP та інших.
Тепер Mixtral 8x22B має 176B параметрів і довжину контексту 65K маркерів. Незважаючи на те, що він величезний, він використовує лише меншу частину (44B) для кожного завдання, що робить його більш доступним у використанні.
Це, безсумнівно, одна з найнапруженіших 24 годин у індустрії ШІ. Google нарешті зробив Доступна Gemini 1.5 Pro у більшості країн і ребрендинг Duet AI for Developers на Gemini Code Assist, перенісши свою інфраструктуру з Codey на Gemini.
Ще одна новина від Meta, Інформація ексклюзивно повідомив, що власник Facebook готовий запустити меншу версію Llama 3 наступного тижня.
Форум користувачів
0 повідомлення