Microsoft анонсує Phi-3-vision, новий мультимодальний SLM для сценаріїв ШІ на пристрої

Значок часу читання 1 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Основні нотатки

  • Phi-3-vision — це модель параметрів 4.2B, яка підтримує загальні завдання візуального мислення та міркування на основі діаграм/графіків/таблиць

На Build 2024, Microsoft сьогодні розширений сімейство невеликих мовних моделей Phi-3 з новим Phi-3-vision. Phi-3-vision — це модель параметрів 4.2B, яка підтримує загальні завдання візуального мислення та міркування на основі діаграм/графіків/таблиць. Модель може приймати як зображення, так і текст як вхідні дані та виводити текстові відповіді.

Сьогодні Microsoft також оголосила про загальну доступність Phi-3-mini у пропозиції Azure AI Models-as-a Service (MaaS). Моделі Phi-3 набирають обертів, оскільки вони є економічно ефективними та оптимізованими для сценаріїв штучного інтелекту, пов’язаних із затримкою, на пристрої, на периферії, в автономному режимі.

На додаток до новин про моделі Phi-3, Microsoft оголосила про нові функції в API, які забезпечують мультимодальний досвід. Azure AI Speech тепер має аналітику мовлення та універсальний переклад. Azure AI Search тепер має значно збільшений обсяг пам’яті та збільшення розміру векторного індексу до 12 разів без додаткових витрат, щоб забезпечити великі робочі навантаження RAG у масштабі.

Форум користувачів

0 повідомлення