Opera становится первым браузером, интегрировавшим Local LLM
1 минута. читать
Обновление
Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее
Ключевые заметки
- Теперь пользователи могут напрямую управлять мощными моделями искусственного интеллекта и получать к ним доступ на своих устройствах, обеспечивая повышенную конфиденциальность и скорость по сравнению с облачным искусственным интеллектом.
Опера сегодня объявило экспериментальная поддержка 150 локальных моделей большого языка (LLM) в браузере разработчика Opera One. Благодаря этой поддержке пользователи теперь могут напрямую управлять мощными моделями искусственного интеллекта и получать к ним доступ на своих устройствах, обеспечивая повышенную конфиденциальность и скорость по сравнению с облачным искусственным интеллектом.
Расширенный выбор и конфиденциальность с местными LLM
Интеграция Opera включает в себя популярные LLM, такие как Llama от Meta, Vicuna, Gemma от Google, Mixtral от Mistral AI и многие другие. Локальные LLM устраняют необходимость обмениваться данными с серверами, защищая конфиденциальность пользователей. Программа Opera AI Feature Drops предоставляет разработчикам ранний доступ к этим передовым функциям.
Как получить доступ к локальным LLM в Opera
Пользователи могут посетить Сайт разработчика Opera обновиться до Opera One Developer, что позволит выбрать и загрузить предпочитаемый локальный LLM. Хотя локальные LLM требуют места для хранения (2–10 ГБ на модель), они могут обеспечить значительный прирост скорости по сравнению с облачными альтернативами, в зависимости от оборудования.
Приверженность Opera инновациям в области искусственного интеллекта
«Подобное внедрение локальных программ LLM позволяет Opera начать изучать способы создания опыта и ноу-хау в быстро развивающемся местном пространстве искусственного интеллекта», — сказал Кристиан Колондра, исполнительный вице-президент по браузерам и играм в Opera.