Meta запускає Purple Llama; інструменти відкритої довіри та безпеки для відповідального розгортання ШІ

Значок часу читання 2 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Meta AI оголосила про запуск Purple Llama, ініціативи для сприяння відповідальній розробці та використанню генеративних моделей AI. Цей проект спрямований на зростаючу популярність моделей штучного інтелекту з відкритим кодом, які завантажено понад 100 мільйонів Лама моделі поодинці.

Purple Llama черпає натхнення з концепції кібербезпеки «фіолетової команди», поєднуючи наступальні та захисні підходи до зменшення ризиків. Він пропонує інструменти та оцінки для двох ключових областей: кібербезпека та захист вводу/виводу.

Коли справа доходить до LLM кібербезпека ризику, важливо мати спосіб кількісно визначити ризик того, що хтось зламатиме модель ШІ. Метрики можуть допомогти в цьому, надаючи оцінку, яка вказує на ймовірність успішного злому. Крім того, розробники можуть використовувати інструменти для оцінки частоти пропозицій небезпечного коду. Це може допомогти виявити та усунути проблеми в їхніх моделях ШІ, якими можуть скористатися хакери.

Доступні інструменти для захисту від зловмисного використання моделей ШІ. Ці інструменти можуть допомогти запобігти крадіжці або використанню даних хакерами для поширення фейкових новин. Організації можуть запровадити ці інструменти, щоб захистити свої моделі штучного інтелекту та запобігти їх використанню в нечесних цілях.

По-друге, що таке захист вводу/виводу?

Захисні засоби вводу/виводу (I/O) — це заходи безпеки, які впроваджуються для захисту даних від несанкціонованого доступу, маніпуляцій або розкриття в точці входу та виходу з системи.

 

Purple Llama зараз працює над кількома речами. Одним із них є Llama Guard, який є інструментом з відкритим кодом, який допомагає розробникам виявляти та уникати створення шкідливого вмісту. Крім того, вони створили вказівки щодо фільтрації вмісту, яких розробники можуть дотримуватися, щоб гарантувати, що їхні моделі ШІ не створюватимуть шкідливий вміст.

Мета має виявлено що вони віддані відкритій екосистемі для розробки штучного інтелекту, що означає, що вони хочуть полегшити будь-кому розробку та використання моделей штучного інтелекту. Над цим проектом вони працюють з кількома партнерами, зокрема AI Alliance, AMD, Google Cloud, Hugging Face (нещодавно оприлюднені токени Meta AI), IBM, Microsoft і NVIDIA.

Форум користувачів

0 повідомлення