GPT-4 тепер доступний для підписників ChatGPT Plus

Значок часу читання 3 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

OpenAI нарешті представлено GPT-4. За словами компанії, її остання модель штучного інтелекту більш точна та ефективна, оскільки вона може обробляти більше вхідних даних без плутанини. На додаток до цього, GPT-4 дійсно має багатомодальний можливість обробляти зображення. GPT-4 тепер доступний для передплатників ChatGPT Plus, і розробники тепер можуть отримати до нього доступ як до API.

після звіти про його надходження минулого тижня, GPT-4 нарешті тут, доставлений через оптимізовану для ШІ інфраструктуру Azure. Він був навчений на суперкомп’ютерах Microsoft Azure AI і має деякі помітні відмінності від GPT-3.5. Зокрема ГПТ-4 забив у 88-му процентилі та вище в різних тестах і контрольних показниках. 

«У повсякденній розмові різниця між GPT-3.5 і GPT-4 може бути незначною», — йдеться в публікації OpenAI у блозі. «Різниця проявляється, коли складність завдання досягає достатнього порогу — GPT-4 надійніший, креативніший і здатний обробляти набагато більш нюансовані інструкції, ніж GPT-3.5».

Загалом OpenAI заявив, що на 82% менше ймовірність того, що нова модель відповідатиме на обмежені теми та запити, що робить її безпечною для користувачів. Якість його відповіді також покращилася, з імовірністю до 40% надання фактичних відповідей.

Значна частина GPT-4 зосереджена на його здатності ефективніше обробляти запити. Як зазначив OpenAI, тепер він може прийняти 25,000 4 слів тексту, не відчуваючи плутанини. Це гарна новина для користувачів, які хочуть використовувати весь потенціал моделі, оскільки їм буде дозволено надавати більше деталей та інструкцій у своїх запитаннях і запитах. Однак найбільшою родзинкою GPT-4 є додавання мультимодальних можливостей, що було одним із найбільших очікувань від моделі з моменту публікації минулого тижня. Використовуючи цю нову можливість, GPT-XNUMX тепер може обробляти вхідні зображення та описувати їх за допомогою текстів, хоча це ще не доступно для всіх клієнтів OpenAI, оскільки воно все ще технічно тестується за допомогою Be My Eyes та його функції віртуального волонтера. .

GPT-4, що описує зображення
Автор зображення: OpenAI

GPT-4, що описує зображення

«Наприклад, якщо користувач надішле фотографію внутрішньої частини свого холодильника, віртуальний волонтер зможе не тільки правильно визначити, що в ньому, але й екстраполювати та проаналізувати, що можна приготувати з цими інгредієнтами», — описав функцію OpenAi. . «Інструмент також може запропонувати кілька рецептів цих інгредієнтів і надіслати покроковий посібник щодо їх приготування».

Wow Bing тепер може описувати зображення, тепер він знає, що використовує GPT-4!
byu/BroskiPlaysYT inbing

Тим не менш, ця можливість мультимодальності, здається, частково включена в новий Bing. Microsoft заявила, що чат-бот її пошукової системи працює з цією моделлю з минулого тижня. Однак важливо зазначити, що мультимодальна функція Bing все ще обмежена. Для початку він може приймати лише зображення за посиланнями, наданими в Інтернеті, які він описуватиме як відповідь. У той же час, коли запитують зображення за допомогою описів, чат-бот надасть найбільш релевантний вміст, включаючи результати зображень тощо.

Bing Chat використовує мультимодальну функцію у відповідь

З іншого боку, ці вдосконалення в GPT-4 не означають кінець існуючих проблем, які зазвичай присутні в усіх генеративних продуктах ШІ. Незважаючи на те, що OpenAI обіцяє, що модель буде безпечнішою за GPT-3.5 з точки зору відмови відповідати на шкідливі інструкції, вона все одно може породжувати галюцинації та соціальні упередження. Навіть генеральний директор OpenAI Сем Альтман описаний GPT-4 як щось «ще недосконале, все ще обмежене». Незважаючи на це, команда націлена на постійне вдосконалення моделі, оскільки вона продовжує привертати все більше уваги з боку громадськості та оскільки Microsoft впроваджує її у все більше своїх продуктів.

Форум користувачів

0 повідомлення