Google тепер використовує моделі BERT для покращення якості результатів пошуку

Значок часу читання 1 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Сьогодні Google оголосила, що буде покращувати результати пошуку за допомогою техніки BERT. Bidirectional Encoder Representations from Transformers (BERT) — це метод на основі нейронної мережі для попереднього навчання обробки природної мови (NLP). Замість того, щоб розглядати кожне слово в реченні, BERT розгляне повний контекст слова, розглядаючи слова, які стоять перед і після нього. Google надав наступний приклад того, як BERT покращить результати пошуку.

Ось пошук за запитом «Мандрівнику з Бразилії в 2019 році потрібна віза». Слово «to» та його зв’язок з іншими словами в запиті особливо важливі для розуміння значення. Йдеться про бразильця, який подорожує до США, а не навпаки. Раніше наші алгоритми не розуміли важливості цього з’єднання, і ми повертали результати щодо громадян США, які подорожують до Бразилії.

Подивіться на зображення на початку статті. Google тепер може розуміти «стояти» як фізичну активність і надавати відповідні результати. Google зазначив, що BERT допоможе Пошуку краще зрозуміти один з 10 пошукових запитів у США англійською мовою. У найближчі місяці Google також представить технологію BERT у більшій кількості мов і регіонів.

джерело: Google

Детальніше про теми: БЕРТ, google, Google Пошук

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *