Google zdaj uporablja modele BERT za izboljšanje kakovosti rezultatov iskanja

Ikona časa branja 1 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

Google je danes objavil, da bo izboljšal rezultate iskanja s tehniko BERT. Bidirectional Encoder Representations from Transformers (BERT) je tehnika, ki temelji na nevronski mreži za predhodno usposabljanje za obdelavo naravnega jezika (NLP). Namesto da bi upošteval vsako besedo v stavku, bo BERT upošteval celoten kontekst besede tako, da bo pogledal besede, ki so pred in za njo. Google je podal naslednji primer, kako bo BERT izboljšal rezultate iskanja.

Tukaj je iskanje za »Popotnik iz Brazilije 2019 v ZDA potrebuje vizum«. Beseda »do« in njen odnos do drugih besed v poizvedbi sta še posebej pomembna za razumevanje pomena. Gre za Brazilca, ki potuje v ZDA, in ne obratno. Prej naši algoritmi niso razumeli pomena te povezave, zato smo vrnili rezultate o državljanih ZDA, ki potujejo v Brazilijo.

Oglejte si sliko na začetku članka. Google lahko zdaj razume »stoj« kot telesno dejavnost in zagotavlja ustrezne rezultate. Google je omenil, da bo BERT pomagal Iskanju pri boljšem razumevanju enega od 10 iskanj v ZDA v angleščini. Google bo v prihodnjih mesecih prinesel tudi tehnologijo BERT v več jezikov in regij.

vir: google

Več o temah: BERTI, google, Google Search

Pustite Odgovori

Vaš e-naslov ne bo objavljen. Obvezna polja so označena *