Google zdaj uporablja modele BERT za izboljšanje kakovosti rezultatov iskanja
1 min. prebrati
Objavljeno dne
Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več
Google je danes objavil, da bo izboljšal rezultate iskanja s tehniko BERT. Bidirectional Encoder Representations from Transformers (BERT) je tehnika, ki temelji na nevronski mreži za predhodno usposabljanje za obdelavo naravnega jezika (NLP). Namesto da bi upošteval vsako besedo v stavku, bo BERT upošteval celoten kontekst besede tako, da bo pogledal besede, ki so pred in za njo. Google je podal naslednji primer, kako bo BERT izboljšal rezultate iskanja.
Tukaj je iskanje za »Popotnik iz Brazilije 2019 v ZDA potrebuje vizum«. Beseda »do« in njen odnos do drugih besed v poizvedbi sta še posebej pomembna za razumevanje pomena. Gre za Brazilca, ki potuje v ZDA, in ne obratno. Prej naši algoritmi niso razumeli pomena te povezave, zato smo vrnili rezultate o državljanih ZDA, ki potujejo v Brazilijo.
Oglejte si sliko na začetku članka. Google lahko zdaj razume »stoj« kot telesno dejavnost in zagotavlja ustrezne rezultate. Google je omenil, da bo BERT pomagal Iskanju pri boljšem razumevanju enega od 10 iskanj v ZDA v angleščini. Google bo v prihodnjih mesecih prinesel tudi tehnologijo BERT v več jezikov in regij.
vir: google