Google gebruikt nu BERT-modellen om de kwaliteit van zoekresultaten te verbeteren

Pictogram voor leestijd 1 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Google heeft vandaag aangekondigd dat het de zoekresultaten gaat verbeteren met behulp van de BERT-techniek. Bidirectionele Encoder Representaties van Transformers (BERT) is een op neurale netwerken gebaseerde techniek voor pre-training van natuurlijke taalverwerking (NLP). In plaats van elk woord in een zin te beschouwen, zal BERT de volledige context van een woord beschouwen door te kijken naar de woorden die ervoor en erna komen. Google heeft een volgend voorbeeld gegeven van hoe BERT de zoekresultaten zal verbeteren.

Hier is een zoekopdracht voor "Braziliëreiziger van 2019 naar de VS heeft een visum nodig." Het woord 'naar' en de relatie met de andere woorden in de zoekopdracht zijn vooral belangrijk om de betekenis te begrijpen. Het gaat over een Braziliaan die naar de VS reist, en niet andersom. Voorheen begrepen onze algoritmen het belang van dit verband niet en hebben we resultaten geretourneerd over Amerikaanse staatsburgers die naar Brazilië reizen.

Bekijk de afbeelding aan het begin van het artikel. Google kan 'staan' nu begrijpen als een fysieke activiteit en passende resultaten leveren. Google zei dat BERT Search zal helpen om één op de tien zoekopdrachten in de VS in het Engels beter te begrijpen. Google zal de komende maanden ook BERT-technologie naar meer talen en regio's brengen.

Bron: Kopen Google Reviews

Meer over de onderwerpen: BERT, google, Google Search

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *