Google ora utilizza i modelli BERT per migliorare la qualità dei risultati di ricerca

Icona del tempo di lettura 1 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Google ha annunciato oggi che migliorerà i risultati di ricerca utilizzando la tecnica BERT. Bidirectional Encoder Representations from Transformers (BERT) è una tecnica basata sulla rete neurale per la pre-formazione dell'elaborazione del linguaggio naturale (NLP). Invece di considerare ogni parola in una frase, BERT considererà il contesto completo di una parola osservando le parole che vengono prima e dopo di essa. Google ha fornito un seguente esempio su come BERT migliorerà i risultati di ricerca.

Ecco una ricerca per "i viaggiatori brasiliani del 2019 negli Stati Uniti hanno bisogno di un visto". La parola "a" e la sua relazione con le altre parole nella query sono particolarmente importanti per comprenderne il significato. Parla di un brasiliano che viaggia negli Stati Uniti e non il contrario. In precedenza, i nostri algoritmi non capivano l'importanza di questa connessione e abbiamo restituito risultati sui cittadini statunitensi che si recavano in Brasile.

Dai un'occhiata all'immagine all'inizio dell'articolo. Google ora può interpretare lo "stare in piedi" come un'attività fisica e fornire risultati appropriati. Google ha affermato che BERT aiuterà la ricerca a comprendere meglio una ricerca su 10 negli Stati Uniti in inglese. Google porterà anche la tecnologia BERT in più lingue e regioni nei prossimi mesi.

Fonte: Google

Maggiori informazioni sugli argomenti: BERTA, google, Google Search

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *