Novità importante in casa Google, nella settimana del 21 ottobre 2019 Big G ha lanciato infatti Google “Bert” acronimo inglese per Bidirectional encoder representations from transformers: “un algoritmo open source basato sul principio del machine learning, ovvero in grado di apprendere nel tempo attraverso un modello di pre-training”.

Bert è l’aggiornamento principale più recente per quanto concerne la ricerca Google da quando l’azienda ha introdotto RankBrain, quasi cinque anni fa: l’inclusione dell’algoritmo permetterà a Google di comprendere meglio le intenzioni di ricerca degli utenti, ciò dovrebbe produrre in SERP dei risultati sempre più pertinenti.

Google Bert, come funziona?

Il nuovo algoritmo è basato su un sistema di intelligenza artificiale, che imita il funzionamento dei neuroni e i loro collegamenti. Bert nasce difatti per cercare di comprendere nella migliore maniera possibile il linguaggio naturale (quello dell’uomo) e sfrutta per farlo una rete artificiale che riproduce la comunicazione tra neuroni, come quelli del nostro cervello.

L’obiettivo di Google è sempre il medesimo cercare di rintracciare con il minimo margine di errore, cosa realmente un utente vuole ottenere dai risultati di ricerca e offrirgli via Serp i risultati più possibile attinenti. Per far ciò non c’è più bisogno delle singole parole chiave o keywords, perché l’utente è messo in condizione di fare domande “al naturale” (long tail keyword) e all’interno di esse ogni parola trova il significato più pertinente in relazione con quelle che la precedono e la seguono (il contesto).

Il più grande cambiamento tecnico di Bert consiste nell’applicazione della formazione bidirezionale di Transformer, un modello abbastanza famoso che riguarda la comprensione e la modellazione del linguaggio. Nella sua forma originale, Transformer sviluppa due meccanismi ben distinti: un codificatore che legge l’input di testo e un decodificatore che produce una previsione per l’attività. Poiché l’obiettivo di BERT è generare un modello di linguaggio, è necessario solo il primo.

Il funzionamento dettagliato di Transformer è descritto in un documento redatto dal Google AI Blog.

A differenza dei modelli direzionali, che leggono il testo scritto in sequenza (da sinistra a destra o da destra a sinistra), il codificatore Transformer legge la sequenza di parole contemporaneamente. Pertanto è considerato bidirezionale, anche se sarebbe più esatto affermare che non è direzionale.

Questa innovazione consente al modello di apprendere il contesto di una parola in base a tutto ciò che lo circonda (sinistra e destra della parola).

Esempi di SERP pre e post Google Bert

Ecco gli esempi diffusi da Google per spiegare come cambia la SERP dopo l’introduzione di Google BERT:

  • Esempio 1: digitando la query “2019 brazil traveler to usa need a visa” prima dell’arrivo di Bertil browser dava come risposta dei link utili per i cittadini US intenzionati a spostarsi in Brasile. Il search intent corretto, però, non è questo ma quello di comprendere se i viaggiatori brasiliani diretti in US hanno bisogno di un visto. Come si può vedere dall’esempio sotto, il nuovo algoritmo aggiornato riesce a cogliere il reale intento di ricerca grazie alla sua abilità di comprendere l’esatto significato del termine “to”.

  • Esempio 2: alla domanda “can you get medicine for someone pharmacy” il vecchio algoritmo rispondeva in maniera generica, spiegando si ritirano dei farmaci con prescrizione. Ora, invece, il sistema comprende correttamente il significato della parola “someone” captando perfettamente l’intenzione di ricerca. Risponde, infatti, spiegando come una persona può comprare farmaci con prescrizione per conto di qualcun altro.

Send via WhatsApp