Se c’è una cosa che ho imparato in 15 anni di lavoro su Google Search, è che la curiosità delle persone è infinita. Vediamo miliardi di ricerche ogni giorno, e il 15 per cento di quelle domande sono quelle che non abbiamo mai visto prima – ecco perché abbiamo costruito sistemi per restituire i risultati per tutte quelle query che non possiamo anticipare.
Pandu Nayak, Google Fellow and Vice President Search
Cosa è il Google BERT update
Come avrai letto, a parlare nel cappello introduttivo è un esperto SEO di non poco conto. Ma partiamo dalla base: BERT, acronimo che sta per Bidirectional Encoder Representations from Transformers, è un update basato sull’utilizzo di reti neurali utili ad una migliore elaborazione del linguaggio umano naturale.
Proprio in questo senso, Google BERT si pone come obiettivo (riuscendoci) quello di comprendere meglio il contesto completo delle query e dei testi di risposta forniti dal motore di ricerca con soglie di comprensione “sfidanti” ancora più definite, precise e attente.
Ho sentito tante persone in questi giorni parlare dell’update che è stato rilasciato ufficialmente il 9 Dicembre anche in Italia. C’è però molta pubblicità e molta disinformazione su BERT, il nuovo aggiornamento dell’algoritmo di Google. Ecco perché ho pensato di scrivere questo articolo con la finalità di spiegare che cosa è effettivamente BERT, come funziona e perché è importante per la SEO.
Fondamentalmente, BERT è l’ultimo tentativo di Google di abbinare il significato delle query di ricerca ai risultati più rilevanti. Questo update utilizza una tecnica chiamata Natural Language Processing che sfrutta l’intelligenza artificiale per comprendere cosa cercano le persone e come/quanto i contenuti corrispondano effettivamente alle loro esigenze. Google BERT – che a partire da ora si addiziona dunque ai tanti algoritmi utilizzati da Google – aiuterà il motore di ricerca a comprendere cosa significano le parole in una frase. Ma la novità assoluta è che questa volta gli permetterà di comprenderne tutte le sfumature nel contesto semantico.
Come puoi immaginare, un passaggio di questo tipo non può che portare a significativi cambiamenti nel funzionamento di Google. Piccoli modificatori in query come “non”, “a” o “no” possono essere stati infatti precedentemente “mal compresi” dagli algoritmi di Google, che sino a poco fa adottavano un approccio ad ampio raggio.
Cerco di fartela facile facile. Se ad esempio, prima di BERT, avessi voluto includere la parola “consulente SEO” in un testo che parla dei panda, un ottimo escamotage sarebbe stato proprio quello di farlo utilizzando una negazione, come ad esempio: certamente un panda non si comporterà come un consulente SEO!
Questo era possibile – e funzionava – perché Google non riusciva ad elaborare e comprendere a fondo l’argomento, si limitava ad esplorarne le singole parole ignorando però il contesto.
Presto detto, BERT lavora esattamente su questo ed altri aspetti e da oggi le query (e con esse le varie analisi keyword) saranno valutate in modo molto più dettagliato, prendendo in considerazione sfumature che potrebbero essere state ignorate in precedenza. Sfumature di cui dovrai necessariamente tenere conto anche tu quando avvierai la tua prossima keyword research!
Ci tengo a sottolineare che BERT non sostituisce RankBrain, ma al contrario ci lavora in parallelo. Si tratta infatti di un componente aggiuntivo che può essere utilizzato a discrezione del motore di ricerca per alcune domande laddove le sue “capacità” possano risultare più utili… e a quanto pare ha un sacco di lavoro da fare. Al momento Google afferma infatti che BERT interessa ben il 10% delle ricerche fatte sul campione USA, che come capirai è una quantità enorme di roba.
Ma come funziona esattamente Google BERT?
BERT rappresenta uno degli sviluppi più innovativi nel campo della NLP. Nel caso non sapessi di cosa si tratti, NLP sta per Natural Language Processing ed è un campo dell’Intelligenza Artificiale che dà alle macchine la capacità di leggere, comprendere e trarre significato dai linguaggi umani.
Sì, proprio come in Blade Runner. Ma torniamo a BERT per un secondo.
I modelli precedenti a questo update, definiti di fatto “tradizionali” – mi vengono in mente word2vec o GloVe – lavoravano su singole parole, il che significa che ad esempio la parola “credenza” avrebbe goduto della stessa comprensione in frasi come:
Bella la tua credenza… – riferita a un mobile
La credenza popolare – riferita a una convinzione diffusa
BERT risolve questa faccenda con non poca astuzia, grazie principalmente all’applicazione di due differenti modelli di pre-allenamento neurale.
Il primo modello si chiama Mask Language Model (MLM) e serve a predire alcune parole e auto-verificare di aver effettivamente capito di cosa si stia parlando. Il funzionamento è semplice ma dannatamente efficace: praticamente il sistema cerca di auto-fregarsi, nascondendosi da solo alcune parole. Poi prova ad indovinarle, e se riesce ad azzeccarle si dà una pacca sulla spalla e passa alla fase successiva.
Prima di inserire le sequenze di parole, il 15% delle parole di ogni sequenza viene sostituito da un cosiddetto “token mascherato”. Il modello tenta quindi di prevedere il valore originale delle parole mascherate, sulla base del contesto fornito dalle altre parole non in chiaro nella sequenza.
La seconda tecnica è chiamata Next Sentence Prediction (NSP) e serve a BERT per relazionare tra loro le frasi. Nel processo di formazione, il modello riceve coppie di frasi come input e impara a prevedere se la seconda frase della coppia è la frase successiva nel documento originale. Prendiamo ad esempio due frasi X e Y. La seconda, Y, è la frase successiva ad A nel corpus o solo una frase casuale? Ecco, BERT capisce anche questo 😀
Google BERT & SEO
Se sei arrivato sino a questo punto mi aspetto che tu ti stia domandando in che modo Google BERT può influire sul posizionamento del tuo sito e più in generale sulla SEO.
Dovunque leggerai che “nulla cambierà, vai tranquillo e fregatene”. Ecco, io non la penso esattamente così. Ci sono infatti degli aspetti che, se lavorati, possono certamente permetterti di ricavare un vantaggio. Inoltre ci sono alcuni avvertimenti che faresti bene a metterti in testa.
Tieni presente che un update di questo tipo influisce non solo sul tuo sito, ma anche su un eventuale servizio di link building o di digital pr attivi su siti esterni. La qualità sarà valutata non solo su di te ma anche intorno a te.
Queste dunque le mie raccomandazioni:
- Probabilmente perderai il traffico se non hai definito bene il contesto. In primis se facevi traffico da chiavi “non perfettamente in contesto” mettiti in testa che hai grandi possibilità di perdere quei volumi. Questo accadrà perché Google BERT permette al motore di ricerca di comprendere il contesto di una query, quindi faresti bene a dare maggior rilevanza al contenuto nelle tue pagine.
- Le long tail diventano sempre più importanti. Oramai non ci sono più scuse e non hai più tempo: devi lavorare per le ricerche vocali. Le query introdotte su Google e quelle dettate a voce sono molto diverse, ecco perché grazie ad un uso corretto delle long tail potresti addirittura ricevere un sacco di traffico in più.
- Google tenderà a mettere sempre più da parte le pagine scarse. Google non sarà capace di estrarre le informazioni dal tuo sito se questo non ospita contenuti completi, rilevanti e densi di informazioni utili ai tuoi utenti. Se dunque non hai tra le mani un piano editoriale degno di tale nome e se ad oggi hai fatto content marketing con gli articoletti “fatti per Google“… adios, quella è la finestra.
- I dati strutturati sono il presente ed il futuro. Se ancora non ti fosse chiaro, devi utilizzare un sistema di marcatura del contenuto capace di dialogare correttamente con il motore di ricerca. Solo in questo modo puoi garantirti di godere dell’intera rete di distribuzione dei contenuti offerta da Google.
- Devi creare (come minimo) il miglior contenuto possibile sul web.
- Concentrati sulla scrittura di contenuti migliori per i tuoi utenti
- Concentrati sulla migliore risposta possibile ad un intento di ricerca preciso
- Concentrati sulla creazione di esperienze incredibili per il tuo pubblico (come minimo)
Cosa cambia l’introduzione di Google BERT per i SEO?
Con BERT, i consulenti SEO dovranno evolvere la loro comprensione di come gli utenti cercano e trovano i siti e di come navigano verso di loro. Inoltre dovranno fare ancora più attenzione alle difficoltà specifiche del mercato del cliente.
Due cose sono particolarmente importanti: la sintassi dei contenuti e la loro qualità. La sintassi in particolare aiuta Google nella fase di scansione derivante da ricerche complesse, per le quali è ancora in fase d’apprendimento. Dovremo inoltre fornire le risorse per aggiungere informazioni rilevanti anche su home e landing page così da renderle pertinenti rispetto ai parametri di ricerca impostati sulla barra dai nostri clienti.
In breve, se vogliamo capire cosa cambia davvero con l’introduzione di Google BERT dobbiamo metterci in testa che la chiave sta nel comprendere molto meglio i nostri clienti e i loro consumatori. La ricerca di parole chiave non può avere un approccio “sparpagliato” in cui si mischiano termini di lunghezza variabile con potenziale di conversione, volume o visibilità. I termini ad alto volume di ricerca diminuiranno infatti di valore (e con loro il ROI) man mano che da questi si generano query più frammentate.
Le agenzie dovrebbero dunque continuare ad ottimizzare per i termini brevi, ma la complessa comprensione di questo algoritmo dà a tutti i SEO una possibilità mai avuta prima d’ora: personalizzare le pagine per servire intenti molto più specifici, con benefici reciproci di maggiori tassi di azione on-page e accresciuta soddisfazione degli utenti.
Ma BERT viene utilizzato solo da Google? Naaaaaa…
Ebbene no, anche Mark Zuckerberg si sta dando da fare. Sviluppato da Facebook, “RoBERTa” – nome vero, giuro – si basa sulla strategia di mascheramento del linguaggio introdotta da BERT e ne modifica alcuni parametri.
Come non bastasse, questo sistema è stato anche addestrato su una base dati maggiore rispetto a BERT e per un periodo di tempo più lungo. Se dunque pensavi che su Facebook non cambiasse nulla, è arrivato il momento di capire che internet si sta evolvendo.
Google inoltre non è stato certo il primo ad utilizzare Google Bert. Bing ha utilizzato BERT nei risultati di ricerca prima di Google, e su scala molto più ampia: Bing, infatti, ha utilizzato BERT sin da subito in tutto il mondo. Di fatto questo motore di ricerca utilizza BERT da aprile 2019, con circa sei mesi di anticipo rispetto a Google.
Applicare un modello di apprendimento profondo come BERT alla ricerca sul web su scala mondiale può essere proibitivo e costoso, ammette Bing. Alla fine è stato reso possibile grazie al servizio di cloud computing ‘Azure’ di Microsoft.
In conclusione
Con l’aumento della ricerca assistita dall’IA, alcuni hanno sostenuto che gli umani saranno presto sostituiti da alternative robotiche o comunque generate dal computer. La verità è che uno degli utilizzi primari dell’intelligenza artificiale è proprio quello di eliminare la spazzatura e aiutare persone e computer ad identificare i migliori contenuti e le migliori risposte alle loro domande.
BERT è progettato per funzionare intorno all’essere umano e all’utilizzo naturale delle parole nel linguaggio comune. A mio avviso è improbabile che i testi robotici o artificiali possano arrivare a dare risultati utili, coinvolgenti e ben scritti come quello che stai leggendo ora 😀
Dunque, visto che per ora le macchine ancora non ci rubano il lavoro, tu concentrarti e fare una cosa e una soltanto: creare, questa volta per davvero, contenuti che siano come minimo memorabili!