archivio

- leggi in 6 min

immagine di un marketer che usa il pc per l'articolo sul digitale

SEO e nuove applicazioni AI per i motori di ricerca: la nostra review

Matteo Shots.it

Matteo Mario

Il 2020 ha portato con sé un’altra novità per quanto riguarda la nostra cara SEO, ovvero nuove applicazioni AI per i motori di ricerca e in particolare l’introduzione di BERT. Avevamo già accennato di BERT in questo precedente articolo in merito ad alcune novità introdotte da Google nei suoi processi di elaborazione dati e ranking, ma ora entriamo più nello specifico per capire le grandi potenzialità di questo nuovo linguaggio di applicazioni AI.

Le applicazioni AI che cambiano Google: un’evoluzione dei dettagli

BERT, acronimo di Bidirectional Encoder Representations from Transformers, è un update basato sull’utilizzo di reti neurali utili per una migliore elaborazione del linguaggio umano naturale. Sembra una cosa molto complicata, ma la cosa importante da sapere è che questo processo ha il compito di comprendere meglio il contesto completo di query e testi forniti dal motore di ricerca, attraverso un’attenzione ancora più precisa e definita.

“When I first came across the web as a computer scientist in the mid-90s, I was struck by the sheer volume of information online, in contrast with how hard it was to find what you were looking for. It was then that I first started thinking about search, and I’ve been fascinated by the problem ever since”. 

Prabhakar Raghavan, Senior Vice President e Search & Assistant di Geo, Ads, Commerce, Payments & NBU

Leggi anche: Enzo Mari, storia di un designer ribelle

Uno degli obiettivi principali di BERT è quello di abbinare il significato delle query di ricerca ai risultati più rilevanti, utilizzando una tecnica chiamata Natural Language Processing. Questo metodo sfrutta le applicazioni AI per comprendere cosa cercano le persone e come/quanto i contenuti corrispondano effettivamente alle loro esigenze.

La grande news, però, è quella della comprensione più dettagliata da parte del nuovo algoritmo di Google: questo processo, infatti, aiuterà il motore di ricerca a capire esattamente il significato delle parole in una frase, ma soprattutto gli permetterà di comprenderne tutte le sfumature del contesto semantico. 

Un cambiamento quasi assoluto per questo settore di Big G, perché mai si era arrivati ad un livello così alto di comprensione delle query e questo rappresenta, appunto, il più recente update in merito. Dimostrazione dell’ormai fondamentale influenza dell’Intelligenza Artificiale e delle applicazioni AI nel mondo di Google.

Ma facciamo un esempio concreto: se prima dell’avvento di BERT avessimo voluto includere la parola esperto SEM in un testo che trattava un tema completamente diverso, un ottimo trucco sarebbe stato quello di “mimetizzare” la nostra informazione all’interno di una frase del testo, per esempio facendo uso di una negazione.

(“Nella foresta amazzonica non trovereste un esperto SEM neanche a pagarlo!”). Perché questa strategia poteva funzionare? Perché con gli algoritmi precedenti Google non era ancora in grado di elaborare a fondo l’argomento in questione, limitandosi ad esplorarne le singole parole. Tutto questo, perciò, ignorandone il contesto.

Tutte le query e risposte di ricerca, perciò, verranno valutate da BERT in modo più approfondito e dettagliato, prendendo in considerazione anche il contesto di riferimento e non più i singoli vocaboli all’interno delle frasi: questo sarà fondamentale per BERT, perché potrà trovare sfumature che prima avrebbe probabilmente ignorato.

Dal punto di vista ideale, BERT funziona come un vero e proprio robot che ha il compito di comprendere meglio i nostri linguaggi. Natural Language Processing è infatti un campo dell’Intelligenza Artificiale che conferisce alle macchine la capacità di leggere, comprendere e trarre significato dai linguaggi umani.

In aggiunta a questo, si può dire che BERT risolve determinate situazioni grazie principalmente all’applicazione di due differenti modelli detti di pre-allenamento neurale. Senza entrare troppo nello specifico, il primo modello si chiama MLM (acronimo di Mask Language Modele serve a predire alcune parole e auto-verificare di aver effettivamente capito di cosa si stia parlando. In un certo senso, questo modello crea dei trabocchetti a sé stesso nascondendosi alcune parole. Successivamente prova ad indovinarle, e se le azzecca passa alla frase successiva.

Il secondo si chiama invece NSP (acronimo di Next Sentence Prediction) e serve a BERT per relazionare tra loro le frasi. Il modello riceve coppie di frasi come input e impara a prevedere se la seconda frase della coppia è la frase successiva anche nel doc originale.

Questa grande novità porta con sé, inevitabilmente, dettagli che adesso quando si parla di SEO dovranno essere seguiti: sicuramente le long tails diventeranno sempre più importanti, vista l’importanza crescente del contesto e soprattutto delle ricerche vocali. 

Anche la qualità dei contenuti, se prima era fondamentale adesso diventa di vitale importanza: pertinenza, definizione precisa del contesto e soprattutto un buon dialogo con il motore di ricerca saranno importanti linee guida per il proprio storytelling SEO.

A questo punto, è giusto fare una considerazione sull’aspetto della qualità dei contenuti, che sposandosi con le applicazioni AI porta con sé gli elementi fondamentali della creatività e della pertinenza delle informazioni che si vogliono condividere. Questa maggiore attenzione per i dettagli e la correttezza della propria voce daranno la possibilità a chi vuole raccontare un prodotto o un brand di valorizzare ancora di più il suo contesto e, perché no, la sua identità sui motori di ricerca.

Non solo però BERT ha portato novità nell’approccio AI driven sui contenuti testuali, ma anche sui video: attraverso il nuovo macro-modello, infatti, avremo la possibilità di contestualizzare meglio i contenuti video, identificarne maggiormente i momenti chiave (“key moments”e comprenderne le profondità semantiche. Parole precise di Raghavan, che paiono sofisticate ma testimoniano la grande ambizione di Google nel proseguire questo processo di continuo rinnovamento.

Facile carpire dai piani alti di Google, infine, che questa strategia a lungo termine includa e continuerà ad includere non solo BERT ma anche nuove tecnologie precise destinate all’elaborazione dati di Google Search, il quality journalism, la privacy e la diffusione di informazioni, e in questo caso per esempio le informazioni relative alla pandemia di Covid-19 nel mondo.

Altro aspetto importante e relativo a questo tema è sicuramente quello dei cosiddetti “passages” che si collegano direttamente alle long tails che abbiamo citato prima. I passaggi delle proposizioni, (a partire dal 2021 ma le date di rilascio di questo piccolo aggiornamento non sono sicure) potranno posizionarsi nei risultati di ricerca nel caso siano molto rilevanti rispetto alla query.

“Very specific searches can be the hardest to get right, since sometimes the single sentence that answers your question might be buried deep in a web page. We’ve recently made a breakthrough in ranking and are now able to not just index web pages, but individual passages from the pages”.

Prabhakar Raghavan

Nello specifico, Raghavan spiega che sarà più facile in futuro riuscire a far notare interi passaggi all’interno delle pagine dei risultati, grazie ad una tecnologia che riguarderà il 7% delle ricerche in tutte le lingue globali disponibili su Google. Con questo nuovo approccio, quindi, Google potrà comprendere che determinati passaggi potranno essere significativamente più rilevanti all’interno di una pagina considerando la query di ricerca dell’utente.

Tanti dettagli che rendono le applicazioni AI ormai fondamentali per la ricerca su Google, conferendo una specificità dell’analisi ancora più precisa e dettagliata e portando i suoi algoritmi ad un livello superiore anche per gli utenti più “distratti”.