I segreti dell'algoritmo Google per la ricerca
A fine maggio, una notizia ha sconvolto il mondo SEO e del digital marketing: parte della documentazione tecnica interna di Ricerca Google è trapelata online.
Questo evento ha scatenato un turbinio di discussioni tra esperti del settore, poiché offre uno sguardo raro e prezioso su uno degli algoritmi più complessi e influenti al mondo.
Cosa è successo
Migliaia di documenti sull’algoritmo Google, che sembrano provenire dal Content API Warehouse interno di Google, sono stati rilasciati il 13 marzo su Github da un bot automatizzato chiamato yoshi-code-bot. Questi documenti sono stati ricondivisi da Rand Fishkin, co-fondatore di SparkToro ed esperto di ottimizzazione dei motori di ricerca, verso la fine del mese di maggio.
La documentazione trapelata dell’API di ricerca ottenuta da Erfan Azimi, fondatore di EA Eagle Digital, e confermata da ex dipendenti di Google, delinea 2.596 moduli con 14.014 attributi relativi a vari servizi Google come ad esempio YouTube. Questi moduli fanno parte di un repository monolitico, il che significa che tutto il codice è archiviato in un unico posto ed è accessibile da qualsiasi macchina della rete.
In alcuni punti della documentazione si legge di una funzionalità chiamata “siteAuthority“, ad indicare che Google misura l’autorità a livello di sito.
Nonostante le smentite pubbliche di Google, sistemi come NavBoost utilizzano i dati sui clic per influenzare il posizionamento.
In merito a Sandbox viene menzionato un attributo “hostAge” utilizzato per eseguire il sandbox di nuovi siti, contraddicendo il rifiuto di Google di un sandbox. Inoltre la documentazione sull’algoritmo Google mostra che i dati di Chrome vengono utilizzati negli algoritmi di ranking.
Il sistema di ranking di Google è una serie di microservizi anziché un singolo algoritmo. I sistemi chiave includono Trawler (scansione), Alexandria (indicizzazione), Mustang (classifica) e SuperRoot (elaborazione delle query).
Vengono poi descritte funzioni di riclassificazione – Twiddlers – che modificano i risultati della ricerca prima che vengano presentati agli utenti: gli esempi includono NavBoost, QualityBoost e RealTimeBoost.
L’importanza dell’algoritmo di Google
L’algoritmo di Google è il cuore del motore di ricerca più utilizzato al mondo.
Esso determina quali risultati vengono mostrati per ogni query inserita dagli utenti, influenzando in modo significativo il traffico web e, di conseguenza, il successo di milioni di siti web.
Le informazioni trapelate includono dettagli tecnici su vari aspetti dell’algoritmo, che vanno dai criteri di ranking alle penalizzazioni, passando per l’interpretazione dei segnali di qualità. Ecco alcune delle principali rivelazioni:
RankBrain e l’intelligenza artificiale: RankBrain, il sistema di intelligenza artificiale di Google, è stato descritto in dettaglio. Questa tecnologia utilizza tecniche di machine learning per aiutare Google a interpretare le query complesse e a fornire risultati più pertinenti, anche se la query è formulata in modo inusuale. RankBrain analizza modelli e associazioni nei dati per comprendere meglio l’intento dell’utente.
Fattori di ranking: è stato confermato che Google utilizza oltre 200 fattori di ranking. Tra questi, alcuni dei più influenti includono:
- Qualità dei contenuti: Google valuta la rilevanza, la completezza e l’affidabilità dei contenuti. Contenuti originali e ben documentati hanno una maggiore probabilità di posizionarsi in alto.
- Backlink: la quantità e la qualità dei backlink continuano a essere cruciali. Link da siti autorevoli e pertinenti migliorano significativamente il ranking.
- Velocità di caricamento delle pagine: la velocità del sito è un fattore critico, poiché influisce direttamente sull’esperienza utente. Google utilizza metriche come LCP (Largest Contentful Paint), FID (First Input Delay) e CLS (Cumulative Layout Shift) per valutare le performance.
- Compatibilità mobile: Con l’aumento dell’uso di dispositivi mobili, avere un sito mobile-friendly è essenziale. Google utilizza l’indicizzazione mobile-first, quindi la versione mobile del sito è quella principale considerata per il ranking.
Penalizzazioni manuali e algoritmiche: la documentazione spiega come Google applica penalizzazioni sia manuali che algoritmiche per i siti che violano le linee guida di qualità. Le penalizzazioni manuali vengono imposte da revisori umani per pratiche come il cloaking o il keyword stuffing, mentre quelle algoritmiche sono automatizzate e possono derivare da aggiornamenti come Penguin e Panda.
L’importanza dell’esperienza utente (UX): è emerso che Google pone una grande enfasi sull’esperienza utente. Fattori come il tempo di permanenza (dwell time), il tasso di rimbalzo (bounce rate) e l’interattività della pagina sono monitorati e possono influenzare il ranking. Inoltre, segnali come la navigabilità del sito, la chiarezza del design e la qualità delle interazioni (ad esempio, la presenza di pop-up invasivi) sono presi in considerazione.
Dettagli tecnici aggiuntivi
Oltre ai punti già menzionati, alcune delle informazioni tecniche trapelate sull’algoritmo Google comprendono:
BERT (Bidirectional Encoder Representations from Transformers): una delle tecnologie di elaborazione del linguaggio naturale più avanzate di Google. BERT aiuta il motore di ricerca a comprendere meglio il contesto e il significato delle parole in una query, migliorando la rilevanza dei risultati soprattutto per le ricerche più complesse.
PageRank aggiornato: sebbene PageRank non sia più visibile pubblicamente, continua a essere una componente fondamentale dell’algoritmo. La documentazione ha rivelato che Google utilizza una versione aggiornata del PageRank originale, che tiene conto non solo della quantità di link, ma anche della qualità e della rilevanza del contesto in cui i link sono inseriti.
E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness): questi quattro principi sono fondamentali per la valutazione della qualità dei contenuti. Google utilizza E-E-A-T per valutare l’autorevolezza di un sito o di un autore, specialmente in settori delicati come salute e finanza (YMYL).
Implicazioni per la SEO
Questa fuga di notizie sull’algoritmo Google rappresenta un’opportunità unica per i professionisti SEO per affinare le loro strategie. Ecco qualche punto da mettere in pratica.
Focalizzarsi sulla qualità dei contenuti: dato che i contenuti di alta qualità sono fondamentali per il ranking, è cruciale investire nella creazione di contenuti originali, ben scritti e utili per gli utenti.
Ottimizzare la velocità del sito: la velocità di caricamento è un fattore di ranking importante. Utilizzare strumenti come Google PageSpeed Insights per identificare e risolvere i problemi di performance può migliorare la posizione nei risultati di ricerca.
Migliorare l’esperienza utente: assicurarsi che il sito sia facile da navigare, reattivo e che offra un’esperienza positiva agli utenti può aumentare il tempo di permanenza e ridurre il tasso di rimbalzo.
Monitorare i backlink: i backlink di qualità continuano a essere un fattore determinante per il ranking. Costruire una rete di link naturali e autorevoli può migliorare significativamente la visibilità del sito.
La fuga di notizie sulla documentazione tecnica di Google offre una rara occasione per comprendere il funzionamento interno del motore di ricerca più potente al mondo. Per i professionisti SEO e del digital marketing, queste informazioni sono una miniera d’oro che può guidare strategie più efficaci e mirate. Adattare le proprie pratiche alle nuove rivelazioni può fare la differenza tra un sito che si perde nell’oscurità e uno che domina le SERP di Google.