L’algoritmo di Google: viaggio nella storia degli aggiornamenti del motore di ricerca più famoso al mondo

Introduzione

Il successo di Google, il motore di ricerca più utilizzato al mondo, si fonda sul costante aggiornamento del suo algoritmo che permette di analizzare in pochi secondi milioni di siti e stilarne una classifica (la Search Engine Results Page, cioè la pagina dei risultati del motore di ricerca) dei migliori, a seconda della query digitata dall’utente. Questi aggiornamenti continui sono una conseguenza naturale dell’attuale “sovrappopolazione” di contenuti e ricerche in rete. Gli aggiornamenti sono necessari per poter migliorare costantemente le risposte restituite all’utente quando utilizza il motore di ricerca. Questo articolo nasce con l’intento di illustrare quali sono gli aggiornamenti che Google ha lanciato nell’ultimo decennio. Conoscere le caratteristiche degli algoritmi è importante per mettere in piedi strategie SEO che portino il sito in cima alle SERP ed evitare penalizzazioni.

Conosci l’algoritmo per dominare la SEO

Per chi ha un sito internet o si occupa di SEO è importante avere una panoramica chiara di come funziona l’algoritmo, sui suoi aggiornamenti e su quali parametri si affida per stilare la SERP. Quando Google rilascia un nuovo aggiornamento dell’algoritmo le SERP cambiano. Il nesso tra Google e SEO è abbastanza evidente. Mettiamo che un esperto SEO utilizzi una strategia per migliorare la visibilità di un sito affinché l’algoritmo lo posizioni tra i primi risultati della SERP. La strategia sarà impostata in modo da rispettare tutta una serie di parametri giudicati positivi dal motore di ricerca. Ma quando l’algoritmo viene aggiornato, e succede spesso, alcuni parametri su cui era basata la strategia potrebbero cambiare. Di conseguenza il sito ne potrebbe risentire, perdendo visibilità. In alcuni casi si va incontro a pesanti penalizzazioni SEO. Capita molto spesso che un sito, da un giorno all’altro, registri un crollo enorme delle visualizzazioni organiche. Nella quasi totalità dei casi la causa risiede nell’aggiornamento dell’algoritmo e se non si interviene subito il traffico continuerà a calare inesorabilmente. Non è difficile quindi capire perchè questi aggiornamenti siano così temuti.

Come funziona l’algoritmo di Google

L’algoritmo attuale si poggia sul PageRank, uno degli algoritmi originali che assegna un peso numerico ad ogni elemento di un insieme di documenti ipertestuali (la pagina web), per misurare la sua importanza all’interno della rete. Oggi ci sono oltre 200 Fattori di Ranking che il sito deve rispettare per avere un buon posizionamento. E Google non è così generoso da svelarli tutti. In linea generale sappiamo che si affida a:
  • Fattori On Page (interni al sito), legati alla sua struttura (come le Keywords), al tema del sito e agli argomenti trattati al suo interno e agli elementi di HTML.
  • Fattori Off Page (esterni al sito), cioè quelli legati alla popolarità del sito, determinata dalla quantità e, soprattutto, dalla qualità dei link che la pagina riceve da altri siti e blog, dal comportamento degli utenti rispetto al sito.
La nota dolente è che il ranking presenta anche una serie di elementi che invece peggiorano il posizionamento del sito e che in molte occasioni portano a vere e proprie penalizzazioni.

Updates: cronistoria degli aggiornamenti di Google

L’obiettivo di Google è quello di fornire risposte sempre più precise e di qualità alle domande poste dall’utente. Per far ciò ha dato inizio ad una guerra a suon di aggiornamenti contro tutti quei furbetti che utilizzavano pratiche poco pulite per posizionare nei primi risultati della SERP siti di scarsa qualità. Ogni anno vengono eseguiti più di 500 updates. Solo alcuni aggiornamenti vengono annunciati e resi ufficiali da Google, altri passano quasi inosservati, altri ancora sono definiti Core Update. Questi ultimi non hanno nomi ufficiali, ma impattano molto sui risultati di ricerca. Sono gli aggiornamenti che più spaventano, in quanto per alcuni gestori di siti web potrebbero avere conseguenze negative sul posizionamento del proprio sito e perchè con questi algoritmi Google non fornisce informazioni sui parametri che sono stati aggiornati, rendendo difficile apportare le modifiche giuste al sito. Mettiti comodo perché ora ti guidiamo tra gli aggiornamenti Google più importanti (e di forte impatto per la SERP) dell’ultimo decennio.

La Timeline degli aggiornamenti Google

  • Google PANDA 2011
  • Google PENGUIN 2012
  • Google HUMMINGBIRD 2013
  • Google PIGEON 2014
  • Google RANKBRAIN e MOBILGEDDON 2015
  • Google POSSUM 2016
  • Google FRED 2017
  • Google MOBILE-FIRST 2017
  • Google MEDIC UPDATE 2018
  • Google BERT 2019
  • Google January 2020 2020

Google Panda – 2011

Google Panda è uno dei più importanti update di Google ed è ancora oggi un parametro da tenere in considerazione. È stato introdotto nel 2011 e aggiornato fino al 2016. La parola d’ordine di questo aggiornamento è “qualità”. L’obiettivo era, e rimane ancora oggi, quello di classificare i siti in base alla qualità dei contenuti che presenta. Parliamo di tutti quei siti che vediamo nelle prime posizioni di Google perché presentano ricchezza e pertinenza di contenuti e rendono la navigazione dell’utente chiara e semplice. Google Panda ha spinto marketers e copywriter a ripensare al modo di creare contenuti. Nel mondo del Marketing questo aggiornamento è anche conosciuto come Farmer Update, perchè il suo scopo era quello di contrastare i content farm, cioè tutti quei siti spam, con contenuti scarsi o scopiazzati che impedivano ai siti migliori di avere un buon posizionamento.

Google Penguin – 2012

Dopo aver messo un freno ai contenuti di bassa qualità, nel 2012 con Penguin Google si dedica ai link del sito (interni ed esterni). Lo scopo di Penguin è quello di scoprire chi usa link non spontanei e penalizzarlo. Google parte dal presupposto che in un mondo – del web – ideale l’obiettivo di un sito dovrebbe essere quello di fornire link interessanti e di approfondimento alle informazioni presenti sulla pagina. Ma nella realtà chi possiede un sito cerca spesso di forzare il passaggio di più link possibili per aumentare la propria visibilità. In genere questi link sono spam o provenienti da pagine di scarsa qualità. Rilasciato successivamente nelle versioni 2 e 3 l’algoritmo dava inizio a periodi di scansioni periodiche e non costanti, individuando i siti poco virtuosi da penalizzare. Dal 2016, con Penguin 4, invece, lavora in tempo reale intervenendo immediatamente quando rileva violazioni. Forse l’update più temuto, spinge gli specialisti a stare molto attenti nelle campagne di link building, selezionando solo link autorevoli e in tema con il sito. Soprattutto da quando è stato aggiornato per lavorare in tempo reale, il fenomeno degli spam link che permettevano a progetti editoriali immeritevoli di scalare le SERP è diminuito sensibilmente e sono aumentati i contenuti di qualità e di valore.

Google Hummingbird – 2013

Nel 2013 si volta lo sguardo alla semantica. Per intenderci: una persona che legge la frase “Oggi ho letto un libro”, non ha problemi a capire che si riferisce al verbo leggere piuttosto che a letto oggetto usato per dormire. Per un algoritmo non è altrettanto semplice capirlo. Hummingbird, algoritmo interpretativo, risolve il problema: analizzando i testi pone particolare attenzione alle parole e ne riconosce quindi il vero significato. In questo modo riesce a dare risposte precise all’utente. Tutt’oggi influenza circa il 90% dei risultati nella SERP perchè riesce a rendere risposte precise e pertinenti alle query degli utenti. In questo modo l’algoritmo permette al motore di ricerca di capire al volo le frasi di ricerca dell’utente, che ormai non cerca più in base a singole parole chiave ma utilizza la formula “dove, come, perchè”. Questa nuova capacità dell’algoritmo rende efficace, in questo modo, anche l’uso di code lunghe (keyword composte da più parole) per l’indicizzazione. Ovviamente in tutto ciò un piccolo aiuto a Google bisogna pur darlo. Per far in modo che capisca i contenuti di una pagina, gli si devono fornire degli indizi attraverso i dati strutturati, conosciuti anche come metadati. Attraverso i dati strutturati inseriti nel sito, si può fornire il contesto ai concetti trattati all’interno della pagina. Sarà in questo modo che Google riuscirà a capire che ci si riferisce ad un significato di “letto” piuttosto che ad un altro.
Un esempio pratico su come Google riesca a capire l’intera frase di ricerca dell’utente “Come faccio a creare annunci su Google?”- espressa in maniera colloquiale- piuttosto che analizzando singolarmente le parole della frase.

Google Pigeon – 2014

Google Pigeon viene lanciato nel 2014 con lo scopo di rendere i risultati di ricerca più precisi in base alle esigenze dell’utente. Questo algoritmo manipola i risultati della SERP in base alla geolocalizzazione dell’utente, integrandosi con le funzioni di altri algoritmi. È molto utile quando si sta ricercando un ristorante, un’agenzia o qualsiasi altro servizio/luogo nelle vicinanze.

Google RankBrain e Mobilgeddon – 2015

Nel 2015 Google si muove in due direzioni: sul machine learning e sull’ottimizzazione per mobile. Da un lato, con RankBrain il motore di ricerca, per stilare la classifica di risposte, prende in considerazione keywords, frasi e ricerche popolari online e le associa alle ricerche passate dell’utente, alla sua posizione geografica e per poter dare una risposta specifica, tentando di interpretare ciò che davvero l’utente volesse dire, ma allo stesso tempo personalizzata. Dall’altro Google rilascia Mobilgeddon, con lo scopo di penalizzare i siti web non navigabili da Mobile. Questo nuovo approccio “mobile friendly” ha sconvolto i parametri della SEO, rendendo fondamentale per chi oggi vuole sviluppare un sito, renderlo ottimizzato anche per smartphone. Questa è anche la ragione per cui oggi, sviluppando un sito, è fondamentale partire prima dalla versione mobile e poi adattare la versione desktop. Concentrarsi sul mobile ha enormi vantaggi sia in ottica SEO, sia nella gestione e per ottenere ottimi risultati delle campagne Google Ads.

Google Possum – 2016

Google Possum viene lanciato nel 2016 con lo scopo di incidere sulla ricerca locale, permettendo ai siti delle attività nelle vicinanze dell’utente di poter ottenere un buon posizionamento e dare al contempo all’utente risultati coerenti e personalizzati in base alla sua localizzazione. Anche se i principi alla base della Local SEO sono rimasti invariati, l’algoritmo ha migliorato il posizionamento di tutte quelle attività che hanno sede appena al di fuori dei confini fisici di una città e che in precedenza venivano sfavorite. Ancora, mentre prima Google filtrava le attività che presentavano uno stesso numero di telefono e/o dominio – trattamento applicato più che altro a spazi di lavoro condivisi, ad esempio uno stesso ufficio legale con diversi Dipartimenti – ora il filtro si basa sull’indirizzo. Quindi attività che hanno schede Google MyBusiness diverse ma che si trovano nel medesimo palazzo non vengono visualizzate tutte, ma l’utente potrà togliere manualmente il filtro e vedere anche i risultati nascosti. In ultimo, pare che i risultati di ricerca cambino molto anche su piccole variazioni della parola chiave ricercata, come si può vedere qui sotto nell’esempio di risposte per “Bologna osteria” e “osteria Bologna”.

Google Fred – 2017

Google Fred è il nome che indica un insieme di aggiornamenti algoritmici che tra gennaio e marzo del 2017 hanno portato scossoni preoccupanti alla SEO. Si ritorna ancora una volta ai contenuti. Con questo update Google contrasta le fake news e tutte quelle pagine che diffondevano notizie inesatte, copiate, deliberatamente disinformative o troppo generiche con il solo scopo di attrarre traffico per monetizzare. Anche la presenza eccessiva di pubblicità e la sovraottimizzazione del sito non sono visti di buon occhio dall’algoritmo. I siti colpiti da questo aggiornamento sono stati tantissimi, registrando enormi perdite di traffico. In questo modo diversi nomi grossi dell’editoria hanno potuto beneficiare di una buona spinta nella SERP perchè ritenuti più affidabili di altri brand, come Wikipedia, che nonostante avesse investito nel tempo in contenuti di qualità ha registrato dei cali (forse dovuti a eccessivi elementi di ottimizzazione).

Mobile-first update – 2017

Nello stesso anno c’è un’altra grande novità: Mobile-first. Sono sempre di più gli utenti che effettuano ricerche da smartphone piuttosto che da desktop e già nel 2015 Google aveva lanciato un avvertimento per rendere i siti mobile-friendly. Fino a quel momento, nella progettazione del sito si teneva conto della visualizzazione su desktop per poi adattarla anche alla visualizzazione per mobile e tablet. E anche Google seguiva questo schema per i suoi sistemi di indicizzazione e classificazione. Con Mobile-First la gerarchia si inverte: si parte cioè dalla progettazione per visualizzazione su mobile, per poi adattarla alle risoluzioni più alte, così come Google, con l’indicizzazione Mobile-First, utilizza la versione mobile per la valutazione della pertinenza di una pagina e per l’indicizzazione nel motore di ricerca. Per dirla in parole povere: se prima un sito era fatto bene per computer ma si vedeva male da smartphone aveva comunque l’opportunità di posizionarsi bene per computer. Da marzo 2017 in poi un sito non usabile per mobile non riesce a posizionarsi bene nemmeno per computer. Prima di questo aggiornamento, per gli utenti era molto faticoso navigare da mobile, perché molti siti non avevano un buon taglio di visibilità sullo schermo del cellulare e spesso c’erano problemi di caricamento del sito e degli elementi multimediali. Con Mobil-First Google mette in moto un’operazione di migrazione dei siti verso l’indicizzazione mobile-first, fornendo delle linee guida per ottimizzare al meglio le pagine attraverso un design tecnico che sia improntato non solo a rendere i siti fruibili da cellulare, ma per ottimizzare al massimo la User Experience e rendere il sito capace di intercettare e catturare al suo interno gli utenti. Tutto questo è possibile facendo attenzione ad alcuni dettagli:
  • Assicurarsi che Googlebot possa accedere ai contenuti e che possa visualizzarli correttamente
  • Far in modo che i contenuti, i dati strutturati e i metadati inseriti per desktop siano gli stessi di quelli per i mobile.
  • Controllare immagini e video in modo che siano di qualità e di formati supportati.
  • Fare attenzione nel caso siano stati sviluppati separatamente il sito mobile ed il sito desktop, come spesso succede nel caso dei sottodomini “m.”..

Medic Update – 2018

Ad inizio agosto 2018 Google dichiara di aver rilasciato un ampio aggiornamento dell’algoritmo di base, definito dagli esperti Medic Update perchè i più colpiti sono stati i siti di ambito medico, anche se Google non ha mai parlato di azioni specifiche verso una certa nicchia. Con questo Update le SERP sono state totalmente stravolte, dando spazio ai contenuti di informazioni, che si vanno ad affiancare ai siti di e-Commerce, la cui presenza è sempre più imponente. Il Medical Update è anche definito Search Quality Update, perchè guarda appunto alla qualità e varietà dei contenuti. L’obiettivo di Google è quello di fornire la miglior esperienza di utilizzo e la miglior risposta possibile all’utente. In termini pratici, questo significa accertarsi di posizionare risultati informativi quando l’utente ha bisogno di informazioni, e inserire invece risultati commerciali e, soprattutto, diversi tipi di annunci di Google Ads nelle pagine che rivelano un intento di ricerca finalizzato all’acquisto. Probabilmente l’update è un’ulteriore espansione della navigazione mobile, che fino a quel momento era incentrata solamente sul controllare se i contenuti fossero indicizzabili da mobile, mentre ora Google si chiede se siano adatti ad occupare le prime posizioni in SERP. In questo modo Google va a incentivare una struttura di inbound marketing dei vari sito – che si tratti di siti informativi o di e-commerce- che può essere così schematizzata: articolo informazionali => scoperta del prodotto => acquisto (se l’articolo informazionale è stato abbastanza persuasivo). Si tratta un aggiornamento piuttosto discusso perché se da un lato ha migliorato la qualità delle SERP penalizzando siti border line, dall’altro ha penalizzato anche delle realtà che non avevano motivo di essere penalizzate. Fortunatamente nel giro di 6 mesi e dopo una serie di aggiornamenti successivi si è ristabilita la situazione precedente.

Google Bert – 2019

Bert è ritenuto il più rivoluzionario degli aggiornamenti di Google, pensato per rispondere a query particolarmente complesse e articolate. Google stesso lo ha annunciato nel suo blog: “Il più grande passo avanti negli ultimi 5 anni e uno dei più grandi nella storia della Search”. Questo algoritmo riesce a comprendere, meglio di quanto facesse Hummingbird, le long tail analizzando l’intero contesto e contemplando le relazioni – e le sfumature – delle parole, piuttosto che analizzare ad una ad una le singole componenti delle frasi. BERT, soprattutto, si pone l’obiettivo di capire cosa significhino le varie preposizioni all’interno delle query di ricerca degli utenti, perché preposizioni diverse indicano intenzioni diverse, che non possono essere comprese se ci si affida all’analisi delle singole parole, senza guardare il significato complessivo della frase, e la sua costruzione sintattica. Ciò è di grandissima utilità per la navigazione dell’utente, che riesce ora ad avere risposte dal motore che prima non riusciva ad avere e rendendo più agevole anche l’utilizzo di dispositivi quali Alexa e Google Home. Per la SEO, tuttavia, renderà più difficile manipolare l’ottimizzazione tramite la forzatura di keywords. Cioè, si passa finalmente ad articoli di qualità che rispettino i criteri della lingua italiana, evitando distorsioni delle frasi per posizionarsi a tutti i costi. Ma prima di Bert si sono susseguiti altri tre Core Update degni di nota:
  • March 2019 Core Update. Un aggiornamento di cui Google ha dato poche informazioni. Infatti in questa occasione Google ha fatto solo sapere che l’aggiornamento non si rivolge a un settore specifico – com’era capitato con Medic Update – e che chiunque avesse subito un calo netto o penalizzazioni, non può far altro che continuare a creare contenuti ottimizzati e di qualità.
  • June 2019 Core Update. Questo update è il primo, nella storia di Google, ad essere stato annunciato prima ancora di essere lanciato. Anche in questo caso l’aggiornamento non ha colpito un settore specifico né i cali di posizione sono stati attribuibili a difetti del sito. L’algoritmo è andato a implementare il modo in cui il motore di ricerca interpreta la SERP e assegna rilevanza ai siti rispetto agli utenti. Sono stati colpiti in particolare siti di notizie mentre i siti sulla salute e la medicina hanno riguadagnato terreno rispetto alle penalizzazioni del 2018.
  • September 2019 Update. Anche questo Update viene annunciato in anticipo e va a implementare la valutazione qualitativa dei domini. Il roll out è durato solo un paio di giorni, alla fine dei quali ne risultano svantaggiati siti di salute e finanza, seguiti da quelli riguardanti news di viaggio e articoli per animali.
Dopo questi tre algoritmi seguirà, a novembre, Google Bert. Alla fine del 2019 risulta evidente che lo sforzo di Google per migliorare la navigazione in rete si sta intensificando. Sembra quasi esserci il tentativo di stabilire un appuntamento trimestrale dei Core Update con tanto di annuncio anticipato dell’aggiornamento. Ma è ancora presto per dirlo. Per tutti questi algoritmi la “cura” rimane sempre quella di continuare a implementare il proprio sito con contenuti di alta qualità e pensati per rispondere ai motivi per cui le ricerche vengono effettuate, il che vuol dire progettare risorse – non solo articoli- l’utilizzo di link autorevoli, continue analisi del sito ed evitare il ricorso a “scorciatoie”.

January 2020 Core Update

Anche con l’anno nuovo Google ha annunciato un nuovo aggiornamento dell’algoritmo, precisamente il 13 gennaio. In questa occasione, analizzando la SERP, si può notare un evidente calo dell’attività.
Le cause del calo non sono state individuate e per rilevare effetti significativi è ancora presto, per chi è stato penalizzato Google ha a disposizione sul blog una serie di domande da porsi per capire se il proprio sito sia a posto. Vediamo insieme quali sono. Contenuto e domande sulla qualità
  • Il contenuto fornisce informazioni, rapporti, ricerche o analisi originali?
  • Il contenuto fornisce una descrizione sostanziale, completa o completa dell’argomento?
  • Il contenuto fornisce analisi approfondite o informazioni interessanti che sono al di là dell’ovvio?
  • Se il contenuto si basa su altre fonti, evita semplicemente di copiare o riscrivere quelle fonti e fornisce invece un valore aggiunto e originalità sostanziali?
  • Il titolo e / o il titolo della pagina forniscono un sommario descrittivo e utile del contenuto?
  • Il titolo e / o il titolo della pagina evitano di essere esagerati o scioccanti in natura?
  • È il tipo di pagina che desideri aggiungere ai segnalibri, condividere con un amico o consigliare?
  • Ti aspetteresti di vedere questo contenuto o a cui fa riferimento una rivista stampata, un’enciclopedia o un libro?
Domande sulla competenza
  • Il contenuto presenta le informazioni in un modo che ti fa desiderare di fidarti di esse, come ad esempio fonti chiare, prove dell’esperienza, sfondo sull’autore o sul sito che le pubblica, ad esempio tramite collegamenti a una pagina dell’autore o Informazioni su un sito pagina?
  • Se effettuassi ricerche sul sito che produceva il contenuto, ti verrebbe l’impressione che sia ben attendibile o ampiamente riconosciuto come un’autorità sul suo argomento?
  • Questo contenuto è stato scritto da un esperto o un appassionato che dimostra chiaramente l’argomento?
  • Il contenuto è privo di errori fattuali facilmente verificabili?
  • Ti sentiresti a tuo agio nel fidarti di questi contenuti per questioni relative ai tuoi soldi o alla tua vita?
Domande di presentazione e produzione
  • Il contenuto è privo di ortografia o problemi stilistici?
  • Il contenuto è stato prodotto bene o sembra sciatto o frettoloso?
  • Il contenuto è prodotto in serie o esternalizzato a un gran numero di creatori o diffuso su una vasta rete di siti, in modo che singole pagine o siti non ricevano la stessa attenzione o cura?
  • Il contenuto contiene un numero eccessivo di annunci che distraggono o interferiscono con il contenuto principale?
  • I contenuti vengono visualizzati bene per i dispositivi mobili se visualizzati su di essi?
Domande comparative
  • Il contenuto fornisce un valore sostanziale rispetto ad altre pagine nei risultati di ricerca?
  • Il contenuto sembra servire gli interessi genuini dei visitatori del sito o sembra esistere solo per qualcuno che cerca di indovinare ciò che potrebbe classificare bene nei motori di ricerca?
Ciò che risulta evidente però è il un nuovo look che Google ha dato alla SERP: la posizione dell’url è diversa e le etichette degli annunci sponsorizzati ora sono nere e in grassetto.
In un primo momento l’url sarebbe stato preceduto dai favicon dei siti, però subito rimossi per la SERP da desktop, ma non da Mobile.

Ricapitolando

Gli sforzi di Google nel corso del decennio appena finito sono stati fenomenali. Il web come lo conosciamo oggi è tale grazie a questo lavoro costante, basato sia su machine learning – permettendoci di parlare (e farci capire alla perfezione) con il motore di ricerca come se fosse una persona-, sia sulla necessità di garantire sempre contenuti di qualità e libertà di espressione. Tutto ciò mantenendo a bada i furbetti della SEO e premiando coloro che hanno capito le intenzioni di Google e le hanno rispettate. Ora non ci resta che aspettare la prossima mossa del Mountain View.

Come capire se il tuo sito è stato penalizzato

Se non si rispettano le linee guida rilasciate da Google, difficilmente il tuo sito potrà sfuggire all’occhio vigile dell’algoritmo. Alcune volte però, la penalizzazione arriva anche se non è meritata. Questo perchè alla fine Google è pur sempre una macchina e nel suo incessante lavoro di analisi su milioni di siti e di parole chiave, quando penalizza o promuove lo fa meccanicamente. Ma come si fa a riconoscere una penalizzazione di Google? Quando si nota un calo delle visite al proprio sito le opzioni possono essere:
  • problemi tecnici che se sono risolvibili permettono di recuperare con poco sforzo
  • penalizzazioni algoritmiche che necessitano alcuni accorgimenti e tempi più o meno lunghi a seconda dei casi
In questa guida ti verrà spiegato come riconoscere e quali strumenti usare per verificare se sai avuto una penalizzazione algoritmica Per capire se c’è penalizzazione dobbiamo andare a dare un’occhiata su Analytics.
Se il sito che registra un calo repentino delle visite o anomalie come nell’immagine qui sopra, sicuramente sarà entrato nel mirino di Google. Su Seo Zoom invece puoi andare a verificare il tipo di penalizzazione, che può essere:
  • diretta, quando il tuo sito ha fatto qualcosa di sbagliato e si verifica una situazione come quella nell’immagine qui sotto.
  • indiretta quando invece un competitor migliora il proprio posizionamento a discapito del tuo sito, registrando un calo che va tra il 10% e il 30% delle visite. Un esempio lo puoi vedere nell’immagine seguente
La situazione potrebbe sembrare grave, ma non bisogna farsi prendere dal panico. In questi casi non si può far finta di niente, bisogna agire. Per capire come muoversi bisogna prima di tutto fare un’analisi della situazione, per capire l’entità del problema di fronte al quale ti trovi. Il nostro approccio prevede una checklist di domande che aiutano a determinare le cause della penalizzazione per poter mettere a punto una strategia che ti aiuti a riguadagnare visibilità.

Pensi che il tuo sito sia stato penalizzato da Google?