La penalizzazione di un sito web è un episodio grave, che un'agenzia web che svolge azioni di marketing digitale deve saper prendere di petto con grande esperienza e capacità di analisi. Questo articolo racconta la storia delle penalizzazioni dagli anni 2000 ad oggi, descrivendo i più recenti aggiornamenti dei sistemi di analisi qualitativa di Google e mappando i casi di penalizzazione più gravi tra quelli esistenti.

La maggior parte dei siti web traggono profitto dalla visibilità che conquistano in rete, sviluppando spesso un business economico proporzionale alla capacità di attrarre visitatori dai motori di ricerca e dalle fonti disponibili. I motori di ricerca sono sempre più utilizzati per la consultazione di informazioni e di conseguenza distribuiscono un numero sempre maggiore di visitatori ai siti web che si attestano nei risultati delle ricerche.

Da cosa dipende la visibilità di un sito web?

Comprendere i meccanismi che sono alla base della presenza più o meno forte di un sito web sui motori di ricerca è importante per comprendere anche la meccanica della penalizzazione.

I motori di ricerca traggono profitto grazie alle inserzioni pubblicitarie, che non potrebbero esistere senza un'audience cospicua. L'obiettivo dei motori di ricerca è quindi quello di costruirsi una "clientela" ampia e fidelizzata per invitare gli investitori pubblicitari ad acquistare spazi.

Alla base del successo di un qualsiasi motore di ricerca, vi è quindi la qualità dei risultati offerti agli utenti in cerca di informazioni. Un utente soddisfatto del sistema di ricerca tornerà ad utilizzare lo stesso motore in futuro.

La qualità dei risultati offerti è la condizione necessaria al successo di Google, Bing, Yahoo ecc... 

I motori di ricerca si sono organizzati (e perfezionati negli anni) per assegnare un punteggio qualitativo a ciascun sito web della rete internet. Tale punteggio è utilizzato per decidere quali siti mostrare nelle prime posizioni, o in fondo alle liste. 

Per fare emergere i siti web di qualità sono nati anche i famosi "Team anti Spam", i dipartimenti di Google & Co. per l'analisi dei siti web "meritevoli" e "non meritevoli". Il personale che vi lavora è dedito al costante perfezionamento dei sistemi di calcolo dei punteggi, rilasciando ogni anno nuove funzioni automatiche capaci di identificare sempre meglio i siti interessanti da quelli di basso profilo.

Per convincere i proprietari dei siti web a migliorare la qualità dei propri siti, alcuni motori di ricerca (Google in primis) hanno dato via ad una comunicazione diretta con i gestori dei siti (o i loro realizzatori), fornendo le norme qualitative da rispettare nella costruzione e nella gestione di un progetto web.

Si tratta delle famose Istruzioni per Webmasters.

Le linee guida subiscono periodici aggiornamenti e sono oggi considerate la "bibbia" a cui fa riferimento la folta schiera di webmasters desiderosi di mettere in pratica ogni strategia possibile per ingraziarsi i motori di ricerca e tentare di conquistare la vetta dei risultati.

Oltre al rispetto delle norme di qualità, altri fattori contribuiscono alla crescita di un sito sui risultati di ricerca. Gli esperti del Marketing digitale hanno negli anni individuato tali criteri, non dichiarati ufficialmente dai motori di ricerca.

In un post di Matt Cutts (responsabile della qualità di Google) sul blog ufficiale di Google, è stato affermato che il famoso motore di ricerca utilizza oltre 200 parametri nell'assegnazione di un punteggio di qualità a ciascuna pagina web della rete (fonte).

Tali parametri sono riferiti sia alla qualità dei contenuti e della struttura tecnica, che al rispetto dei visitatori che il sito accoglie, al punto in cui oggi, dopo oltre 15 anni di attività, Google ha deciso di escludere dai risultati tutti i siti web che ospitano malware (simil-virus), proprio per fornire un servizio qualitativo completo.

Per il successo di un buon sito web è quindi fondamentale riuscire ad incidere su tutti i parametri noti, sia quelli dichiarati nelle guidelines Google, che quelli "catturati" negli anni dalle agenzie SEO di provata esperienza.

Va detto infine che non tutte le operazioni da svolgere per raggiungere la popolarità sui motori sono da compiere sulle pagine del proprio sito web. La Link Popularity ad esempio, che si consegue lavorando all'esterno del sito web (costruendo link al proprio sito web), incide in alcuni casi per oltre il 90% della visibilità acquisita da un sito, spesso in barba a molti dei parametri qualitativi dettati dai motori.

Che si intende quindi per "sito web penalizzato"?

Si dice "penalizzato" un sito web che, una volta acquisita una visibilità X per determinati termini di ricerca, perde posizioni sui motori di ricerca con la conseguente diminuzione di visite giornaliere, a volte con un calo di traffico importante (in alcuni casi la perdità del traffico in entrata dai motori di ricerca è totale).

I meno esperti gridano alla penalizzazione ogni volta che si perde qualche posizione nelle classifiche. In realtà, in molti casi, un sito web arretra semplicemente perchè altri siti web salgono, con il risultato che si vede il proprio sito web scendere anche mantenendo il punteggio inizialmente assegnato.

Le penalizzazioni di norma producono un effetto ben peggiore della perdita di qualche posizione. Le pagine web penalizzate scendono spesso anche di decine e decine di posizioni da un giorno all'altro.

Le penalizzazioni da parte di Google sono note già dai primi anni 2000, come risposta del motore ai tentativi dei realizzatori di siti web di "forzare le classifiche".

I webmaster si accorsero infatti che era sufficiente aggiungere del testo invisibile (ricco di parole chiave) in un sito web perché Google lo indicizzasse, al punto in cui, per gonfiare le pagine di testi senza peggiorare la qualità estetica del sito web, tali testi aggiuntivi venivano inseriti con carattere nero su fondo nero (o comunque con il colore dello sfondo) per "ingannare" i motori di ricerca.

L'effetto voluto, ed ottenuto, era portare tale pagina a crescere sui risultati di ricerca per tutte le parole celate nel testo.

Va detto che in quegli anni i criteri di valutazione di cui Google disponeva non erano sopraffini ed era estremamente semplice aggirarli per portare un sito in prima pagina.

Anno dopo anno, ad ogni miglioramento delle linee guida per webmaster e ad ogni affinamento dei criteri di valutazione della qualità, comparivano nuove strategie di SEO malevolo (il cosiddetto Black Hat SEO), in pieno stile "fatta la legge, trovato l'inganno".

I webmaster riuscivano a produrre aumenti di visibilità in un mondo internet sempre più frequentato da cercatori di notizie, generando occasioni di business importanti (2005-2012) grazie a strategie di posizionamento scorrette.

L'anno 2012 ha visto le prime introduzioni di sistemi affinati di calcolo della qualità, con l'introduzione di penalizzazioni amare che hanno rimesso a posto molte cose, in una rete falsata dall'operato dei tecnici smaliziati. 

Questa eterna lotta tra motori di ricerca, impegnati a produrre qualità nei risultati forniti, e agenzie web, eternamente impegnate nella ricerca di falle del sistema di valutazione automatizzata, sembra sia volta finalmente al termine.

Da qualche anno a questa parte infatti, Google e gli altri motori di ricerca si sono organizzati per definire un sistema di scrematura dei siti, per cestinare gli illeggittimi occupanti delle prime posizioni, e ripristinare una classifica sulla base dell'effettivo merito.

Come incide una penalizzazione sulle posizioni?

Fino al 2010, esistevano due tipologie di penalizzazione, la famosa -30 e la -100 che portavano il sito web presente nella 1° posizione, alla 31° o alla 101° posizione. Google applicava la -30 per casi minori e la -100 per i casi di maggiore colpa.

A partire dal 2011, i sistemi sono stati affinati per differenziare la penalizzazione all'interno del sito web, assegnando un punteggio negativo a ciascuna pagina, portando così i siti a scomparire a volte anche in modo parziale.

Nei casi peggiori è stata mantenuta l'opzione di rimozione completa dell'intero sito dai risultati di ricerca.

Contestualmente sono state introdotte nuove linee guida, principalmente incentrate sul plagio (copia di contenuti altrui) e sono stati rafforzati gli algoritmi di calcolo con alcune funzioni capaci di individuare i portali con contenuti testuali non originali (approfondisci come segnalare a Google il legittimo proprietario di un contenuto copiato da terzi)

L'effetto nel 2012 è stato devastante. Interi portali hanno subito la progressiva scomparsa dai motori di ricerca, da un mese all'altro.

Per citarne due, Liquida e Wikio, due progetti di aggregazione di contenuti (copiati quindi da siti web esterni) che negli anni avevano conquistato una visibilità importante per un numero elevatissimo di ricerche organiche, hanno subito una riduzione al importante del traffico originale (stimato dagli analisti oltre il 90%) e che per mesi ha rappresentato il caso di studio più eclatante degli effetti del potenziamento dei sistemi di qualità di Google (Update Panda).

Le tipologie di penalizzazione applicate da Google

Prima di analizzare le ragioni della penalizzazione, va detto che essa può insorgere in due modalità differenti:

  1. revisione manuale del sito web da parte di un editor di Google (penalizzazione manuale);
  2. revisione automatizzata del sito web da parte dei sistemi di calcolo di Google (Penguin, Panda ecc...).

Nel primo caso (1), una volta individuata la penalizzazione e risolta la causa che l'ha generata, è necessario inviare una richiesta di riconsiderazione (reconsideration request), che sarà esaminata da un tecnico di Google e che potrà condurre ad una reinclusione, ripristinando lo status precedente al problema, o la permanenza dello status di sito penalizzato.

Nel secondo caso (2), una volta rimosso il problema tecnico, è sufficiente attendere qualche settimana/mese affinché il sistema di calcolo ricontrolli tutti i requisiti di qualità del sito web, rielaborando il punteggio complessivo e determinando il ritorno del sito alle posizioni originarie, o l'eventuale permanenza nello status di penalità, qualora il motivio della riduzione di punteggio fosse confermato.

Entriamo ora nel merito dei motivi per cui un sito web può venire penalizzato da Google.

1) La penalizzazione da "Pure spam" (spam puro)

Si tratta di una delle penalizzazioni più dure, che di norma afflige l'intero sito web, producendo la completa rimozione dagli indici di Google. Matt Cutts spiega nel seguente video quali operazioni conducono a questo genere di penalty; si va dalle tecniche "blackhat" (creazione di centinaia di link di bassa qualità, aumento sconsiderato della densità di parole chiave interno al testo, sovra ottimizzazione dei meta-dati ecc...) a strategie di cloaking e operazioni che portano il sito web ad essere chiaramente poco usabile dagli utenti finali e di scarsa qualità oggettiva, al punto in cui Cutts dichiara che raramente tali siti web hanno una porzione di contenuti da salvare, ed è questo il motivo per cui vengono penalizzati "site wide", ossia per tutta l'ampiezza del sito.

Sono spesso progetti web che nascono con il chiaro obiettivo di fare grandi numeri dal punto di vista delle visite e guadagnare molto traffico nell'immediato grazie a piazzamenti nelle prime pagine dei risultati, e che non puntano invece alla longevità del progetto web.

A volte capita, nella scelta del dominio per il proprio progetto, di acquistare un dominio oggetto di precedenti penalizzazioni per "Pure Spam". In tali casi, una volta realizzata una struttura web conforme alle norme di qualità sul dominio penalizzato, sarà sufficiente scrivere a Google per richiedere la riconsiderazione del dominio, spiegando che si tratta di un dominio acquistato da terzi e il cui contenuto è stato interamente rivisitato a seguito della compravendita.

Una buona norma, nel caso di acquisto di domini a richio è quella di analizzare con tool specifici (majesticSEO o archive.org) la storia del dominio ed i contenuti su di esso ospitati. Qualora il dominio che si intende acquistare presentasse caratteristiche in linea con la logica "Pure Spam" si potrà decidere di optare per un altro dominio o acquistarlo, installare Webmaster Tools e verificare la presenza di un'azione manuale da rimuovere tramite la richiesta di riconsiderazione.

2) Contenuti con poco valore aggiunto ("Thin Content")

Negli anni le agenzie SEO, forti della loro esperienza (e della permissività di Google, oramai ristretta ai minimi), hanno portato alla proliferazione di siti web realizzati nel tentativo di aumentare la visibilità di centinaia di pagine web in un colpo solo, con contenuti spesso duplicati in modo automatico che producono pagine con una differenza minima dei testi (spesso di una sola parola chiave) al fine di acquisire visitatori per un'ampia lista di keywords.

E' l'esempio dei siti web che propongono pagine tutte identiche, ottimizzate per "ristoranti sushi + città", in cui ciascuna pagina si differenzia dalle altre solo per la città citata nel testo, producendo una mappa di URL come la seguente:

dominio.com/ristoranti-sushi-roma.html
dominio.com/ristoranti-sushi-milano.html
dominio.com/ristoranti-sushi-viterbo.html
dominio.com/ristoranti-sushi-... 

con contenuti che non aggiungono valore alla rete internet, e che, nella maggior parte dei casi, offrono pagine web di scarso valore anche commerciale (spesso non mostrano importanti liste di ristoranti sushi per ciascuna città, offrendo in alcuni casi anche pagine senza ristoranti).

Navigando queste pagine si avrà l'impressione di essere sempre sulla stessa. In questi casi il rischio di penalizzazione per contenuti striminziti "Thin Content" è dietro l'angolo. Google fornisce informazioni chiare a riguardo su come sviluppare strategie web di affiliazione, senza incorrere in penalità di questo genere. Il seguente video di Matt Cutts (responsabile della qualità e del Team Anti Spam di Google) spiega come non incorrere in questo genere di penalizzazioni e come strutturare un sito web che realmente ruoti intorno all'affiliazione, necessitando realmente di pagine web dedicate ad ogni città per la recensione dei migliori ristoranti di sushi.

Come in tutti i casi di penalizzazione algoritmica, anche il Thin Content prevede il recupero della visibilità del sito web a seguito dell'originalizzazione dei contenuti e dell'aggiunta di valore alla recensione di un servizio/prodotto/azienda.

Questa tipologia di penalizzazione può riscontrarsi solo sulle pagine web incriminate, anche se in alcuni casi si evidenziano perdite importanti di posizionamento organico su tutta la struttura del sito web.

3) Testo nascosto e "Keyword Stuffing" (Overdose da Keyword) 

Come si fa a nascondere del testo? E' semplicisimo: è sufficiente scrivere con il colore bianco su sfondo bianco per aggiungere molto testo non visibile agli utenti ma visibile ai motori di ricerca. Questa tecnica, molto in voga negli anni 2000-2001, è una delle prime tattiche di blackhat SEO (SEO dal cappello nero, a ricordare il cappello delle streghe e quindi la magia nera), ed è una tecnica perseguita già da molti anni da Google, che risponde con forti penalizzazioni ai siti che offrono contenuti nascosti con il chiaro tentativo di ingannare i motori di ricerca. 

In questo caso, la richiesta di riconsiderazione del sito web dovrà essere inoltrata solo dopo la rimozione totale delle malefatte dal sito, e dovrà essere redatta in modo convincente, per riguadagnare la fiducia del Team Antispam nazionale di Google, che su questo genere di penalizzazioni non sempre porta ad esiti positivi di reinclusione, proprio perché la malafede, in caso di testi nascosti, è indubbia. 

Nei casi in cui siamo stati contattati da aziende che avevano subito questo genere di penalizzazione, abbiamo preferito scrivere noi direttamente a Google cercando di dimosrtare che il Cliente non aveva idea della gravità dei fatti commessi insieme al proprio webmaster, e che, in qualità di nuova agenzia web di riferimento per il Cliente, avremmo supervisionato la qualità della struttura tecnica, assicurando i revisori della richiesta che al Cliente è stata spiegata la gravità delle azioni svolte. 

Rimuovendo completamente ogni assetto compromettente, è sempre stato possibile ottenere la reinclusione del sito negli indici di Google.

In questo genere di penalizzaizone rientra anche il caso del Keyword Stuffing, ossia la ripetizione eccessiva di parole chiave nei contenuti della pagina (sia nel testo visibile che nella parte eventuale invisibile).

Anche in questo caso Matt Cutts fornisce le linee guida ufficiali Google.

4) Link innaturali in uscita dal sito web

Si tratta di una penalizzazione che viene segnalata nel Webmaster Tool di Google, e con cui il motore di ricerca avvisa il proprietario della presenza di link innaturali e di basso valore verso siti esterni. I link sono presi seriamente in considerazione da parte dei motori di ricerca, poiché costituiscono la base della crescita del posizionamento organico di un dominio (la scalata delle classifiche). Google interpreta un link come un voto, espresso dal sito linkante verso il sito linkato. Del resto, se il sito A contiene un link al sito B, è verosimile dire che il sito B offra informazioni o servizi di qualità.

Inserire un link significa quindi suggerire ai propri utenti di visitarlo, e suggerire ai motori di ricerca che il sito linkato offre contenuti interessanti. Linkare siti web penalizzati, siti di spam, siti che per motivi di contenuto violento o non etico sono stati già penalizzati, di riflesso penalizzerà il sito che ospita tale link.

Molti blogger ricevono penalizzazioni importanti quando cadono preda delle agenzie SEO di pochi scrupoli, che acquistano link per conto dei propri Clienti retribuendo i blogger. 

I malcapitati offrono il proprio sito web per ospitare, dietro un piccolo compenso, un link a progetti web che l'agenzia SEO sta tentando di posizionare, dietro lauto compenso. Qualora il sito linkato nel tempo subisse una penalizzazione o fosse ritenunto da Google di scarsa qualità (o peggio ancora pericoloso per gli utenti) il proprietario del blog, ignaro delle dinamiche di penalizzazione, si troverà a fare i conti con la perdita di visibilità del suo sito, costruita con anni di sacrifici. In questi casi, difficilmente il proprietario del sito riuscirà a comprendere il motivo della scomparsa del proprio sito.

Ancora una volta, seguendo i consigli di Google, che dichiara la compravendita di link come "violazione estrema delle linee guida", e linkando esclusivamente siti web che si ritiene abbiano un valore aggiunto, non si rischierà questo genere di penalizzazione.

Registrarsi al servizio Webmaster Tools è un'operazione gratuita e semplice, che consentirà al proprietario del sito di ricevere notifiche esplicite sulla presenza di link in uscita non naturali, per provvedere alla rimozione e ripristinare lo stato di salute del proprio sito.

La soluzione fornita da Matt Cutts nel seguente video per questo genere di penalizzazione è quella di rimuovere il link. Molti esperti SEO consigliano nei propri blog di trasformare tali link in rel="no follow". 

Personalmente sconsiglio tale approccio poiché, indipendentemente dal fatto che il "no follow" indicherà a Google che tale link non deve generare punteggio al sito linkato, il sito linkante continuerà a mantenere un link verso una risorsa web di bassa qualità, continuando a suggerire ai lettori di cliccare per approdare al sito penalizzato o di scarsa qualità, e lo faranno poiché il tag "no follow" (che consiglia di "non seguire" il link) sarà loro invisibile.

5) Link innaturali verso il proprio sito web

Qui si affronta una delle questioni più scottanti del mondo SEO e del Web Marketing. Si affronta una delle logiche di posizionamento sui motori da sempre più impiegate tra gli addetti ai lavori.

E' un concetto consolidato che aggiungere un link da un sito esterno verso il proprio, aumenta il punteggio (e quindi la posizione nei risultati di ricerca), al punto in cui le agenzie SEO producono ogni anno migliaia di link artificiali per soddisfare i propri Clienti.

Spesso capita che nella realizzazione di una fitta rete di link, l'agenzia scelga siti web di scarso valore, siti web penalizzati per violazione delle norme di qualità (scambio link, vendita di link ecc...).

In questi casi si incappa nella penalizzazione manuale, con avviso nel Webmaster Tool. La procedura di bonifica prevede la rimozione di tutti i link innaturali segnalati e successivamente la richiesta di riconsiderazione, che andrà inviata a Google fornendo maggiori dettagli possibili sulle motivazioni per cui tali link sono stati prodotti, a dimostrazione della buona fede del proprietario del sito web nel dichiarare il vero.

Dichiarare che un'agenzia SEO ha svolto attività di posizionamento può essere una valida informazione da fornire ai revisori di Google, portandoli a fidarsi della promessa che non si darà seguito ad attività di costruzione di link innaturali o artificiosi.

Questo tipo di penalizzazione è uno dei più lunghi da bonificare poiché si dovranno contattare i siti web linkanti richiedendo la rimozione dei link (in questo caso si può anche inoltrare la richiesta di applicazione del tag rel="no follow" al proprietario del sito linkante, perché non sussistono i motivi di cui al punto precedente per non farlo). Qualora fosse impossibile rimuovere un link manualmente, è possibile utilizzare la funzione, presente nel Webmaster Tools "Disavow backlinks", descritta qui. Questa funzione serve a segnalare a Google che non si è riusciti a rimuovere un link, e chiede al contempo la rimozione di tale link dal calcolo del punteggio del sito linkato.

6) User generated spam content (contenuti spam generati dagli utenti)

E' il caso maggiormente applicato ai forum lasciati allo sbando, in cui gli utenti (o spesso i robot automatici noti come "BOT") si registrano al sito ed inviano commenti di chiara natura spam, con l'obiettivo di acquisire link per siti che prima o poi verranno esclusi dagli indici con la penalizzazionei di cui al punto 1 (Pure Spam).

Di seguito riportiamo un esempio di post (forum) generato da un BOT automatizzato e che, se ripetuto in più porzioni dello stesso e non moderato o non rimosso dagli amministratori in tempi rapidi, porterà il forum ad essere penalizzato per "User generated spam".

Esempio di contenuti spam che possono indurre ad una penalizzazione da parte di Google per 

La stessa dinamica affligge anche i blog in cui non è attivo il filtro di moderazione commenti, e che pubblicano i commenti degli utenti senza un controllo preventivo (moderazione) da parte degli amministratori. Questo genere di penalizzazioni possono essere rimosse facilmente senza troppo sforzo, migliorando la qualità del sito e l'esperienza degli utenti che lo frequentano. Possedere un sito web ricco di contenuti spam riduce infatti la qualità della navigazione e l'utilità dello stesso, indipendentemente dal parere di Google ed è bene porvi rimedio indipendentemente dal rischio di subire una penalizzazione.

Mentre per i blog è molto più semplice attivare la moderazione dei commenti preventiva (pubblicando manualmente i commenti inseriti dagli utenti e cestinando quelli ritenuti spam), per i forum la questione è differente, poiché gli utenti devono poter interagire rapidamente tra loro e non sarebbe possibile tenere in standby i messaggi in attesa della revisione di un moderatore.

Anche in questo caso, nella richiesta di riconsiderazione da inviare a Google a seguito della bonifica, sarà necessario convincere il Team Anti Spam del fatto che è stato posto un rimedio forte al problema e che non si verificherà più quanto accaduto.

7) Impact links: differente caso di link innaturali verso il sito

Si tratta di un caso molto raro. Matt Cutts ricorda che tale penalizzazione si applica di media a meno di 10 siti web al giorno in tutto il mond. E' il caso di un sito web autorevole, di alta qualità, che però riceve dei link estremamente innaturali al punto in cui Google segnala, tramite il Webmaster Tool, l'anomalia riscontrata.

Come spiega Cutts, in molti casi vengono distribuiti in rete link tramite widget, infografiche, o altri sistemi di di produzione di link massivi e/o con anchor text sempre identici. Tali backlink non saranno in alcun modo valorizzati da Google, perdendo eventuali posizioni nei risultati di ricerca acquisite nel tempo, e allo stesso tempo, Google invierà tramite il Webmaster Tool la segnalazione per invitare alla rimozione di tale strategia di costruzione di link ripetuti. 

Anche in questo caso, qualora fosse impossibile rimuovere il link, l'utilizzo del Disavow Tool rappresenta la soluzione al problema, prima dell'invio di richiesta di riconsiderazione utile ad ottenere il benestare di Google e la risoluzione della penalizzazione applicata.

Si tratta a tutti gli effetti di un sottoinsieme della penalizzazione dei link innaturali al sito di cui al punto 5.