La scrittura di contenuti lunghi, approfonditi e pertinenti è un’azione essenziale per il posizionamento di un sito web, ma quando si cade nell’eccesso è possibile riscontrare il problema opposto, ovvero la sovraottimizzazione. Se le pagine web risultano eccessivamente pesanti, con lunghe ripetizioni di parole chiave, il sito rischia di essere penalizzato da Google.

Indice

 

Sono trilioni le ricerche che vengono effettuate ogni anno dagli utenti e l’organico rimane la principale fonte di traffico per i siti web: il traffico SEO è 10 volte superiore di quello dei social media e 5 volte maggiore di quello PPC (fonte: SeoZoom). Ciò denota l’importanza di avere un sito SEO-friendly su tutte le piattaforme utilizzate dagli utenti per cercare l’attività o il prodotto, soprattutto se si considera la competitività delle SERP, ricche di annunci che riducono la visibilità dei link organici. Per ottenere un sito ottimizzato per i motori di ricerca esistono molteplici pratiche: dall’ottimizzazione del sito e del codice HTML alla gestione dei contenuti testuali e dei link in entrata e in uscita, passando per il miglioramento delle performance tecniche come i tempi di caricamento delle pagine e degli elementi visuali al loro interno.

In questa guida ci concentriamo su uno degli elementi più importanti del lavoro SEO, ossia l’ottimizzazione dei contenuti on site. La scrittura di contenuti lunghi, approfonditi e pertinenti è un’azione essenziale per il posizionamento di un sito web, ma quando si cade nell’eccesso è possibile riscontrare il problema opposto, ovvero la sovraottimizzazione. Se le pagine web risultano eccessivamente pesanti, con lunghe ripetizioni di parole chiave, il sito rischia di essere penalizzato da Google. Non esistono regole specifiche a cui fare capo per individuare con esattezza il confine tra ottimizzazione e sovraottimizzazione: è l’esperienza la vera maestra in tal senso, l’unica che permette di entrare a fondo nella comprensione dei motori di ricerca. Per questa ragione, il presente articolo propone l’argomento della sovraottimizzazione in relazione a uno specifico case study, risolto all’interno della nostra azienda.

Il caso

Per uno dei propri clienti più importanti, 2open ha curato la realizzazione di un sito web e contestualmente una campagna di posizionamento SEO. Le lavorazioni SEO si sono svolte nel corso di diversi anni e si è raggiunto un punto tale per cui il sito risultava ben ottimizzato per la maggior parte delle parole chiave d’interesse. Ma è proprio questo graduale ampliamento dei contenuti nel corso degli anni che, a un certo punto, non si è rivelato più vincente.

Una pagina troppo ricca

Nel corso degli anni, il sito ha acquisito un’ottima visibilità online, affermandosi come la principale realtà di riferimento nel settore in cui opera. Le parole chiave selezionate hanno ottenuto degli eccellenti posizionamenti, ma si è verificato un paradosso: da un certo momento in poi, la parola chiave più strategica, nonché quella che più delle altre identificava il business, ha iniziato a perdere posizioni su Google. Dopo varie oscillazioni, la keyword si è stabilizzata nella terza pagina dei risultati di ricerca e lì è rimasta per diversi mesi.

Inizialmente abbiamo continuato a utilizzare il metodo usuale per far crescere le keyword: abbiamo lavorato ulteriormente la pagina web dedicata, accrescendo la mole di testo con la relativa keyword density e proseguendo con l’attività di link building, ma i motori di ricerca sembravano non premiare il sito web per quella keyword. Una volta esaurite tutte le possibili strategie di posizionamento, è stata valutata l’ipotesi della sovraottimizzazione. La pagina, a causa dei numerosi interventi, era diventata estremamente lunga e articolata, ricca di paragrafi che, per necessità pratiche, deviavano parzialmente dall’argomento principale. A questo punto la strategia ha previsto i seguenti step. 

Studio dei competitor

L’analisi dei siti web presenti nella prima pagina delle SERP per la keyword d’interesse ha rivelato che le pagine dei competitor risultavano abbastanza basiche e limitate ad elenchi di informazioni essenziali. L'intuizione è arrivata di conseguenza: bisognava individuare una soluzione alternativa rispetto all'aggiornamento dei contenuti per renderli ancora più lunghi e approfonditi.

Primo test di contrasto alla sovraottimizzazione

Sono stati individuati i paragrafi meno pertinenti rispetto all’intento di ricerca legato alla keyword e sono stati eliminati. Contestualmente, sono state revisionate anche le immagini, presenti in grande quantità all’interno della pagina e tutte con lo stesso tag alt, riportante la keyword. Quindi sono stati variati parzialmente i tag alt delle immagini, per evitare troppe ripetizioni.

Monitoraggio delle SERP

Questa fase è molto delicata, perché Google può impiegare anche intere settimane prima di recepire il cambiamento di una pagina e aggiornare il punteggio SEO assegnatole. Per questa ragione, non si può attendere la prima variazione di posizione nelle SERP per cantare vittoria: succede spesso che la pagina sia oggetto di oscillazioni anche molto ampie, comparendo anche solo per pochi giorni in prima pagina o in fondo alle SERP, prima di assestarsi. Così è stato anche in questo caso: per la keyword di riferimento, il sito web ha oscillato nel giro di qualche giorno fra la prima pagina e la settima, ottava o nona, infine si è stabilizzato nella seconda pagina.

Secondo test di contrasto alla sovraottimizzazione

Nel primo test era stata effettuata una moderata riduzione dei contenuti, proprio perché si trattava di un test: sarebbe stato rischioso stravolgere la pagina, perché se Google non avesse visto di buon occhio la modifica, avrebbe potuto penalizzarla ancora di più nei risultati di ricerca. Una volta verificato che la keyword aveva guadagnato posizioni, passando dalla terza alla seconda pagina delle SERP, si è compreso che probabilmente si era davvero davanti a un problema di sovraottimizzazione. Pertanto, il secondo test è stato più incisivo: nella pagina sono state lasciate soltanto le informazioni strettamente necessarie e lo stile è stato rivisto in senso maggiormente diretto e didascalico, riducendo le proposizioni troppo articolate a favore di risposte nette e chiare.

Risultati

Anche a seguito del secondo test, la pagina ha subìto diverse oscillazioni nelle SERP, anche più prolungate temporalmente rispetto alla prima volta. Infine, il sito web si è assestato fra la quarta e la quinta posizione della prima pagina dei risultati per la parola chiave di riferimento e il risultato è rimasto stabile nel tempo.

Pagine troppo simili

Contestualmente al lavoro sopracitato relativo alla keyword più strategica per il cliente, sono state portate avanti altre attività sulle restanti pagine del sito. Avere un gran numero di pagine molto specifiche è un buon modo per aumentare il traffico su un sito web, intercettando il maggior numero di utenti possibile grazie alla realizzazione di landing page sulla falsariga delle long tail keyword di interesse. Ma quando si entra molto nello specifico, creando pagine su argomenti simili, può accadere che Google non riesca a individuare le differenze tra le due e confonda le keyword da associare all’una o all’altra. Il risultato di questa operazione – che in termini tecnici viene chiamata cannibalizzazione – è che nessuna delle due pagine riesce a ottenere risultati di posizionamento brillanti e duraturi. Per questa ragione, è importante trovare un equilibrio fra la redazione di contenuti specifici e il mantenimento di una struttura del sito chiara e pulita.

Nel caso specifico, è emerso che effettivamente alcune keyword non venivano associate da Google alla pagina di riferimento, ma ad altre molto simili. Si sono delineate due casistiche:

  • entrambe le pagine erano posizionate, anche se per le keyword sbagliate;

  • una delle due pagine “cannibalizzava” l’altra, che invece non si posizionava per nessuna keyword.

Nella prima ipotesi, le due pagine sono state mantenute sul sito, ma sono state differenziate nei contenuti per evitare sovrapposizioni fra le keyword. Nel secondo caso, si è optato per l’eliminazione della pagina non posizionata, ma invece di cancellarla è stata reindirizzata verso l’URL principale tramite un’azione di redirect 301. Questa azione si rende necessaria per trasferire il traffico o i bot dei motori di ricerca da un URL a un altro e quindi evitare che chi entri nella pagina rimossa visualizzi un errore; senza contare che se un backlink punta a una pagina 404 non verrà conteggiato dall’algoritmo e andrà quindi sprecato.

Un lavoro di questo tipo è stato svolto per varie pagine del sito. In questo modo Google ha iniziato a riconoscere le pagine associate alle keyword e queste hanno iniziato a posizionarsi, con conseguente aumento del traffico sul sito web.

Conclusioni

Case studies come quello illustrato in questo articolo testimoniano come anche per la SEO valga la regola dei nostri antenati latini per la quale esiste una misura nelle cose. La SEO è in costante evoluzione sulla scia delle novità lanciate da Google e le norme si aggiornano: se un tempo l’ottimizzazione massiccia dei contenuti era una pratica largamente diffusa, oggi bisogna fare maggiore attenzione a non incappare nella sovraottimizzazione. A volte, infatti, i contenuti semplici e concisi hanno la meglio; naturalmente dipende molto dal settore di riferimento e per questo motivo un’analisi preliminare del contesto è imprescindibile.

Concludiamo con una lista dei principali comportamenti penalizzanti nella SEO:

  • keyword stuffing. È l’abuso delle parole chiave, che vengono ripetute in maniera innaturale e illogica. Un esempio: la ripetizione continua di una parola chiave nei metatag restituisce un testo costruito e artefatto, che Google potrebbe considerare semplicemente spam;

  • utilizzo di backlink e anchor text non naturali. Sono assolutamente da evitare anchor text troppo commerciali, come ad esempio “elettricista Roma prezzi”, a favore di link naturali, pertinenti e contestualizzati;

  • sovraottimizzazione dei link interni, che si verifica quando un sito ha tanti link interni verso un’unica pagina, con anchor text con la stessa keyword;

  • contenuti automatici ed eccessivamente ottimizzati, che ripetono gli stessi concetti con parole diverse e quindi non risultano realmente utili per l’utente.