Molti l’aspettavano, ma quando è arrivato il 16 Ottobre scorso ha scatenato un putiferio, basta dare un’occhiata alle SERP per avere un’idea, ma come ogni buon strumento il Disavow Tool, o come lo chiamiamo in Italia Rinnega Link, deve essere usato bene e nei casi giusti.
Su questo articolo riporto le Case History di 2 siti che avevano ricevuto Penalizzazioni differenti: un sito con una penalizzazione manuale, ma a mio parere anche “coccolato†da Panda e Penguin, un altro colpito solo da Penguin.
Primo Sito Analizzato (molto problematico): online dal 2003, circa 10.000 link in entrata totali, tema turistico locale, ottima indicizzazione, molti contenuti, molti link naturali, attività di link building passata abbastanza sporca e pesante, soprattutto su determinate aree tematiche Hotel + Località , BB + Località ecc…
Inoltre il sito aveva già subito in passato una penalizzazione su una pagina, qui un post dedicato, e in più nell’anno precedente c’era stato un cambio di CMS che aveva portato non pochi problemi. Questo è quello che segnala Panguin (premessa, essendo turistico il sito ha i picchi di traffico da Marzo a Settembre, gli altri mesi praticamente è in letargo):
Nel mese di Aprile, con i dati di visite in ascesa, c’è un calo repentino, spariscono le Key principali e perdono diverse posizioni tutte le key secondarie, sparisce la long tail. Risultato: il sito non si riprenderà per tutta la stagione (con immensa gioia del cliente, che farà un bell’investimento in PPC)!
Segnalo anche uno strano effetto collaterale di questa penalizzazione, Google torna a mostrare negli snippet delle SERP le url del vecchio CMS, già da mesi (9 per la precisione) correttamente reindirizzate con 301, facendo sparire gradualmente le nuove. Anche bloccando le vecchie URL con robots, Google le faceva sparire ma non le sostituiva con le nuove, problema che si è risolto solo con l’uscita dalla penalizzazione.
Comincia il periodo di analisi on e off site. Scopro che il cambio di CMS ha portato alla creazione di centinaia di pagine duplicate (ha agito il Filtro Antiduplicazione? Panda?…ancora troppo pochi dati per capire!). Risolvo in breve tempo, elimino qualche link spinto (tipo blogroll) o facente parte di un mini network del cliente e in data 10 Maggio faccio la prima richiesta di reinclusione, alla quale risponde solertemente Google con un bel   Reconsideration request for http://www.xxxxxxx/: Site violates Google’s quality guidelines
Se risponde così allora c’è una sorta di penalizzazione manuale da parte di Google. Comincia un’analisi approfondita dei link back, utilizzo WMT, Majestic Seo e Ahrefs (non mi faccio mancare niente!).
Inizio a selezionare i link, tanti da siti di altissima qualità , ma ce ne sono anche un bel numero da siti penosi, indecenti, sospetti e spammosi (Article Marketing su siti di scarsissima qualità , scambio link in pagine link con altri 100 siti, link nei footer, tutti con Anchor spinto), passo una lista bella corposa al cliente, che incarica una ragazza di contattare tutti i siti segnalati e richiedere/controllare la rimozione dei link.
La situazione a metà giugno è la seguente: moltissimi link sono stati rimossi, qualcuno non risponde alla richiesta, altri temporeggiano, qualcuno addirittura chiede un nuovo pagamento per la rimozione (!).
Provo allora a fare una nuova richiesta di reinclusione, segnalando tra l’altro i siti contattati che però non hanno risposto o che non vogliono rimuovere il link, prostrandomi (virtualmente) a Google…
Alla fine Google vuole proprio questo, che ci prostriamo, se è vero che conosce i link spammosi, li avrebbe pure potuti ignorare, invece la penalizzazione ha scopi “rieducativi“!
Ecco dopo soli 4 giorni (siamo al 26 giugno) la nuova risposta: Reconsideration request for http://www.xxxxxxx/: Site violates Google’s quality guidelines …in pratica la fotocopia della risposta precedente! Bene, ricominciamo…
Incrocio ancora tutti i dati degli strumenti, comincio a selezionare man mano i link con minore qualità , arrivo a ripulire altri 3.000 link (rimangono sul groppone diversi link per i quali i rispettivi webmaster non rispondono o ritardano…), do una controllata generale alla struttura del sito che non dà nessun problema e indovinate? Faccio una nuova Richiesta di Reinclusione in data 12 Luglio. La risposta arriva il 16: Reconsideration request for http://www.xxxxxxx/: Site violates Google’s quality guidelines (stesse identiche indicazioni delle comunicazioni precedenti)…perfetto, altra batosta!
Il 23 Luglio (data in cui Google ha bombarbato di comunicazioni molti utenti) mi trovo 2 nuove comunicazioni identiche nel WMT,  http://www.xxxxxxxx/: Unnatural inbound links , come se non avessi ancora capito il problema link :-).
Ecco cosa dice di bello questa nuova comunicazione:
Dopo diverse mie prove di riconsiderazione, ora è arrivato anche l’avviso (certezza che il sito è stato colpito anche da una penalizzazione manuale) … quindi ulteriore scrematura dei link in entrata. Tolgo ulteriori link sui siti analizzati e ritenuti poco idonei, scopro anche diversi link tipo questo <a href=â€http://ddddddâ€></a> (senza anchor), che erano frutto di un vecchio widget che il cliente negli anni precedenti aveva usato, ma che ora è in disuso. Per questo widget i webmaster erano già stati avvertiti e in molti casi lo avevano rimosso in malo modo, cancellando da editor e lasciando il link nascosto nell’html. A tal proposito segnalo una breve discussione su Twitter di Piersante Panegel https://twitter.com/ppiersante/status/259301100216283136 , che dice la sua al riguardo 🙂
Finita l’ulteriore scrematura, tutti i link rimasti sono quelli spontanei, quelli di qualità e quasi 1000 link (compresi sitewide) provenienti da siti in disuso o in cui i webmaster non rispondono (anche contattandoli usando i dati whois). Decido di fare l’ultima richiesta di reinclusione, spiegando i motivi per cui quei link pessimi sono ancora online, aggiungendo a fondo richiesta l’elenco dei siti.
Faccio richiesta il 12 Agosto (non era meglio andare al mare?), Google risponde il 20 Agosto… indovinate come?
Ebbene si, finalmente mi ha risposto Reconsideration request for http://www.xxxxxxx/: Site violates Google’s quality guidelines :-), 4 mesi di duro lavoro e sempre la stessa identica risposta….
Allora avendo la sicurezza che il problema fossero quei link non rimossi, comincio ad analizzare le pagine che sono più linkate dall’esterno (l’idea è quella di cambiare le URL delle pagine più spinte, per far restituire un 404). Purtroppo la quasi totalità dei link da eliminare puntano alla Home, quindi sfumata anche quest’idea.
Ormai sono quasi convinto che ci sia poco da fare, non resta che aspettare e magari col tempo il sito si riprende. Comincio a fare riunioni col cliente, per impostare un nuovo progetto con un nuovo dominio, ma ecco che il 16 arriva il Disavow, l’ultima spiaggia per poter recuperare il dominio.
Il 20 Ottobre compilo il file (già pronto, avevo tutti i link sotto mano) e spero che almeno stavolta Google veda l’impegno.
Il 9 Novembre faccio una nuova richiesta di Reinclusione a Google, segnalando che ho fatto anche il Disavow, e che quei link non sono proprio riuscito a rimuoverli, ed ecco la risposta del 13 Novembre:
Reconsideration request for http://www.xxxxxxxxx: Manual spam action revoked
Finalmente!
Dopo 2 giorni il sito ha recuperato circa il 70/75% dei posizionamenti precedenti, soprattutto con la long tail. Sò Soddisfazioni 🙂
Certo non siamo ancora ai livelli precedenti la penalizzazione, probabilmente c’è ancora lo zampino di altri algoritmi, o semplicemente molti dei link tolti non erano “criminali†e togliendoli se n’è diminuita la spinta e la forza.
Ecco cosa appare in GWT in italiano
Seconda Case History (parlo di un sito, ma sono più siti appartenenti allo stesso progetto con identica storia)
Parliamo di un sito Aziendale, lingua principale Inglese, 4 anni d’anzianità , con buoni contenuti e una buona struttura, unica grande pecca, il cliente si è appoggiato per meno di un anno ad una web agency indiana, che ha lavorato principalmente sulla Link Building facendo acquisire al sito circa 18.000 Link di “altissima qualità â€Â (network di blog con contenuti duplicati, commenti spam, social bookmarking massiccia, forum spam etc ) usando solo una ventina di anchor text differenti e in pochi mesi. Facendo 2 conti, il sito riceveva circa il 40% dei link dai siti del proprio network, il restante da siti pessimi….
La situazione è questa
Chiaramente si vede lo zampino del Pinguino, che ha giustamente colpito la link popularity.
Ci rimbocchiamo le maniche, e facciamo sapere al cliente che la nostra sarà una dura battaglia, che probabilmente non darà i frutti sperati.
C’era un’ oggettiva difficoltà sia nella rimozione di tutti quei link, sia nel far a capire a Google in un eventuale richiesta di Reinclusione che il nostro era stato un errore, (praticamente il 97% dei link era innaturalissimo), ma contemporaneamente ad un lavoro di sviluppo di un nuovo sito, cominciamo ad analizzare i backlink…
Gli indiani contattati dal cliente, rimuovono circa 6.000 link, su molti altri non hanno possibilità di intervento, noi intanto facciamo rimuovere dai siti di tutto il network i link (ovviamente sitewide) verso il sito principale, facciamo cambiare le URL maggiormente linkate, per far restituire un 404.
Dopo 3 Mesi, siamo ai primi di Ottobre, non si muove assolutamente nulla e decidiamo di testare il Disavow appena lanciato.
Il 20 Ottobre carichiamo il file, il 20 Novembre dopo un mese facciamo una richiesta di reinclusione, segnalando di aver anche fatto il Disavow.
Il 23 Novembre, risposta: Richiesta di riconsiderazione per http://www.xxxxxxxxx /: nessun intervento manuale antispam rilevato
In soldoni? Penalizzazione algoritmica, talmente tanto vasta che manco il Disavow ti può salvare… 🙂
Decidiamo insieme al cliente di concentrandoci su un nuovo progetto parallelo, ovviamente stiamo continuando a testare diverse cose sul sito penalizzato, per cercare di recuperarlo.
Da queste esperienze sono scaturite alcune considerazioni:
- Le penalizzazioni manuali sono paradossalmente più facili avendo una specie di risposta da Google, per primo caso il Disanow tools ha funzionato e il risultato è stato praticamente immediato;
- Pare che il Disavow per penalizzazioni algoritmiche non abbia alcun effetto immediato, per Penguin potrebbe essere che l’effetto si avrà nel rilascio delle nuove release , (aggiorneremo questo post con eventuali novità ).
- Il Disavow può essere utile, se si è lavorato generalmente bene, facendo solo “qualche errore“, ma non porta risultati se la maggior parte del lavoro è stato fatto male, violando palesemente le linee guida di Google;
Ma questo è comprensibilissimo. Google dice: “Se hai messo qualche link troppo spinto, toglilo se puoi, se no segnalalo e forse avrai il perdonoâ€. Ma se il tuo modus operandi fino ad ora è stato quello di lavorare male, hai messo solo link artificiosi, da risorse discutibili, non credo che basti un suggerimento per azzerare tutto. Sarebbe decisamente troppo semplice dire a chi fa perennemente e costantemente spam: “fai quello che vuoi, poi, se ti becco, chiedi perdono e ti sarà dato…â€
Chiudiamo con una citazione del buon Matt Cutts in uno dei suoi tanti video (http://www.youtube.com/watch?v=393nmCYFRtA) dice questo “Usare il Tool Disavow links è consigliabile solo in pochissimi casi, per esempio nei casi in cui si sa con certezza che si è partecipato a uno schema di links, aver acquistato link, quando si siano ricevuti i messaggi dal Team Search Quality di Google che avvisavano di una penalizzazione manuale o di una possibile partecipazione a schemi di links, ect ect“, gli crediamo stavolta? 🙂
E voi che esperienze e ipotesi avete in merito all’utilizzo del Disavow?