Uno dei momenti molto delicati della vita di un qualsiasi sito web arriva quando, per un motivo o per un altro, si decide o si è costretti a cambiare definitivamente il CMS (Content Management System) e di conseguenza anche la struttura del sito.
Prima di dare inizio a questa attività è utile farsi una scaletta delle varie operazioni da svolgere e ipotizzare i vari possibili scenari; un buon punto di partenza sono le slide di Michele Baldoni http://www.slideshare.net/dottorseo/migrazione-sito-web.
Come cambiare CMS senza distruggere la SEO?
Quando decidi di cambiare il CMS o aggiornare il design grafico del tuo sito, occorre non trascurare assolutamente tutti gli aspetti SEO legati a questa serie operazioni. Cambiare CMS senza preoccuparsi dell’aspetto SEO vuol dire rischiare di subire una penalizzazione da parte dei motori di ricerca e perdere completamente il posizionamento ottenuto negli anni.
Con questo articolo non vogliamo fornire una guida da seguire, ma dare alcune indicazioni utili per evitare di commettere gli errori più basilari ma nello stesso tempo quelli ritenuti più critici che si possono incorrere durante la migrazione o il cambio del CMS di un sito.
Vediamo nello specifico i vari step che si dovrebbero seguire durante una migrazione o un cambio CMS:
- Analisi delle pagine indicizzate
- Controllo dei Backlinks
- Analisi del sito web
- Controllo della struttura degli url
- Verifica dei link interni
- Redirect 301 e file .htaccess
- Creazione sitemap.xml
- Sitemap.xml VS Screaming Frog
- Monitoraggio SERP, Google Search Console e Google Analytics
Analisi delle pagine indicizzate
Nel primo step è estremamente importante effettuare un report che elenchi le URL indicizzate nel tempo dal motore di ricerca (nel nostro caso Google). L’elenco ci servirà successivamente per impostare un redirect 301 dalle vecchie pagine verso le nuove ed evitare che i nostri utenti inciampino in fastidiose pagine 404. Per creare questo report è possibile utilizzare lo strumento gratuito di Google, ossia Search Console con il quale è possibile esportare tutti gli url delle pagine indicizzate.
Analisi dei backlinks
In questo secondo step utilizzeremo il tool online “MajesticSEO†per individuare e analizzare il profilo backlinks del nostro dominio (ci sono diversi altri strumenti che potete utilizzare come Ahrefs, Open Site Explorer, ecc..). Quest’analisi è importante per individuare tutti quei backlinks che garantiscono un buon posizionamento e una buona visibilità al nostro sito, e che quindi è opportuno non perdere.
La cosa migliore da fare quindi, è contattare i proprietari di tutti i siti dove sono presenti tali backlinks, chiedendo loro di aggiornarli con le nuove URL del nostro sito. Nel caso in cui quest’operazione non fosse possibile bisogna accertarsi di reindirizzare correttamente le pagine con link in entrata verso le nuove URL.
Nell’homepage di MajesticSEO quindi, inseriamo il nostro dominio nell’apposito campo che vediamo nell’immagine precedente e clicchiamo sulla lente per inoltrare la richiesta.
Una volta che il tool genera i vari risultati, ci spostiamo nella scheda “Backlinksâ€, dove saranno elencate tutte (o quasi) le Pagine Web che linkano il nostro sito. Se si dispone di un account MajesticSEO PRO è inoltre possibile effettuare il download dei dati in formato excel, csv e tsv.
Analisi interna del Sito
Un altro step importante in questa fase preliminare è l’analisi interna del sito, utile ad individuare le pagine che hanno raggiunto un buon livello di popolarità e che quindi ricevono un elevato numero di visite. Anche questa fase, come la precedente, ci aiuta a ridurre il rischio di fornire all’utente pagine di errore 404, ovvero la perdita di risorse importanti. A questo scopo viene in nostro aiuto Google Analytics.
Spostandoci dal menù nella sidebar a sinistra in:
Comportamento -> Contenuto del sito -> Tutte le pagine
otteniamo un elenco delle pagine, generalmente ordinate per numero di “Visualizzazioni di paginaâ€. Naturalmente quest’analisi è possibile solo se abbiamo un minimo di storicità dei dati raccolti da Google Analytics.
Evitare che il nuovo sito in costruzione sia indicizzato dai motori di ricerca
Accade spesso che durante la fase di migrazione o cambio CMS si crei un dominio di terzo livello “domain.sito.it” o una sottodirectory “www.sito.it/cartella” per sviluppare il nuovo sito ma non si prendono le dovute precauzioni in quanto potrebbe accadere che il sottodominio o la sottodirectory verrà indicizzata dal motore di ricerca.
Per evitare che ciò accada, sarebbe opportuno proteggere il contenuto con una password oppure utilizzare un file robots.txt contenente:
User-agent: * Disallow: /
nella directory principale del sito, in modo da informare i motori di ricerca di non indicizzare tale sito.
Se, ad esempio, il nuovo CMS utilizzato è WordPress, è sufficiente andare nella sezione “Impostazioni -> Lettura†e selezionare la casella “Scoraggia i motori di ricerca ad effettuare l’indicizzazione di questo sitoâ€, in questo modo i motori non effettueranno l’indicizzazione.
Verifica dei link interni
Una volta eseguita la migrazione del nuovo sito è necessario controllare tutti i link interni (internal links) alle pagine ereditate dal vecchio sito, in modo da verificare che non ci siano link scaduti o interrotti ed eventualmente aggiornarli e farli puntare alle nuove URL. Un comodo software (limitato nella versione gratuita) per il controllo dei link interrotti è Screaming Frog con il quale è possibile scovare link interni non più funzionanti.
Redirect 301 e file .htaccess
A questo punto l’errore più grande che possiamo compiere è quello di effettuare un unico reindirizzamento dalle vecchie URL verso l’homepage del nuovo sito. É vero che in questo modo si evita la generazione di numerose pagine 404, ma da un punto di vista del motore di ricerca, e soprattutto dell’utente finale, si peggiora il servizio. Chiaramente, anche se ciò comporta un notevole lavoro, un reindirizzamento pagina per pagina è sicuramente la scelta più adatta in quanto consente di conservare il posizionamento del proprio sito nelle SERP di Google e di fornire ai vostri utenti contenuti coerenti. Nel caso in cui non esista una corrispondenza 1:1 tra le vecchie e le nuove URL assicuriamoci di effettuare un redirect verso le nuove pagine con contenuti analoghi. Per approfondire questo argomenti ecco un video di Matt Cutts in cui parla dei Redirect 301: https://www.youtube.com/watch?feature=player_embedded&v=r1lVPrYoBkA
Una volta che abbiamo lo schema delle vecchie Url e delle nuove verso le quali fare il redirect andremo ad inserire nel file .htaccess il seguente comando per ogni singolo reindirizzamento:
redirect 301 /vecchio-url.html http://www.miosito.it/nuovo-url.html
Creazione Sitemap XML
Esistono diversi modi per creare una sitemap.xml, ovvero la mappa di tutte le Url/Pagine che compongono il nostro sito. Il primo metodo, quello ottimale e consigliato, consiste nell’implementazione di un plugin specifico per il nostro CMS che ha come vantaggio quello di aggiornare dinamicamente la sitemap ogni qual volta si aggiungano nuove pagine al sito. Un altro metodo semplice, ma non dinamico come il precedente, è quello di utilizzare un tool online, come ad esempio: http://www.xml-sitemaps.com/.
Basta inserire il nostro dominio come Url di partenza ed impostare: la frequenza di aggiornamento delle pagine, la data dell’ultima modifica (lasciamo questo parametro su “Use server’s response†per ricavare l’ultima modifica dal server), la priorità ; si clicca poi su “Startâ€, il tool genera la sitemap di cui effetuiamo il download.
(N.B. La versione free del tool può generare al massimo 500 url, mentre la versione a pagamento, di circa 20 $, non ha limiti).
Sitemap.xml VS Screaming Frog
Un’importante verifica da effettuare, ora che il nuovo sito è online, è tra le Url spiderizzate da Screaming Frog e la sitemap.xml.
Per chi non lo conoscesse Screaming Frog è un utilissimo software disponibile gratuitamente in versione limitata (massimo 500 url) per windows e mac che, fornita un Url di partenza, simula uno spider/crawler restituendovi una mappa delle Url del sito ed altri numerosi parametri raggiungibili dallo spider.
Questa verifica può far emergere due importanti problemi:
- Url presenti su Screaming Frog ma non nella sitemap.xml
questo ci permette di capire se esistono eventuali pagine importanti che, per svariati motivi, sono raggiungibili dallo spider ma non sono state inserite all’interno della sitemap.xml; - Url presenti della sitemap.xml ma non in Screaming Frog
questo caso, ancor più critico del precedente, indica che vi sono pagine orfane, ovvero non linkate in nessun altra pagina interna al nostro sito e quindi non raggiungibili da navigazione interna. In più una tale situazione non garantisce una buona e veloce indicizzazione della nostra risorsa da parte dei motori di ricerca, in quanto la pagina in questione è raggiungibile dai bot solo attraverso la sitemap.xml;
Monitoraggio SERP, Search Console e Google Analytics
L’ultima fase, quella del monitoraggio, può essere considerata la fase riabilitativa della nostro sito con il nuovo CMS. Il monitoraggio ci permette di capire se abbiamo fatto un buon lavoro negli step precedenti. In particolare dobbiamo tenere sotto controllo:
- SERP
verifichiamo che il motore di ricerca stia scansionando correttamente le nuove pagine e che quindi stia aggiornando i risultati di ricerca con le nuove Url, i nuovi Title e Description. - Google Search Console
Se ancora non abbiamo aggiunto il nostro sito sulla Search Console, possiamo farlo effettuando il login con il nostro account Google al seguente indirizzo: https://www.google.com/webmasters/tools/?hl=it e cliccando sul pulsante “AGGIUNGI UN SITOâ€. Successivamente seguiamo la procedura guidata per verificare il sito, e dichiarare quindi che è di nostra proprietà . - Per controllare eventuali altre anomalie e cambiamenti nei metatags o dei contenuti delle pagine interne è possibile usare il software online Archive.org, il grande archivio del web dove si possono visualizzare le versioni precedenti di qualsiasi sito web, in modo da ripristinare informazioni andate perse durante la migrazione.
Ora procediamo ad aggiungere la nostra sitemap. Spostiamoci nel menù a sinistra su “Scansione -> Sitemapâ€, clicchiamo sul pulsante “Aggiungi/testa sitemap†e nella casella di testo completiamo il percorso della nostra sitemap (es. http://www.miosito.it/sitemap.xml) ed infine clicchiamo su “Invia Sitemapâ€.
Fatto questo, la sezione da monitorare e tenere sotto controllo è “Errori di scansioneâ€, raggiungibile dalla dashboard o dal menù a sinistra: “Scansione -> Errori di scansioneâ€. In questa sezione è possibile visualizzare i vari tipi di errore (Errore Server, Pagine 404, ecc…) che lo spider di Google potrebbe trovare durante la fase di scansione nel nostro sito.
Google Analytics
Per avere informazioni utili da questo tool è necessario avere a disposizione un minimo di storicità (delle visite e dei visitatori) in modo da poter monitorare eventuali cali di traffico (come nel caso dell’immagine sotto) e capire quali pagine lo stanno provocando.
Quest’ultima fase è molto importante e va monitorata periodicamente nei primi mesi successivi al cambio di CMS. In particolar modo la sezione relativa agli “Errori di Scansione†in Search Console dove, soprattutto per siti web con diversi anni di attività , le pagine che restituiscono errore (404, 500, ecc…) non vengono aggiornate regolarmente ed in tempo reale.
Hai avuto anche tu la necessità di cambiare il tuo CMS o sei stato costretto a migrare il sito su un diverso hosting provider? Hai bisogno di un check per assicurarti che tutto il lavoro svolto sia stato fatto a regola d’arte? Oppure se non hai ancora effettuato il cambio del CMS e hai bisogno di supporto tecnico e SEO, contattaci.