- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Deindicizzazione sito staging duplicato
-
Deindicizzazione sito staging duplicato
Ciao a tutti,
ho un sito, https://www.nomesito.com, e mi sono accorto che la versione in staging dello stesso, http://staging.nomesito.com, è stata erroneamente indicizzata. Ho quindi un problema di contenuti duplicati indicizzati, essendo sito ufficiale e sito in staging fondamentalmente identici.
Per risolvere, ho per ora inserito la direttiva ?Disallow: /? in http://staging.nomesito.com/robots.txt e ho aggiunto e validato la proprietà ?http://staging.nomesito.com? su Search Console. Ora ho intenzione di visitare la pagina https://www.google.com/webmasters/tools/url-removal, selezionare la proprietà ?http://staging.nomesito.com? e richiedere la rimozione dell?intero sottodominio.
La mia domanda è: mi confermate che così facendo non corro alcun rischio di deindicizzazione del sito ufficiale https://www.nomesito.com? Credo sia così, ma vorrei una conferma, per maggior sicurezza.
Grazie,
Fab
-
Ciao,
Io metterei in noindex l'intero sito di sviluppo, così non devi nemmeno preoccuparti del robots o di agire tramite GSC.
Se ne hai creato la proprietà, puoi verificare la deindicizzazione direttamente da lì.
Peraltro è anche la nuova politica adottata da Wordpress, se non ricordo male.
-
Grazie aledandrea, avevo valutato in effetti questa possibilità, che scongiura ogni possibile rischio anche se richiede un po' più tempo per la completa rimozione dalle serp delle pagine dello staging già indicizzate.
Ciao,
Fab
-
Ciao Fab,
un'altra idea potrebbe essere quella di mettere i canonical del sito in staging verso le pagine del sito in produzione.
Altrimenti anche l'idea di aledandrea è sicuramente di facile implementazione e dal risultato assicurato.
-
Ciao
io quando faccio copie del sito le metto visibili solo a me abilitando da htaccess solo il mio Ip. Inoltre metto disallow sul robots.txt e metto tutto in noindex. Ti consiglio di fare questo e null'altro, dovrebbe risolversi da solo.
-
@Sermatica said:
noltre metto disallow sul robots.txt e metto tutto in noindex.
Ciao Sermatica,
Così facendo però il bot non dovrebbe leggere il noindex, perché gli viene bloccata la possibilità di leggere la pagina.
-
Ciao Andrea,
confermo, infatti è una doppia sicurezza per evitare situazioni spiacevoli come quella sopra.
-
@Sermatica said:
Ciao Andrea,
confermo, infatti è una doppia sicurezza per evitare situazioni spiacevoli come quella sopra.Ciao Sermatica, no aspetta non mi sono spiegato (o non ho capito la risposta).
Intendevo dire che, mettendo in disallow una pagina, Google non potrebbe leggere il noindex e quindi la metterebbe in SERP.
Questo significa che, se metti in disallow il sito, il noindex viene ignorato perché G non lo può proprio leggere.
-
Ciao ok ora ho capito. Grazie