- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Consiglio su redirect 301 o blocco robots.txt
-
Consiglio su redirect 301 o blocco robots.txt
Ciao ragazzi, scrivo perchè avrei bisogno di un consiglio in merito a una pagina che attualmente risponde a due URL differenti, creando quindi del contenuto duplicato sgradito ai motori di ricerca.
Si tratta della homepage di un forum (piattaforma PhpBB 3) che è raggiungibile da queste due URL:
nome-sito.it/forum/
nome-sito.it/forum/index.php(Ho omesso il prefisso www per non inserire link attivi)
Io vorrei che la pagina avesse una URL univoca, nella fattispecie la prima, che ho evidenziato in grassetto.
Avevo pensato inizialmente al classico redirect 301 ma sto valutando anche di bloccare la URL "/index.php" anche col file robots.txt.
In più ci sarebbe anche la possibilità del tag "canonical"...Secondo voi quale è la soluzione ottimale? E' sufficiente attuarne una o vanno magari combinate insieme?
Grazie in anticipo,
Hayez
-
Io imposterei un redirect 301 senza però escludere l'inserimento del rel canonical che oramai metto d'ufficio a tutte le pagine.
Non bloccherei il crawler di Google con le direttive nel file robots.txt perché altrimenti Google non potrebbe processare le altre impostazioni.Valerio Notarfrancesco
-
Grazie Valerio! Il tag "canonical" lo usi solo nelle pagine dei forum su piattaforma PhpBB o anche in un sito per così dire classico?
-
Lo metto in tutti i siti che hai definito classici, non gestisco nessun forum.
Valerio Notarfrancesco
-
@vnotarfrancesco said:
Non bloccherei il crawler di Google con le direttive nel file robots.txt perché altrimenti Google non potrebbe processare le altre impostazioni.
Valerio Notarfrancesco
Ciao Valerio, approfitterei ancora della tua disponibilità per chiederti una spiegazione di quanto ho quotato.
Se la pagina da bloccare ipoteticamente col robots.txt è un duplicato che benefici avrei a renderla comunque spiderabile da Google? In linea teorica non potrebbe essere deleterio dato che troverebbe gli stessi contenuti che appartengono già a un'altra URL?
Te lo chiedo a titolo di curiosità, dato che mi sono convinto a usare il redirect 301 che mi sembra la soluzione migliore.
Grazie!
-
Prego approfitta pure, siamo qui apposta per scambiarci le nostre conoscenze.
Se tu blocchi il crawler di Google con delle direttive nel file robots.txt, questo non ci potrà più entrare ovviamente, non potrà scansionare la tua pagina e quindi di conseguenza non incontrerà mai il rel canonical che tu avevi inserito per risolvere il problema dello stesso contenuto disponibile con due url differenti.
Valerio Notarfrancesco.
-
Ok, ora ho capito! Ti confesso però che ho qualche riserva sull'inserimento del tag "canonical" perchè cercando sul web (e anche all'interno del Forum GT) ho letto di diversi casi in cui ha comportato una forte penalizzazione.
Forse è stato applicato in maniera scorretta, ma mi ha intimorito un po' e pensavo di limitarmi al 301 che sono certo non abbia rischi di nessun tipo.
Che ne pensi?
Grazie,
Hayez
-
Hai letto bene, in diversi casi i siti che avevano il rel canonical sono stati penalizzati a causa di un bug di Google che poi è stato corretto. E' successo l'anno scorso verso settembre / ottobre.
Tuttavia nel passato, solo un paio di anni fa, anche i redirect 301 avevano subito un'analoga sorte, anche in quel caso a causa di un bug di Google poi risolto.
Insomma, non si deve colpevolizzare un'istruzione solo perché per un breve periodo Google aveva un bug. Ci sono stati, e ce ne saranno sempre.Nel tuo caso il redirect 301 mi sembra la soluzione migliore, quello che è da evitare è di sicuro il blocco dal file robots.txt.
Valerio Notarfrancesco