- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Disabilitare alcune url (tramite robots.txt)
-
Disabilitare alcune url (tramite robots.txt)
Ciao ragazzi!
Ho un sito in Wordpress e ho notato che google (com'è logico) ha indicizzato anche le varie pagine d'archivio del blog, come ad esempio
e così via.
È possibile limitare l'accesso agli spiders solo per le varie "page" ?
Dato che si tratta di pagine dinamiche non posso stare ogni volta ad aggiungere le varie pagine da escludere a robots.txt...Grazie anticipatamente per la risposta
p.s. so che non c'entra con il modrewrite ma non sapevo in quale altra sezione spostare, se mi sono sbagliato prego i moderatori di spostare e di scusarmi

-
up...
-
ciao

a parte che ti sconsiglio di fare quello che hai in mente
le pagine con contenuti "scorrevoli" non son penalizzantile scelte son due:
- robots.txt -> blocchi /page/
- modichi WP e inserisci un header per impedire la spiderizzazione nelle pagine di archivio