- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Quesito su file robots
-
Quesito su file robots
Ciao, ho un piccolo problema, google oltre ad aver indicizzato le pagine del mio sito, ha indicizzato tutte le url che portano alle stesse. Faccio un esempio.
la pagina principale della sezione "X" è raggiungibile tramite w w w.dominio.it/x.html ma se ad esempio cambio l'ordine per cui gli articoli di quella sezione debbano essere elencati cambia anche l'url della pagina, e gg ha indicizzate anche queste url. vorrei eliminare tutte le url che non siano quelle principali e per farlo vorrei utilizzare il file robots.txt. la mia domanda è la seguente: Visto che la maggior parte delle url che voglio eliminare hanno una prima parte in comune tipo w w w.dominio.it/sezione/order/ è sufficiente inserire nel robots Disallow: /sezione/order/grazie
-
Ciao!
Si, va bene, però considera che in quel modo il ragnetto non entrerà in nessuna pagina contenuta in quella directory....
-
Ciao, fami cape una cosa, se inserisco Disallow: /sezione/order/ non saranno prese in considerazione tutte le pagine che sono in "order" , ma ad esempio quelle in Disallow: /sezione/order2/ non verranno escluse solo perchè hanno la sezione in comune, vero?
-
Il fatto che abbiano sezione/ in comune non importa, inserendo nel file robots
Disallow: sezione/order/ non vengono pescati i files dentro alla cartella order;
i files dentro a tutte le altre cartelle sotto a sezione/ invece si.Il ragnetto non entra nell'ultima directory del percorso che indichi nel robots.txt
-
Grazie mille