- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- File robots.txt e sito e-commerce
-
File robots.txt e sito e-commerce
Ciao a tutti,
In un sito e-commerce vorrei bloccare tutte le pagine non direttamente inerenti il posizionamento, che potrebbero magari generare contenuti duplicati o comunque pagine inutili lato seo, come:
- pagine del carrello: w w w.nomesito.i t/cart.php
- pagine di ricerca: w w w.nomesito.i t/search.php
- pagine di ordini: w w w.nomesito.i t/order.php
Userei le seguenti voci in robots.txt:
Disallow: /cart.php (blocca la pagina)
Disallow: /cart.php$ (blocca tutte le paginine generate dalle variabili successive)Vorrei chiedervi se ritenete giusta questa strategia, e se il codice in robots.txt è giusto.
Grazie a tutti.
-
Ciao Number Nine,
questa strategia, per aree completamente inutili o potenzialmente dannose (come le pagine di ricerca che possono generare duplicati) va bene.
Però mi raccomando, occhio a non esagerare.Le corrette istruzioni da inserire nel robots.txt sono:
User-agent: *
Disallow: /cart.php*
Disallow: /search.php*
Disallow: /order.php*Un saluto,
Angelo
-
Angelo,
Grazie per la precisazione e per la correzione del codice.