- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- File robots.txt e sito e-commerce
- 
							
							
							
							
							File robots.txt e sito e-commerceCiao a tutti, In un sito e-commerce vorrei bloccare tutte le pagine non direttamente inerenti il posizionamento, che potrebbero magari generare contenuti duplicati o comunque pagine inutili lato seo, come: - pagine del carrello: w w w.nomesito.i t/cart.php
- pagine di ricerca: w w w.nomesito.i t/search.php
- pagine di ordini: w w w.nomesito.i t/order.php
 Userei le seguenti voci in robots.txt: Disallow: /cart.php (blocca la pagina) 
 Disallow: /cart.php$ (blocca tutte le paginine generate dalle variabili successive)Vorrei chiedervi se ritenete giusta questa strategia, e se il codice in robots.txt è giusto. Grazie a tutti. 
 
- 
							
							
							
							
							
Ciao Number Nine, questa strategia, per aree completamente inutili o potenzialmente dannose (come le pagine di ricerca che possono generare duplicati) va bene. 
 Però mi raccomando, occhio a non esagerare.Le corrette istruzioni da inserire nel robots.txt sono: 
 User-agent: *
 Disallow: /cart.php*
 Disallow: /search.php*
 Disallow: /order.php*Un saluto,  
 Angelo
 
- 
							
							
							
							
							Angelo, Grazie per la precisazione e per la correzione del codice.