- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Come escludere pagine dinamiche via robots.txt
- 
							
							
							
							
							Come escludere pagine dinamiche via robots.txtCiao a tutti, mi scuso se faccio una domanda a cui è già stata data una risposta esauriente, ma non sono riuscito a trovare un tread al caso mio.. Avrei la necessità di escludere alcune pagine dinamiche via robots.txt, lasciandone però visibili alcune altre. Qual'è la corretta compilazione del robots.txt? Il punto è che devo escludere solo URLs dinamiche che contengono quel determinato parametro, ma non tutte le altre URL dinamiche. User-agent: * 
 Disallow: /ID=E' giusto? Grazie Mille  
 
- 
							
							
							
							
							
Si mi sembra corretto se il parametro è giusto. Io lo utilizzerei così però: User-agent: * 
 Disallow: http:// www. tuosito.bo/ID=L'unica cosa che devi verificare è se prima del paramtro ID l'asterisco ti serve o meno 
 
- 
							
							
							
							
							Grazie per la risposta, credo che mi dovrebbe servire l'asterisco precedente per considerare anche tutti i parametri precedenti... Almeno credo.. 
 
- 
							
							
							
							
							
Si ma solo se questi sono presenti Ciao 
 
- 
							
							
							
							
							
 
- 
							
							
							
							
							
Dipende dai paramentri che hai tu 
 
