- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Come escludere pagine dinamiche via robots.txt
-
Come escludere pagine dinamiche via robots.txt
Ciao a tutti,
mi scuso se faccio una domanda a cui è già stata data una risposta esauriente, ma non sono riuscito a trovare un tread al caso mio..
Avrei la necessità di escludere alcune pagine dinamiche via robots.txt, lasciandone però visibili alcune altre. Qual'è la corretta compilazione del robots.txt? Il punto è che devo escludere solo URLs dinamiche che contengono quel determinato parametro, ma non tutte le altre URL dinamiche.
User-agent: *
Disallow: /ID=E' giusto?
Grazie Mille
-
Si mi sembra corretto se il parametro è giusto. Io lo utilizzerei così però:
User-agent: *
Disallow: http:// www. tuosito.bo/ID=L'unica cosa che devi verificare è se prima del paramtro ID l'asterisco ti serve o meno
-
Grazie per la risposta,
credo che mi dovrebbe servire l'asterisco precedente per considerare anche tutti i parametri precedenti... Almeno credo..
-
Si ma solo se questi sono presenti
Ciao
-
-
Dipende dai paramentri che hai tu