- Home
- Categorie
- Coding e Sistemistica
- CMS & Piattaforme Self-Hosted
- Dubbio su file robots
-
Dubbio su file robots
Questo è il mio attuale file robots:
[HTML]
#Configurazione wordpress
User-agent: *
Disallow: /wp-
Allow: /wp-content/uploads/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: /comments/
Disallow: /?Sitemap: http : // www ... ... ... / sitemap.xml.gz
[/HTML]Vorrei avere un feedback da voi, è giusto bloccare tutte quelle pagine? Il mio dubbio è soprattutto sul "Disallow: /*?" perché controllando da GWT ora sono presenti parecchi link di questo tipo:
http : // www . dottorgadget.it /?p=8398
Che comunque sono articoli, è corretto bloccarli?
-
Personalmente lo toglierei come toglierei anche tutti gli altri. C'è un'articolo interessante di uno che non è certo l'ultimo arrivato e che a differenza tua e mia ha un google pagerank 5 www.catswhocode.com/blog/how-to-get-rid-of-the-nofollow-attribute-on-your-wordpress-blog. Fermo restando che uno ha tutte le ragioni per non fare indicizzare quello che gli pare se guardo tra i blog per me più autorevoli vedo che tutti a parte pochissime eccezioni hanno questo tipo di robot
[HTML]User-agent: * Allow: / Sitemap: http://css-tricks.com/sitemap.xml.gz[/HTML]
-
Capito, in pratica con quel robots si permette l'indicizzazione di tutte le pagine e file è corretto?
-
yes