- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- [ Robots.txt] Robots e blocco di 52.384 pagine soggette a restrizione
-
[ Robots.txt] Robots e blocco di 52.384 pagine soggette a restrizione
Salve,
ormai da quasi un anno ho adottato la forma del robots di questo tipo (blog wordpress):User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themesil blocco di queste pagine non sembra crearmi penalizzazioni, ma su webmaster tools di google ho più di 52.000 soggette a restrizione.
Può essere un problema? Infondo queste cartelle non hanno informazioni utili per il motore di ricerca o sbaglio?Cosa mi consigliate?
Tipo:
Robots.txt