- Home
- Categorie
- Digital Marketing
- SEO
- Google Search Console - Robots.txt e filtri in disallow
- 
							
							
							
							
							Google Search Console - Robots.txt e filtri in disallow@fcarlo93 ha detto in Google Search Console - Robots.txt e filtri in disallow: Facendo delle ricerche ho inteso che questo fenomeno è causato dalla direttiva del robots.txt che non permette la lettura della pagina, quindi non potendo leggere la direttiva noindex Google sta "riscoprendo"(?) e indicizzando queste pagine che però non può scansionare. Esatto, il problema è qui. Devi metterle noindex. Poi quando le ha viste tutte non indicizzabili metti il Disallow nel robots.txt. 
 
-