- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Google Search Console - Robots.txt e filtri in disallow
-
Google Search Console - Robots.txt e filtri in disallow
@fcarlo93 ha detto in Google Search Console - Robots.txt e filtri in disallow:
Facendo delle ricerche ho inteso che questo fenomeno è causato dalla direttiva del robots.txt che non permette la lettura della pagina, quindi non potendo leggere la direttiva noindex Google sta "riscoprendo"(?) e indicizzando queste pagine che però non può scansionare.
Esatto, il problema è qui. Devi metterle noindex. Poi quando le ha viste tutte non indicizzabili metti il Disallow nel robots.txt.
-