- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Elenco URL Bloccati da Robots
-
Elenco URL Bloccati da Robots
Ciao a tutti,
Esiste per caso il modo di avere una lista o elenco completo delle URL che vengono bloccate da Robots.txt?
Sto avendo impennate di URL bloccate da Robots senza calo di indicizzazione e vorrei vedere di che URL si tratta..Il Robots è molto complesso e testare URL "a caso" è poco funzionale..Grazie
-
Ciao Porretz,
già il file robots è la lista delle url che vuoi bloccare, dal GWT dovresti vedere cosa venga bloccato.Ciao
Enea
-
Ciao,
Mi sembra che invece non ci sia modo di vedere la lista delle URL bloccate..tu hai modo di farlo? Come?
-
Il file robots.txt che hai compilato è già una lista di url, vedi lo schema e risali alle url.
Se per esempio hai questa riga:
Disallow: /categoria/
Tutte le pagine contenute nella cartella categoria saranno bloccate.
Se nel GWT ti dice url importanti sono state bloccate è perché una di queste è linkata da qualche parte nel tuo sito o altrove.
Ciao
Enea
-
Si ma qui il problema è che il sito ha 7.000 URL circa, e le regole robots.txt sono 18 righe in tutto...
Capisci che non c'è modo di capire quali URL stia bloccando il robots.txt, e sarebbe invece interessante poterlo fare..Nelle ultime settimane lo stato indicizzazione ha una crescita di URL bloccate e non capisco quale delle 18 righe di robots stia bloccando quali delle 7000 URL
Qualcun'altro magari sa come analizzare la cosa in modo oculato..
-
Salve, avrei la stessa problematica.
Tu hai risolto? e mi sapresti dire come?
Grazie mille