• Bannato Super User

    Mancata scansione di tutte le pagine della directory

    Salve come ben sapete sulla falsa riga della gt directory ho deciso di aprire la mia directory specializzata solo sui siti correlati con la puglia.

    Il mio problem è il seguente: google non riesce ad entrare nelle pagine ( non ne ha presa neanche una 😢😢😢 ).

    Dalla site map l'errore riscontrato è il seguente:

    Prima di eseguire la scansione delle pagine del tuo sito, abbiamo tentato di verificare il tuo file robots.txt per accertarci di non eseguire la scansione di pagine che desideravi escludere. Tuttavia il tuo file robots.txt è risultato non raggiungibile. Per accertarci di non eseguire la scansione di pagine elencate in quel file, abbiamo posticipato la scansione. In questi casi, torniamo al tuo sito in un momento successivo e ne eseguiamo la scansione dopo aver raggiunto il file robots.txt. Questa situazione non corrisponde a quella che si verifica quando riceviamo una risposta 404 durante la ricerca di un file robots.txt. Se riceviamo una risposta 404, presupponiamo che il file robots.txt non esista e continuiamo la scansione.

    Per creare la sitemap ho usato lo script di stuart.

    Perfavore aiutatemi. 😞


  • Community Manager

    Ma tu lo hai il robots.txt o no? 😄


  • Bannato Super User

    Ora ho capito prende quello di primo livello.... provo a porre rimedi... restiamo sintonizati su questo canale...