Salve a tutti, ho un problemone che non riesco assolutamente a risolvere con gli strumenti per webmaster di google.
Ho iscritto il mio sito e ho aggiunto il meta che richiede, lui l'ha visto QUINDI è riuscito ad accedere al sito.
Ora invece mi viene fuori un errore di scanzione sul sito:
"Al momento non possiamo accedere alla tua home page a causa di un errore non raggiungibile."
Andando a cliccare per avere più informazioni sono arrivata a questa spiegazione:
"URL non raggiungibile.
Prima di eseguire la scansione delle pagine del tuo sito, abbiamo tentato di verificare il tuo file robots.txt per accertarci di non eseguire la scansione di pagine che desideravi escludere. Tuttavia il tuo file robots.txt è risultato non raggiungibile. Per accertarci di non eseguire la scansione di pagine elencate in quel file, abbiamo posticipato la scansione. In questi casi, torniamo al tuo sito in un momento successivo e ne eseguiamo la scansione dopo aver raggiunto il file robots.txt. Questa situazione non corrisponde a quella che si verifica quando riceviamo una risposta 404 durante la ricerca di un file robots.txt. Se riceviamo una risposta 404, presupponiamo che il file robots.txt non esista e continuiamo la scansione."
Ora il robots.txt c'è anche se è vuoto, il sito è raggiungibile, tanto più che la stessa verifica è stata fatta controllando se era presente il meta che chiedeva lui.. perchè lo spider non riesce ad accedere???
Se vado a vedere gli errori nella sitemap mi dice addirittura "rete non raggiungibile"
A nessuno è mai successo prima?