Buongiorno a tutti
Cercherò di il essere meno prolisso possibile, sperando di aver scritto nella sezione corretta
Dal 24 Maggio lo spider di google non riesce piu' ad accedere ad i miei siti (errore 403) con gravi conseguenze in termini di accessi.
La mia prima reazione fu quella di pensare di essere stato bannato per qualche ragione da google, ma sia il webmaster tool che i vari servizi di check web restituiscono che i siti non sono stati bannati.
Se cerco infatti su google con l'opzione "site: xx.xx" google restituisce dei risultati, ma se scrivo anche solo il nome a dominio su google senza l'opzione site siamo scomparsi, come siamo scomparsi anche da google news.
Provando con un simulatore di bot il risultato è il seguente, solo con il googlebot mentre con bing e gli altri funziona
HTTP/1.1 403 Forbidden
Date: Sat, 07 Jun 2014 09:18:15 GMT
Server: Apache/2.2.22 (Debian)
Vary: Accept-Encoding
Content-Encoding: gzip
Content-Length: 20
Connection: close
Content-Type: text/html; charset=iso-8859-1
Avevo pensato che fosse qualche cosa legata a possibili modifiche del codice ma l'errore persiste anche in sottodomini i quali sono completamente separati, dal punto di vista del codice, con il sito principale.
Essendo una macchina dedicata ho quindi ipotizzato possa essere il firewall ma hostiamo un terzo sito di un amico sul server e quello risponde con un 200 al bot funzionando correttamente.
Quindi ricomincio a pensare che possa essere qualcosa lato google ...
Qualche idea ? :muro: :mc: :mc: :mc:
I siti in questione sono .gamesource.it e .ffonline.it il sottodominio con codice diverso che risulta anche esso in 403 è history.ffonline.it, mentre il sito dell'amico che hosto sulla macchina ed al quale google bot accede correttamente è . playstationbit.com
Il simulatore che ho utilizzato è botsimulator.com
Qui sotto l'immagine del webmastertool in merito agli errori