Come da (mia) previsione, e coloro che mi seguono o con cui ho parlato lo sanno, Google sta dimostrando il suo lato peggiore ma soprattutto sta dimostrando la "semplicità" semantica del robots.txt e il suo mero ruolo in relazione SOLO al crawler e con effetti minimali su indice, posizionamento e soprattutto a lungo termine.
Protagonisti due illustri player che chiamerò Anselmo e Romualdo.
Romualdo si becca la penalty manuale couponing e digilentemente blocca la sezione col robots, fa probabilmente la letterina a GSC per uscirne e le pagine bloccate riprendono a posizionarsi.
Anselmo (già leader incontrastato ma soprattutto ultimo a essere penalizzato dopo settimane da TUTTI gli altri) replica ciò che fa Romualdo e il suo peak è fortissimo.
Nel frattempo Romualdo (a cui va tutta la mia stima per averci provato) toglie il blocco dal robots.txt e.. il traffico cala.
A regime? La mia previsione (se le bocce restassero ferme da parte loro e di Google...):
- Anselmo: le pagine bloccate da robots.txt pian pianino verranno "purgate" dall'indice
- Romualdo: si ribecca la penalty e farei attenzione non fosse estesa ad altro
A voi studio