Ciao a tutti, ho un sito wordpress e utilizzo All in one pack seo.
Fino a due giorni fa il sito non era accessibile agli spider con la seguente istruzione User-agent: * Disallow: /
Da due giorni invece il sito presenta il seguente robots.txt, creato automaticamente dal plugin:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Io ho inoltre aggiunto la seguente riga per bloccare la sezione privata accessibile con credenziali.
User-agent: *
Disallow: /dashboard/
Da due giorni continuo ad avere questo messaggio sulla search console "Robots.txt sta bloccando pagine importanti? Alcune pagine importanti sono bloccate dal file robots.txt."
Inoltre la SERP mostra "Non è disponibile una descrizione per questo risultato a causa del file robots.txt del sito."
E se cerco site:ilmiosito.com per adesso non trovo un cavolo di pagine indicizzate.
Però nella sezione "Tester dei file robots.txt" della search console mi dice che Googlebot riesce ad accedere ("Consentito").
Devo quindi semplicemente portare ancora pazienza?
Grazie mille!