- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Search console dice che l'url è bloccato da robots.txt
-
Search console dice che l'url è bloccato da robots.txt
Buongiorno a tutti,
ieri sera ho collegato la search console al mio nuovo sito web: facendo un test in tempo reale dell'url mi dice che la scansione è bloccata da robots.txt.
Questo il testo del mio robots.txt, fatto con yoast seo:User-Agent: *
Allow: /Preciso una cosa: fino a ieri pomeriggio era impostato su Disallow, perchè il sito era in fase di costruzione...
Quale può essere il problema?
Vi ringrazio per l'aiuto che sicuramente riceverò.
Tipo:
AltriTipo:
AltriTipo:
Robots.txtTipo:
Altri
-
Ciao, devi solo attendere alcuni giorni (a volte però possono passare anche alcune settimane). Prova se possibile a segnalare l?avvenuta correzione oppure a segnalare la sitemap.
-
Ciao Davide! sono riuscito a risolvere il problema: sono andato sul tester dei file robots.txt di google e ho visto che il mio file robots.txt, come dicevi tu, veniva letto da google ancora con impostato Disallow: / , quindi lo ho modificato direttamente da lì e ho cliccato invia. A questo punto sono tornato nella search console, ho rifatto il test dell'url in tempo reale e, come per magia, è andato tutto a buon fine.
-
Ottimo! Buon fine settimana
-
Ciao
fai il test da qui e vedi se è ok https://www.google.com/webmasters/tools/robots-testing-tool
-
@Luca2 said:
User-Agent: *
Allow: /Ciao Luca, ti segnalo giusto una cosa di correttezza di impostazioni:
Sarebbe più corretto averlo così:
User-Agent: *
Disallow:Questo perché l'istruzione Allow non è letta da tutti i bot, mentre il disallow è universale.
-
ah ok, allora correggo....
grazie mille!