• User Attivo

    Robot txt bloccato a causa di un errore dns?

    ciao a tutti, di recente ho trasferito un mio sito da blogger a wordpress, quindi ho dovuto cambiare il direzionamento del mio dominio (che puntava a blogspot) spostandolo verso il mio attuale hosting. Andando in strumenti per webmaster esce scritto che il robox.txt blocca i contenuti, in realtà io non ho bloccato nulla, tra l'altro ho controllato se in wordpress era spuntata l'opzione per non far leggere ai motori di ricerca i contenuti, inoltre per esser certo che non sia presente qualche disallow predefinito, ho inserito nella root del mio hosting un robots.txt come questo

    **User-agent: ***
    Disallow: /wp-admin/
    Disallow: /wp-includes/

    **Sitemap: http : // nomesito.com / sitemapindex com

    **Purtroppo quando da strumenti per webmaster eseguo la voce "visualizza come google" mi esce scritto "accesso negato da robot.txt". C'è da dire che a causa del recente cambio dns avvenuto un paio di giorni fa, al momento esce la scritta "Google non è riuscita ad accedere al tuo sito a causa di un errore DNS". Secondo voi è questa la causa se risulta che il robot.txt blocca l'indicizzazione delle pagine del mio sito'??


  • Moderatore

    Ciao grignacarbo,
    prova a rinominare o eliminare il file robots che hai creato quindi vai su nomesito.com/robots.txt e vedi cosa salta fuori.

    Per la questione dns è possibile che mentre stavi facendo il trasferimento googlebot sia passato di li ed abbia avuto problemi ad accedere, di solito nel giro di qualche ora i dns si propagano e non dovresti avere problemi di accesso, aspetta qualche giorno e vedi se quel messaggio sparisce.

    Ciao
    Enea


  • User Attivo

    Ho già risolto.. mi è bastato creare un file txt e metterlo nella root, in più per motivi di sicurezza ho impostato dei permessi tramite ssh.


  • Moderatore

    Ottimo 😄

    Ciao
    Enea