• Bannato User

    Robots.txt ! Domande

    Salve a tutti!

    Possiedo un blog, ed abbiamo recentemente cambiato i robots per evitare che google incidizzi in "doppio".

    Il primo robots era standard come normale.

    ora invece l'ho modificat così.
    User-agent: *
    Allow: /wp-content/uploads
    Disallow: /blog1/
    Disallow: /cgi-bin
    Disallow: /wp-admin
    Disallow: /wp-includes
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: //feed/
    Disallow: /
    /feed/rss/
    Disallow: /*/trackback/

    Ora vedo un forte incremento degli url bloccati da robots su sitemaps di google! Ovviamente la cosa è normale.

    La mia domanda è... meglio lascare libero google di fare ciò che vuole? Questi robots che bloccano danneggiano il sito o mi aiutano a migliorare la qualità del mio sito agli occhi di google?
    Queste regole nei robots sono fatte bene?

    Saluti
    e grazie per la risposta :smile5:


  • Community Manager

    Ciao rnbjunk,

    non ti preoccupare, non ti danneggiano il posizionamento 🙂


  • Bannato User

    Ma dunque...

    che differenza c'è se lascio il file robots "libero", o se gli metto delle "regole"?

    Al momento in sitemaps ho 2000 pagine bloccate da robots, che prima giustamente non avevo...

    a livello di visite ho riscontrato un leggero calo...

    Uhm. sono molto dubbioso sul da farsi...