• User Newbie

    URL Sitemap limitate da robots.txt ma che in realtà non lo sono

    Ciao a tutti, sono qui per imparare... 🙂

    Vi chiedo lumi per cercare di capire come funzionano certi meccanismi dei tools di Google per i Webmaster.

    Nella scansione web, negli errori riguardanti la sitemap, ci trovo parecchie pagine che vengono definite come "limitate da robots.txt" e di conseguenza non indicizzate.

    A dire il vero avevo fatto un errore nella compilazione del robots.txt all'inizio di gennaio, ma nel giro di pochi giorni mi sono comparsi questi errori, ho individuato quello che avevo commesso io e l'ho risolto, tanto che tutte le URL in questione sono correttamente raggiungibili e passano il test sul robots.txt messo a disposizione dalle stesse pagine di google.
    L'errore che avevo fatto io è stato, per distrazione, di indicare come disallow tutto il percorso /2009/01/

    Inoltre questi link nelle ultime settimane sono aumentati, in pratica tutti contenuti di gennaio 2009 non sono indicizzati.

    Vorrei capire se è un problema che Google ci mette una vita a recepire le correzioni di tiro sl robots.txt o se sto trascurando qualche operazione che non conosco per agevolare Google nel suo lavoro, o altre cose oscure che non conosco....

    Grazie a tutti per gli eventuali suggerimenti 🙂

    rob


  • Moderatore

    Ciao zigorob e Benvenuto nel Forum GT.

    Devi avere pazienza poichè Google non si aggiorna immediatamente sù queste cose.


  • User Newbie

    Grazie della risposta 🙂

    in effetti lo sto notando, più o meno ad ogni aggiornamento della pagina degli errori sul webmaster tool me ne toglie una manciata...

    beh mi metto comodo e aspetto 😄