• User

    Url rewrite e robots.txt

    Ciao a tutti.

    Ho attivato l'URL rewriting sul mio server IIS 7 e funziona abbastanza bene.

    Sto sperimentando con una prima pagina che da ItemDetail.aspx?itemId=XX ho rinominato in questo-e-il-titolo-della-mia-pagina.html

    La pagina originale l'ho nascosta allo spider tramite un Disallow in robots.txt e l'ho anche tolta dalla sitemap, mentre ho aggiunto nella sitemap la pagina riscritta.

    E' passato qualche giorno e la pagina riscritta non è stata ancora indicizzata, mentre quella precedente è scomparsa correttamente dai risultati.

    Il mio dubbio è che bloccando la pagina originale col Disallow, finisco per bloccare anche quella riscritta. E' possibile o devo aspettare ancora un po'?
    Di solito in un paio di giorni le modifiche che apporto vengono assimilate da google.

    Grazie mille.
    Roberto


  • Super User

    Se fai il rewrite, non la devi disabilitare dal file robots perchè altrimenti la pagina vecchia viene cancellata dai motori di ricerca, non ha senso.
    Perdi la precedente indicizzazione e tutti i link in entrata
    Il rewrite serve apposta per non perdere PR e posizioni delle vecchie che vengono reindirizzate sulle nuove.
    Togli il disabilita dal file robots e vedi cosa succede, dovrebbe riprendersi.
    Almeno da quello che sapevo io e per esperienza personale.
    Ciao.


  • User

    Ciao e grazie della risposta.

    In effetti avevo già tolto il disollow e richiesto la reinclusione della pagina che però da quasi 2 settimane ancora non è comparsa né nella forma vecchionome.aspx?itemId=XX né nella forma nuovo-nome-file.html

    Per fortuna non era posizionata granché

    Boh. Aspetterò ancora un poi vedrò semmai di usare un 301 su un'altra pagina repliacta.. non saprei cos'altro fare.

    Grazie mille.
    Roberto