• User Newbie

    URL errors in Webmasters

    Ciao a tutti,

    domanda banale ma cerco conferma.
    Ho da qualche settimana messaggi di webmaster con un aumento esponenziale di url errors (oltre 2k).
    Premetto che ad inizio Ottobre è stata messa online una versione completamente nuova del sito. Il dominio è però lo stesso.
    La maggior parte delle URL identificate come crawl errors (nella sezione health di webmasters) sono relative alle vecchie URL .php (adesso sono .aspx) che adesso risultano giustamente not found (error 404).
    Che faccio?
    (1)Aspetto semplicemente visto che ho inserito robots e sitemap, (2)seleziono le pagine di errore e le flaggo "mark as fixed" o (3) utilizzo l' URL Removal Tool? Su quest' ultimo ho dei dubbi dopo aver letto i warning di Google sull' utilizzo improprio dello stesso.

    Grazie mille

    Salvatore


  • User Newbie

    Gli errori aumentano. Qualcuno può consigliarmi? Grazie mille


  • Moderatore

    Ciao Salvalanz e benvenuto sul forum GT,
    se semplicemente le pagine sono state spostate dalla url con php a quella nuova aspx (quindi i contenuti ci sono ancora tutti) usa un redirect 301, se non sai cos'è segui il link che si è attivato.

    Se i contenuti vecchi sono stati eliminati allora li devi prima bloccare con il robots.txt e poi richiederne l'eliminazine dal GWT oppure lasci solo il robots e aspetti (impiega diverso tempo a deindicizzare).

    Se i vecchi contenuti fossero eliminati e avessero ottenuto backlink reindirizzali alla categoria nuova o alla home.

    Se hai altre domande chiedi pure.

    Ciao
    Enea


  • User Newbie

    Ciao Enea,

    grazie mille.
    Si, conosco i 301. Il mio caso è il secondo però.
    Considera che si tratta di un ecommerce. I prodotti sono rimasti gli stessi bene o male ma sono cambiate schede, grafica, aggregazione degli stessi ecc., per cui non c' è una corrispondenza esatta, anzi.
    I contenuti vecchi (PHP) sono stati eliminati e sostituiti da questi nuovi in aspx (ancora devo far realizzare l' url rewrite). Ma perchè devo bloccarli nel robots visto che sono pagine che non esistono più e visto che ho inoltrato una sitemap?

    Grazie ancora

    Salvatore


  • Moderatore

    Se il prodotto è lo stesso allora è meglio fare un redirect 301, non importa se hai cambiato grafica, migliorato desrizione ecc, è comunque lo stesso prodotto.
    In questo caso il robots può servire per deindicizzare più velocemente le pagine rimosse (quelle che non esistono più).

    Ciao
    Enea


  • User Newbie

    Grazie Enea. Ho seguito il tuo consiglio sul bloccare i vecchi contenuti .php nel robots.txt e sto man mano facendo URL Removal da GWT (una 60-ina di url al giorno).


  • Moderatore

    Ottimo :), tienici aggiornati se ci sono novità

    Ciao
    Enea


  • User Newbie

    Ciao Enea,
    ti confermo che, anche se lentamente, la cura sta funzionando e gli errori diminuiscono giorno dopo giorno.
    Grazie e a presto

    Salvatore


  • Moderatore

    Perfetto :D, l'importante è aver risolto 😄

    Ciao
    Enea