- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- URL errors in Webmasters
-
URL errors in Webmasters
Ciao a tutti,
domanda banale ma cerco conferma.
Ho da qualche settimana messaggi di webmaster con un aumento esponenziale di url errors (oltre 2k).
Premetto che ad inizio Ottobre è stata messa online una versione completamente nuova del sito. Il dominio è però lo stesso.
La maggior parte delle URL identificate come crawl errors (nella sezione health di webmasters) sono relative alle vecchie URL .php (adesso sono .aspx) che adesso risultano giustamente not found (error 404).
Che faccio?
(1)Aspetto semplicemente visto che ho inserito robots e sitemap, (2)seleziono le pagine di errore e le flaggo "mark as fixed" o (3) utilizzo l' URL Removal Tool? Su quest' ultimo ho dei dubbi dopo aver letto i warning di Google sull' utilizzo improprio dello stesso.Grazie mille
Salvatore
-
Gli errori aumentano. Qualcuno può consigliarmi? Grazie mille
-
Ciao Salvalanz e benvenuto sul forum GT,
se semplicemente le pagine sono state spostate dalla url con php a quella nuova aspx (quindi i contenuti ci sono ancora tutti) usa un redirect 301, se non sai cos'è segui il link che si è attivato.Se i contenuti vecchi sono stati eliminati allora li devi prima bloccare con il robots.txt e poi richiederne l'eliminazine dal GWT oppure lasci solo il robots e aspetti (impiega diverso tempo a deindicizzare).
Se i vecchi contenuti fossero eliminati e avessero ottenuto backlink reindirizzali alla categoria nuova o alla home.
Se hai altre domande chiedi pure.
Ciao
Enea
-
Ciao Enea,
grazie mille.
Si, conosco i 301. Il mio caso è il secondo però.
Considera che si tratta di un ecommerce. I prodotti sono rimasti gli stessi bene o male ma sono cambiate schede, grafica, aggregazione degli stessi ecc., per cui non c' è una corrispondenza esatta, anzi.
I contenuti vecchi (PHP) sono stati eliminati e sostituiti da questi nuovi in aspx (ancora devo far realizzare l' url rewrite). Ma perchè devo bloccarli nel robots visto che sono pagine che non esistono più e visto che ho inoltrato una sitemap?Grazie ancora
Salvatore
-
Se il prodotto è lo stesso allora è meglio fare un redirect 301, non importa se hai cambiato grafica, migliorato desrizione ecc, è comunque lo stesso prodotto.
In questo caso il robots può servire per deindicizzare più velocemente le pagine rimosse (quelle che non esistono più).Ciao
Enea
-
Grazie Enea. Ho seguito il tuo consiglio sul bloccare i vecchi contenuti .php nel robots.txt e sto man mano facendo URL Removal da GWT (una 60-ina di url al giorno).
-
Ottimo :), tienici aggiornati se ci sono novità
Ciao
Enea
-
Ciao Enea,
ti confermo che, anche se lentamente, la cura sta funzionando e gli errori diminuiscono giorno dopo giorno.
Grazie e a prestoSalvatore
-
Perfetto :D, l'importante è aver risolto
Ciao
Enea