• User

    Redirect 301 o Errore 404 ?

    Ciao a tutti
    spero di essere nel posto giusto.
    Per venire fuori da una penalizzazione, per la quale non ho ben capito la vera causa, ho riscritto le URL del mio sito che probabilmente erano un pò troppo sovraottimizzate.

    Inoltre ho provveduto a migliorare alcune pagine, ad esempio la mappa del sito, ora suddivisa in ordine alfabetico.

    Quello che voglio chiedervi ...
    Le pagine che non esistono più faccio bene a metterle in errore 404?
    Ho realizzato una pagina personalizzata dove specifico che la pagina non è più esistente ed ho messo un link alla homepage.

    Le pagine che hanno cambiato URL, più di 25000, le devo mettere con redirect 301 con assegnati i nuovi URL ???
    Vi chiedo questo perchè ho visto che nel pannello degli strumenti per i webmaster su Google mi viene segnalato che sono presenti troppi redirect.

    Forse è meglio mettere i redirect 301 e per un pò togliere la segnalazione della sitemap.xml ??

    Ok attendo una vostra gentile consulenza
    Ciao


  • Moderatore

    Ciao serkillalot e Benvenuto nel Forum GT.

    Senza omba di dubbio utilizza il redirect 301 e limita al massimo la presenza di errori 404, anzi toglili del tutto.


  • User

    Ciao e mille grazie.
    Stavo pensando che molto probabilmente i troppi redirect segnalatomi dal tool della sitemap sul mio account di Google, sono ancora presenti nella sitemap.xml

    Allora farò come mi hai detto levo tutti i 404 e al massimo se le pagine non esistono più le reinderizzo alla home.

    grazie mille


  • Moderatore

    @serkillalot said:

    e al massimo se le pagine non esistono più le reinderizzo alla home.

    Non farlo assolutamente. Se una pagina non esiste più non deve esistere e basta. Bloccale col robots.txt e segnala la rimozione col WBT.


  • Super User

    Confermo che ho da poco eseguito un'operazione del genere su diverse migliaia di pagine.
    Per qualche giorno avrai degli avvisi nel webmaster tool (sezione sitemap), ma poi spariranno man mano che i nuovi url nelle sitemap vengono elaborati.


  • User

    @Gorka said:

    Confermo che ho da poco eseguito un'operazione del genere su diverse migliaia di pagine.
    Per qualche giorno avrai degli avvisi nel webmaster tool (sezione sitemap), ma poi spariranno man mano che i nuovi url nelle sitemap vengono elaborati.

    Ho dovuto ristrutturare un sito, e mi è capitato appunto che - nonostante la nuova Sitemap, ci siano segnalazioni di errori dei vecchi URL.

    Pochi in effetti - il sito era ed è di dimensioni ridotte.

    Ho generato un robots.txt che disabilita l'accesso a quelle pagine. Che nella realtà non esistono più.

    Sono a posto, o avrò altri guai? :mmm:


  • User Attivo

    @PsYCHo said:

    Non farlo assolutamente. Se una pagina non esiste più non deve esistere e basta. Bloccale col robots.txt e segnala la rimozione col WBT.

    Ciao Psicho,

    Cosa intendi per bloccare con il robots.txt? significa inserire la seguente dicitura?
    User-agent: *
    Disallow: /

    per quanto riguarda il file sitemap.xml, devo segnalare che non indicizzo più nessuna pagina? ossia indico solo la home page?

    grazie
    Lilo