• User

    Molti errori 404 di pagine non più esistenti

    Caso di un sito.
    Entro in Google Webmaster Tool e trovo che nella panoramica di errori di scansione ce ne sono 2400 di Non trovato.
    Approfonidsco e vedo che questi 2400 url sono url di pagine del forum ormai non più esistenti perchè il sito ha cambiato cms, ha cambiato forums ecc.
    Cosa conviene fare in questi casi?

    • Lavoro da amanuense e andare ad inserire nel robots.txt ognuno dei 2400 url più gli eventuali che magari verranno trovati in seguito.
    • inetervenire direttamente sul .htaccess e andare dichiarare che ogni errore 404 trovato deve fare un redirect alla home ad esempio ( eventualmente con che codice? )
    • fregarsene e lasciare così tanto non sono errori che penalizzano
    • altro ( consigliate 🙂 )

  • Moderatore

    Ciao nwa,
    la prima cosa da fare in caso gli url non esistano più è bloccare la "cartella" con il robots.txt quindi chiedere l'eliminazione dal GWT ed attendere, nel tuo caso anche diversi mesi, che google elimini gli errori.

    Nel caso in cui alcune pagine abbiano link interni dal tuo sito devi eliminare questi collegamenti, se hanno backlink provenienti da altri siti se puoi chiedi che vengano rimossi altrimenti fai un redirect 301 alla home o ad una categoria più pertinente alla pagina non più esistente.

    Se hai altre domande chiedi pure 🙂

    Ciao
    Enea


  • User

    Una volta inseriti tutti nel robots.txt poi conviene sempre fare un redirect 301 nel .htaccess verso le pagine attive maggiormente pertinenti?

    Quando faccio la richiesta di rimozione devo mettermi ad indicarne una alla volta? Non esiste un modo per chiedere la rimozione di tutti gli indirizzi che soddisfano alcuni criteri? Tipo ... rimuovere tutti gli url che contengono un punto interrogativo esclusi quelli che finiscono con un punto interrogativo, così come si fa nel robots.txt


  • Moderatore

    Nel robots.txt non inserisci tutti gli url ma la cartella madre, il 301 lo usi se necessario dove necessario, meno righe di codice carichi sul server meno banda consumi anche se sono pochi Kb.

    Puoi richiede l'eliminazione della directory dove erano ospitate le pagine.

    Ciao
    Enea


  • User

    Non è così semplice come dici perchè in una cartella che contiene diciamo 2.000 pagine ce ne sono 900 ( tutte differenti ) da dover inibire a google e quindi non posso inserire semplicemente la url della cartella madre perchè la gran parte dei file in essa contenuti mi serve che vengano indicizzati.

    Stesso discorso per la richiesta di eliminazione della URL della cartella madre ... io non devo far eliminare un intera cartella ma circa 900 pagine differenti appartenenti a questa cartella di circa 2000 pagine.


  • Moderatore

    Ecco, prima non avevo queste informazioni 🙂

    Allora puoi fare così per non complicarti troppo la vita, se queste pagine hanno un identificativo univoco fra loro e diverso da tutte le altre pagine "buone" crei la regola sul robots e basta, aspetti qualche mese e vedi se google ha deindicizzato questi contenuti, se alcuni hanno link fai come ti ho suggerito prima.

    L'eliminazione dal GWT serve più che altro per velocizzare questo processo ma non è fondamentale alla riuscita di ciò che vuoi fare.

    Ciao
    Enea


  • User

    @overclokk said:

    ...

    Ok,
    grazie per le risposte. Speriamo questa sia la strada giusta.

    Una domanda: ho chiesto già a google per questo sito la riconsiderazione perchè ho perso moltissime posizioni in cui ero primo in prima pagina. Mi hanno risposto che non c'era nulla da ricononsiderare perchè non c'era stata alcuna penalizzazione per spam da parte di google.
    A questo punto, a far retrocedere in modo così repentino un sito dalla prima alla 15° posizione per gran parte delle keywords principali può essere stato il solo fatto di avere in GWT 2500 errori 404 ? Mi spiego meglio, può essere che correggendo questi errori, portandoli magari a 0 si riesca a riscalare la serp di google? Il Panda e il Pinguino non so che importanza possano aver avuto in questa penalizzazione anche perchè non ho mai usato tecniche black per promuovere il sito o addirittura non ho mai spinto al massimo le tecniche seo per cercare ad esempio di creare backlink fittizi o altri. La popolarità che avevo raggiunto su google era spontanea, e adesso in modo altrettanto spontaneo sta svanendo.


  • Moderatore

    Se eri in 1° pagina e sei finito in 15° pagina probabilmente i problemi sono altri, nel caso ti consiglio di aprire un thread nella sezione apposita: consigli seo e penalizzazioni.

    Ciao
    Enea


  • User

    No, sono passato dalla prima posizione alla 15° quindi dalla prima alla seconda pagina ... ma il calo è ugualmente pesante.
    Poi dove mi consigli di aprire un thread?


  • Moderatore

    Ok, ho capito male io 🙂
    Ti ho messo il link nel messaggio precedente, leggi bene il regolamento di quella sezione e poi posta il tuo problema.

    Ciao
    Enea