• User Attivo

    errore 404: pagine non trovate

    ciao a tutti :ciauz:

    Giovedì scorso ho inserito nel mio pannello di google webmaster tool un nuovo profilo di sito e relativa sitemap.

    Poche ore fa è passato googlebot e andando a controllare nel pannello trovo 18 errori 404.

    Seguono una lista di url inesistenti.

    Non capisco come li abbia generati o da dove li abbia presi: ho ricontrollato la sitemap: è corretta!

    Da escludere anche backlink "datati".

    Li ha costruiti lui navigando il sito? i link sono di tipo relativo..

    grazie in anticipo 😉


  • User Attivo

    forse una soluzione potrebbe essere quella di ricreare i 18 file che mi restituiscono l'errore 404 e piazzarci dentro un redir301... :bho:

    la cosa che mi inquieta però è che questi 18 file non appartengono al "vecchio" sito...

    i nomi dei file corrispondono, ma il percorso sembra stato composto direttamente da google ... in sostanza: non so dove abbia tirato fuori questi url:dotto: :mmm:

    che ne dite?


  • Super User

    Ciao, prima di tutto con cosa hai generato la sitemap ? viene generata dinamicamente da qualche componente di CMS o simili?


  • User Attivo

    @nbriani said:

    Ciao, prima di tutto con cosa hai generato la sitemap ? viene generata dinamicamente da qualche componente di CMS o simili?

    ciao nicola!!!

    grazie mille per l'intervento 😉

    la sitemap è stata generata con il fantastico script di stuart, e al suo interno non compaiono i link "incriminati" (404)....

    è stata verificata e non sembra presentare errori formali... :bho:


  • Super User

    ok prova a "generare" tutte le url del sito con qualche "spider" tipo Xenu ... verifica se "trova" le stesse url dinamiche ma inesistenti...


  • User Attivo

    @nbriani said:

    ok prova a "generare" tutte le url del sito con qualche "spider" tipo Xenu ... verifica se "trova" le stesse url dinamiche ma inesistenti...
    provato con xenu (la verifica link) e provato a generare sitemap ma di quelle url nessuna traccia.

    Ho provato alcuni tool online ma nessuno và in profondità come lo script di stuart :mmm:

    Ho provato gsite crawler e con l'opzione "check google first" attivata a trovato diversi 404 corrispondenti alla vecchia versione online (ma comunque url differenti rispetto a quelli che mi segnala google sitemap)

    mamma mia che confusione... :arrabbiato:


  • Super User

    Ok, ora cosa trovi invece su Google con il site: ? Sono indicizzate forse delle vecchie url che non esistono piu' di quel dominio, non c'entra nulla la sitemap appena pubblicata...


  • User Attivo

    @nbriani said:

    Ok, ora cosa trovi invece su Google con il site: ? Sono indicizzate forse delle vecchie url che non esistono piu' di quel dominio, non c'entra nulla la sitemap appena pubblicata...
    grazie mille nicola per l'opera pia che stai facendo 😉

    sì esatto..con il site: sono indicizzate solo le vecchie pagine.

    Però con determinate KW escono le nuove pagine...

    edit: ieri comparivano le pagine nuove...sia con site che con la ricerca di kw....

    oggi nulla
    ehm...non ci sto capendo molto :fumato:


  • User Attivo

    @18andLiFe said:

    grazie mille nicola per l'opera pia che stai facendo 😉

    sì esatto..con il site: sono indicizzate solo le vecchie pagine.

    edit: ieri comparivano le pagine nuove...sia con site che con la ricerca di kw....

    oggi nulla
    ehm...non ci sto capendo molto :fumato:
    a questo punto che sia anzitutto necessario far sparire le vecchie pagine da GG tramite un redirect 301 tramite htaccess.

    Come logica può funzionare se mi segno tutte le pagine restituite tramite il comendo site: e le includo nell' htaccess facendole puntare a quelle nuove? :mmm:

    E' meglio un htaccess o semplicemente utilizzare il servizio di rimozione url di google?

    Con il tempo le pagine non trovate scompariranno naturalmente dalle serp ma vorrei velocizzare l'operazione 😉