- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- errore 404: pagine non trovate
-
errore 404: pagine non trovate
ciao a tutti
Giovedì scorso ho inserito nel mio pannello di google webmaster tool un nuovo profilo di sito e relativa sitemap.
Poche ore fa è passato googlebot e andando a controllare nel pannello trovo 18 errori 404.
Seguono una lista di url inesistenti.
Non capisco come li abbia generati o da dove li abbia presi: ho ricontrollato la sitemap: è corretta!
Da escludere anche backlink "datati".
Li ha costruiti lui navigando il sito? i link sono di tipo relativo..
grazie in anticipo
-
forse una soluzione potrebbe essere quella di ricreare i 18 file che mi restituiscono l'errore 404 e piazzarci dentro un redir301... :bho:
la cosa che mi inquieta però è che questi 18 file non appartengono al "vecchio" sito...
i nomi dei file corrispondono, ma il percorso sembra stato composto direttamente da google ... in sostanza: non so dove abbia tirato fuori questi url
che ne dite?
-
Ciao, prima di tutto con cosa hai generato la sitemap ? viene generata dinamicamente da qualche componente di CMS o simili?
-
@nbriani said:
Ciao, prima di tutto con cosa hai generato la sitemap ? viene generata dinamicamente da qualche componente di CMS o simili?
ciao nicola!!!
grazie mille per l'intervento
la sitemap è stata generata con il fantastico script di stuart, e al suo interno non compaiono i link "incriminati" (404)....
è stata verificata e non sembra presentare errori formali... :bho:
-
ok prova a "generare" tutte le url del sito con qualche "spider" tipo Xenu ... verifica se "trova" le stesse url dinamiche ma inesistenti...
-
@nbriani said:
ok prova a "generare" tutte le url del sito con qualche "spider" tipo Xenu ... verifica se "trova" le stesse url dinamiche ma inesistenti...
provato con xenu (la verifica link) e provato a generare sitemap ma di quelle url nessuna traccia.Ho provato alcuni tool online ma nessuno và in profondità come lo script di stuart
Ho provato gsite crawler e con l'opzione "check google first" attivata a trovato diversi 404 corrispondenti alla vecchia versione online (ma comunque url differenti rispetto a quelli che mi segnala google sitemap)
mamma mia che confusione...
-
Ok, ora cosa trovi invece su Google con il site: ? Sono indicizzate forse delle vecchie url che non esistono piu' di quel dominio, non c'entra nulla la sitemap appena pubblicata...
-
@nbriani said:
Ok, ora cosa trovi invece su Google con il site: ? Sono indicizzate forse delle vecchie url che non esistono piu' di quel dominio, non c'entra nulla la sitemap appena pubblicata...
grazie mille nicola per l'opera pia che stai facendosì esatto..con il site: sono indicizzate solo le vecchie pagine.
Però con determinate KW escono le nuove pagine...
edit: ieri comparivano le pagine nuove...sia con site che con la ricerca di kw....
oggi nulla
ehm...non ci sto capendo molto
-
@18andLiFe said:
grazie mille nicola per l'opera pia che stai facendo
sì esatto..con il site: sono indicizzate solo le vecchie pagine.
edit: ieri comparivano le pagine nuove...sia con site che con la ricerca di kw....
oggi nulla
ehm...non ci sto capendo molto
a questo punto che sia anzitutto necessario far sparire le vecchie pagine da GG tramite un redirect 301 tramite htaccess.Come logica può funzionare se mi segno tutte le pagine restituite tramite il comendo site: e le includo nell' htaccess facendole puntare a quelle nuove?
E' meglio un htaccess o semplicemente utilizzare il servizio di rimozione url di google?
Con il tempo le pagine non trovate scompariranno naturalmente dalle serp ma vorrei velocizzare l'operazione