- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Strumenti X WebMaster - Url non trovato
-
Strumenti X WebMaster - Url non trovato
Ciao a tutti...
sono nuova del forum ed ho guardato un po ma non ho trovato nulla di relativo a questo argomento.
In pratica negli strumenti per WebMaster che google mette a disposione, nella sezione "scansione web", mi indica che nel mio portale ci sono oltre 4.000 "Url non trovate".Di fatti le pagine che mi indica sono perlopiù pagine non esistenti quindi capisco bene il motivo per cui nn le trova!
Ma per poter correggere questi link, necessito delle pagine di provenienza...
Per le pagine Html il problema potrebbe essere risolto abbastanza velocemente (dico abbastanza perche sono veramente tante tante pagine) utilizzando dreamweaver o similare,
ma per la pagine del database come posso fare???I link spesso sono creati automaticamente e cercare gli errori manualmente è umanamente impossibile!!
Quello che sto cercando di fatti è un sito che come googlebot analizza il mio dominio e invece di dirmi quali sono gli url sbagliati mi dica quali sono le pagine che contengono questi url sbagliati...
Si tratta principalmente di pagine di questo tipo
www.dominio.it/cartella/nomedatabase.nsf/nomepagine?opendocumentQualche suggerimento???
grazie!
-
Ciao Didif78 e benvenuta sul Forum GT !
Scusa se ti rispondo con una domanda, ma quelle URL con errore 404 devono essere indicizzate dai motori oppure no?
Grazie, ciao
-
Ciao Dechigno e grazie mille per la pronta risposta!
quegli url no, non dovrebbero ex indicizzati...ma quelli corretti si!!
Vorrei trovare questi link sbagliati per correggerli e quindi per dare al googlebot la possibilita di seguirle ed indicizzarli...
idee?
-
Potresti dirigere lo spider solamente dove serve indicizzare, con il file robots.txt
puoi trovare maggiori info qui: http://it.wikipedia.org/wiki/Robots.txt
-
ma io vorrei indicizzare tutte le pagine e trovando i link alle pagine sbagliate riuscirei nel mio intento...invece se limito le pagine dal robots.txt ho risultato inverso!!
bah...rimarrà un mistero irrisolvibile!
-
Allora potresti settare il server che per ogni volta che trovi un errore 404 ti fa il redirect alla directory superiore... non so se mi sono spiegato.. ma in questo modo non potranno più esserci errori...
-
...c'è già...ma il problema nn è risolto...è una maniera per aggirarlo...ma i link sbagliati rimangono e google continua a trovare pagine non trovate (che dal mio server sono poi reindirizzate alla cartella superiore...), che invece vorrei far trovare....
-
Aspettiamo qualche tecnico del settore allora...
Dai ragazzi una giovane fanciulla ha bisogno di consulenza tecnica
-
@didif78 said:
...c'è già...ma il problema nn è risolto...è una maniera per aggirarlo...ma i link sbagliati rimangono e google continua a trovare pagine non trovate (che dal mio server sono poi reindirizzate alla cartella superiore...), che invece vorrei far trovare....
Prova con Gsitecrawler
Setting>General
Action on error 404 setta: Mark url as not included
Ciao Ale