- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Sitemap con link duplicati
-
Sitemap con link duplicati
Ciao a tutti,
analizzando la sitemap del sito aziendale, mi sono resa conto che ci sono moltissimi link duplicati e molti link che sono in "disallow" sul file robot.txt.
Queste due cose possono creare problemi di indicizzazione secondo la vostra esperienza?Buona serata
Mary
-
Ciao
Link duplicati interni, come è possibile? Come generi la Sitemap?Se sono in disallow non saranno indicizzati.
-
Ciao. È il CMS del fornitore che la genera in automatico. Il problema è che dentro ci ho trovato url duplicati, url inesistenti, e url che sono in disallow. Inoltre questo programmino fissa tutte le url a priorità uguale, modifica giornaliera e ultima modifica settata sempre a oggi.
Con queste premesse vorrei capire se non mi convenga rifare la sitemap.
-
Ciao
a questo punto contatta il fornitore e chiedi spiegazioni. La sitemap deve essere dinamica e in tempo reale.
-
@Sermatica said:
Ciao
a questo punto contatta il fornitore e chiedi spiegazioni. La sitemap deve essere dinamica e in tempo reale.Ma è corretto che dia lo stesso valore a tutte le pagine? Non mi converrebbe farla a mano a questo punto?
-
Ciao
in che senso lo stesso valore in tutte le pagine? A mio avviso non ha più senso, salvo casi particolari, gestire certe cose a mano in quanto il tempo che dedicheresti a fare la sitemap lo potresti dedicare a migliorare il sito nella Ux e nei contenuti.
-
Ciao faccio una precisazione, la direttiva disallow nel robot.txt dice la crawler di non scansionare una determinata url. Questo NON significa assolutamente che l'url non sarà indicizzata infatti, se la pagina è stata indicizzata precedentemente oppure se ci sono link esterni che puntano a questa url allora Google la indicizzerà. Discorso ben diverso è il NoIndex grazie al quale effettivamente si indica a Google di non indicizzare la pagina.
Per assurdo, se una pagina è in NoIndex e viene indicato il disallow nel robots, la pagina resterà indicizzata in quanto il crawler non riuscirà a scansionare la pagina e non vedrà mai il Noindex.
-
Grazie Simone