- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Robots.txt al contrario
-
Robots.txt al contrario
Ciao a tutti!!
Un sito che controllo dal punto di vista del posizionamento non ha le pagine più importanti indicizzate sui motori di ricerca mentre invece ha nel suo archivio pagine più interne e meno importanti. Es. ha indicizzato la pagina miosito.it/disney/topolino/minnie.html e non la pagina miosito.it/disney/.
Volevo chiedere a voi piu esperti se credete sia meglio avere indicizzate 100 pagine a caso oppure 10 pagine mirate?
A tal proposito, esiste il modo di dire allo spider di andare a cercare una determinata pagina (un po il contrario del robots.txt che dice quali non visitare) sitemap a parte?
Grazie a tutti
CIAO
-
Ciao,
La soluzione migliore è avere dei link che puntano a tutte le pagine del sito.
Puoi comunque creare una sitemap in html ed una xml da segnalare ai motori.
Dai uno sguardo alla sezione protocollo sitemaps
-
Grazie bocas, però:
Volevo chiedere se credete sia meglio avere indicizzate 100 pagine a caso oppure 10 pagine mirate?
A tal proposito, esiste il modo di dire allo spider di andare a cercare una determinata pagina (un po il contrario del robots.txt che dice quali non visitare) sitemap a parte?
Buona giornata a tutti
-
@wingroup said:
Volevo chiedere se credete sia meglio avere indicizzate 100 pagine a caso oppure 10 pagine mirate?
E' tutto relativo, dipende dalle tue esigenze.
Se 10 pagine mirate mi portano il 90% del traffico, mentre 100 a caso me ne portano solamente il 10%, tra le due preferisco le 10 mirate.
Ma in realtà sarebbe meglio avere tutte le pagine ben posizionate.
@wingroup said:
A tal proposito, esiste il modo di dire allo spider di andare a cercare una determinata pagina (un po il contrario del robots.txt che dice quali non visitare) sitemap a parte?
Più link e contenuti freschi e originali ha una pagina, più viene ritenuta importante dallo spider.
Questa è la migliore via a mio parere.
-
Grazie Emanuele, molto gentile.