- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- file txt per yahoo con Gsitecrawler
-
ciao, anche io uso gsitecrawler e da un po' di tempo non creo più la sitemap apposita per Yahoo. Sottopongo a Yahoo la stessa sitemap creata per Google, ti assicuro che da quando lo faccio anche Yahoo mi ha indicizzato più o meno lo stesso numero di pagine di Google (circa 300.000). Prima stentava e rimaneva sulle 15/20000
Ti consiglio di provare..... è anche più comodo
Ciao
Lorenzo
-
Immaginavo e poi me ne sono convinto ancora di più rileggendo sitemap.org
Grazie comunque della conferma
-
La sitemap che viene generata dal software gsitecrawler è già pronta con uno standard in modo che possa andare bene sia con yahoo che con google.
Consiglio vivamente di utilizzare questo metodo, funziona!A presto
Gianni
-
ok fatto,
ma ora ho un altro dubbio:
in google sitemap carico solo l'index o anche le altre? questo perché ho già caricato tutto ma a fianco dell'index ho il totale degli url e poi a fianco di ogni pezzo di sitemaps ho il parziale...
nel senso era sufficiente caricare la index e poi automaticamente va lui a vedere gli altri e quindi ho fatto un doppione ?
o comunque non gli fa male averli dentro tutti?
-
no, è sufficiente caricare solo l'index, poi va lui a scovare tutti i vari pezzi di sitemap che hai caricato sul sito.
Penso comunque che male non faccia, piuttosto è un lavoro inutile.... la mia sitemap è spezzettata in 24 parti, se ogni volta dovessi inserire tutti i 24 pezzi sarebbe un lavoraccio.
Così invece se li trova google automaticamente
Ciao
-
In gg sitemap basta caricare un unico file, poi è il robot che pensa a fare tutto il lavoro di spiderizzazione.
A presto
Gianni
-
Scusa polipoli
ma come fai a tenere aggiornata la sitemap di 300.000 pagine... ?
deduco che anche il tuo sito sia dinamico e quindi come nel mio caso ogni giorno ci siano pagine nuove e ogni giorno alcune spariscano.
Inoltre in funzione delle schede finali nuove o cancellate ogni giorno ti puoi trovare delle sezioni/nodi che oggi ci sono e domani no o viceversa...
Ho letto in altri post di aggiornamenti automatici via server ma penso che ciò sia fattibile solo per le schede finali e non per le sezioni/nodi che sono sopra di loro.
Ho quindi pensato che alla fine usare Gsitecrawler sarà la cosa migliore è che ci mette una settimana per fare tutto il sito. Nel frattempo penserò a crearmi una pagina apposta che mi tenga traccia di tutte le nuove schede e i nuovi nodi e gli faccio spiderizzare solo quelli.
Tu come fai?
-
mchgrg, hai mai pensato di utilizzare gli RSS?
Io in alcuni miei siti utilizzo gli rss e sottopongo l'url a gg sitemap. Funziona, così rimane sempre aggiornato.A presto
Gianni
-
ce li ho anche....
ma così risolvo solo i nuovi url ma le schede che vengono cancellate e quindi non ho più rimangono nelle sitemap
-
Anche questo è vero..
Bisognerebbe trovare un'altra soluzione allora.
-
Io periodicamente genero la sitemap importando in Gsitecrawler un file txt che contiene l'elenco di tutti gli url del sito. Questo file lo genero direttamente sul server.
Questa operazione la faccio ogni 2 settimane circa, non è la soluzione ottimale ma non va abbastanza bene. Ora però dovrei studiare un modo per fare una sorta di sitemap incrementale....