- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- sitemap: domande banali?
-
sitemap: domande banali?
ciao,
ho qualche domanda che a voi sembreranno banali, ma non riesco a capire alcune cose.
Ho fatto compilare una sitemap da una risorsa estarna e mi trovo tra gli altri questi url:
<loc>miosito.it/</loc>
<loc>miosito.it/index.html</loc>
1a domanda: non sono la stessa pagina?
2a domanda: è utile inserire tutte le pagine, compreso la sitemap.html ?
3a domanda: il nome della sitemap che carico su google è sitemap.xml, non può fare confusione con la versione html ?
4a domanda: vorrei inserire anche le immagini, google lo prevede e mi sembra che lo ritenga utile, ma qua ho letto qualche dubbio in proposito.
-
Ciao jumpiero, per la prima domanda la risposta è si, / e index.html sono la stessa pagina. Io presenterei solo la prima.
2a: è utile presentare tutte le pagine, anche sitemap.html.
3a: no, non si fa confusione; una è una pagina html, l'altra un file xml.
4a: inserisci tranquillamente anche la sitemap per immagini, fa solo bene.Valerio Notarfrancesco
-
caspita Valerio... velocissimo, grazie!
tutto chiaro tranne per la 4aio ho usato questa struttura:
<url>
<loc>miosito.it/</loc>
<lastmod>2011-07-18T17:42:14+00:00</lastmod>
<changefreq>monthly</changefreq>
<priority>1.0</priority>
image:image
image:locmiosito/images/foto/brochure.jpg</image:loc>
</image:image>vale a dire che ho messo tutto sulla stessa site. è corretto?
aggiungo un'ultima domanda:
il file robot.txt - essendo il sito semplicissimo, c'è un motivo valido per usare il file robot o anche il meta sulle pagine?
mi spiego meglio: non avendo dati da nascondere, c'è qualche motivo legato al posizionamento per il quale mi conviene dare indicazioni ai robot con il file txt o con i meta sulle pagine?
-
Il codice della sitemap mi sembra corretto solo che io ho sempre inviato sitemap separate per le immagini da quella per le pagine. Tra l'altro c'è un'interessante discussione su come l'invio di sitemap separate possa far aumentare il traffico.
Puoi usare il file robots per bloccare quelle pagine di servizio o generate automaticamente dal cms (se ne usi uno) che potrebbero crearti ad esempio dei contenuti duplicati, altrimenti non bloccare niente.
Valerio Notarfrancesco
-
grazie valerio.
l'aumento del traffico è un ottimo stimolo, corro subito a dividere il codice.ciao