- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- SiteMap - nuovo servizio Google
-
@Rinzi said:
comunque per ora non mi fido di questo sistema
-
@must said:
@Rinzi said:
comunque per ora non mi fido di questo sistema
confermo che per ora non mi fido e non sottoporro a google sitemap di siti per me importanti, il tempo e i test diranno se la nuova soluzione google è utile e quanto ai fini di un buon posizionamento.cosa c'è di strano? ()
-
niente, quotavo con ghigno malefico perche' io sposo la teoria di key: e' un trojan
-
da un 'ghigno malefico' non si capisce l'opinione di una persona
comunque trojan lo è in parte, si può generare la mappa senza utilizzare il SiteMap generator di google
-
Grazie Tymba per il tuo contributo.
Vediamo invece di capire il perchè e delle varie teorie che ci sono in giro?
@giorgiotave said:
Credo che tutte le mosse di google siano mirate per avere una mole di dati molto ampia e catalogare al meglio le sue serp.
Veramente google lo ha dichiarato nei brevetti, non mi sembrano teorie nuove :bho:
-
vabbe', io ho cliccato su una faccina nel cui codice c'e' scritto "quote".
ma se vuoi, sparami :rambo:
-
@must said:
vabbe', io ho cliccato su una faccina nel cui codice c'e' scritto "quote".
ma se vuoi, sparami :rambo:
no perchè...
-
imho se gg avesse dato solo la struttura del file xml senza alcuno script da montare non ci sarebbe stato tutto questo polverone
-
scusate se mi dilungo.
[premessa]
Google oggi è il motore più usato al mondo e forse anche il migliore.
Il primo obiettivo di G è rendere un servizio sempre migliore agli utenti.
[/premessa][Introduzione Tecnica]
Oggi molti servizi di Google interegiscono mediate fogli XML/RSS, toolbar compresa, quindi questa tecnologia è già sfruttata da GG per fare le sue statistiche e i suoi resoconti, solo che noi non abbiamo accesso al server toolbar per questo non c'è ne siamo mai resi conto.
[/intro]Non mi stupisco che GG abbia lanciato questo servizio.
Prendiamo un sito come repubblica che ha un 40% del sito che aggiorna ogni ora del giorno!!! un'altro 20% viene aggiornato 1 volta al giorno ed il restatante 30% da 4 a 15 volte al mese.
Mi sembra ovvio che far passare lo spider su tutto il sito, quando magari è stata aggiornata solo una NEWS è esagerato.Altra considerazione è quella dell'interazione fra servizi interni a GG, già la toolbar funziona in XML e le stesse SEPRS vengno generate codificando un RSS, quindi avere la possibilità di recuperare informazioni (da altri server) con la stessa struttura con cui magari si effettua una ricerca è un vantaggio per loro.
terzo ed ultimo motivo, con la Toolbar GG tiene sotto controllo gli utenti che navigano, adesso prova a tenete sotto controllo anche i domini.
*sotto controllo: non intendo spiare, tanto quello già lo fà con i suoi BOT.
-
in una scala da 1 a 100, con i suoi bot google puo' spiare 1, con la toolbar puo' spiare 100.
con sitemaps, il valore oscilla tra 2 e 99.
-
@must said:
in una scala da 1 a 100, con i suoi bot google puo' spiare 1, con la toolbar puo' spiare 100.
con sitemaps, il valore oscilla tra 2 e 99.
come dico anche io, con la TB ha accesso completo ai movimenti degli utenti, adesso stà trovando qualcosa che gli dia anche accesso ai server.
credo che non sia un male, anzi, in questo modo i piccoli webmaster potrebbero essere premiati.
-
Se a qualcuno può servire qui c'è uno script php per la generazione del sitemap.
Io l'ho provato, sembra funzionare ma purtroppo non va bene per quello che serve a me
-
Scusate, ma come si crea questo file xml?
Ad esempio io ho un server su Aruba con hosting win2003, ma ho accesso solo via ftp, quindi come faccio?
Posso crearlo con excel? E quale formato deve avere?
Grazie anticipatamente
-
o usi il [url=https://www.google.com/webmasters/sitemaps/docs/en/sitemap-generator.html]sitemap generator
o
segui il formato que trovi
[url=https://www.google.com/webmasters/sitemaps/docs/en/protocol.html]qui
-
in base alla mia piccola esperienza, posso dire che dopo aver creato e sottoposto il file, generato "a manella", Google mi ha indicizzato ben 20 pagine.
Sarò certamente un ingenuo, però mi sembra che il MdR in questo modo ha a disposizione una sitemap "ufficiale", in un formato peraltro comodo che gli permette di risparmiare risorse. Sono ancora più ingenuo: mi sembra che si vada nella direzione di favorire siti ben "curati"
-
ok, vorrei sapere ora ogni quanto passa sulle tue pagine, grazie
-
onestamente non guardo mai i files di log, quindi non so esattamente quante volte al giorno passi il bot di google. Posso dirti che almeno una volta al dì mi fa visita.
-
forse però c'è un piccolo problemino anche a non usare il suo script.
ogni volta che accedo a google account suppongo che gg si memorizzi i miei dati compreso l'ip.
ora poniamo di avere due siti su due server e ip distinti.
creo due email e quindi due account google
accedo con la prima per caricare la site map
accedo con la seconda per caricare la site mapgg fa il confronto tra ip ed ecco rilevato un network di siti.
tutti i link che vanno da uno all'altro sito perdono di valore.può avere un fondo di triste verità questo ragionamento?
a parte che questi "ragionamenti" possono essere fatti anche con l'account di adsense.
se metto gli annunci su tutti i miei siti gg trova tranquillamente il mio piccolo network
-
Uhm, secondo me no.
Ci saranno web agency che invieranno mappe di centianaia di siti di clienti. Che fa, li considera tutti affiliati?
-
potrebbe considerarli per evitare che vengano messi bl con l'unico scopo di scalare le serp.