• Super User

    SiteMap - nuovo servizio Google

    Google ha creato un nuovo servizio che constente ai webmaster di indicare le pagine il proprio sito assegnando a ciascuna un ordine di priorità e informazioni sulla sua frequenza di aggiornamento.

    [url=http://www.motoricerca.info/news/news-141.html]**Articolo Google sitemap **
    [url=https://www.google.com/webmasters/sitemaps/login]Link al servizio google sitemap

    Consiste nella creazione di un semplice file xml, per i meno pratici google mete a disposizione un [url=https://www.google.com/webmasters/sitemaps/docs/en/sitemap-generator.html]sitemap Generator da installare in una directory del server, ha forse trovato il modo di spulciare i nostri file senza seguire i link (anche quelli che non volgiamo mostrargli? 😄 )
    Rimane comunque un servizio aggiuntivo e non sostituisce la normale attività di spiderizzazione di google.

    cosa ne pensate?


  • User Attivo

    interessante ora me lo studio un pò 🙂


  • Bannato Super User

    Per essere un romanista 😄 stai diventando sorprendente, bravo anche questa volta, oggi è la seconda volta che te lo dico 🙂 ..

    mo mu segno link e quando ho tempo gli do un occhio :sbonk:


  • Super User

    @Dell'Orto Fabio said:

    Per essere un romanista 😄 stai diventando sorprendente, bravo anche questa volta, oggi è la seconda volta che te lo dico 🙂 ..

    mo mu segno link e quando ho tempo gli do un occhio :sbonk:
    Caro Fabio tu mi sottovaluti... 😄 , no scherzo, mi fa piacere rivederti attivo sul forum...

    in merito al nuovo servizio Sitemap di google sono molto perplesso:

    • il servizio richiede la registrazione del wm e quindi google conosce tutti i siti legati al singolo WM (o fai diverse registrazioni e lo freghi)

    • il loro script per generare l'xml non mi piace perchè legge tutto quello che è sul mio server e quindi anche i file che non essendo linkati di norma non trova (es.: file usati per gli include nei siti dinamici ecc, sarei fregato 😄 )

    • sel nel file gli dico la frequenza di aggiornamento di una pagina e lui riscontra diversamente magari s'[email protected]@a

    a voi..


  • Bannato Super User

    Ho letto la pagina principale, sembra molto interessante... e accentua ancora di + il mio interesse verso xml, interesse ultimamente già messo a dura prova dai feed rss.

    A proposito cosa ne pensate di aprire un 3d a riguardo..... ? :yuppi:


  • Super User

    @Rinzi said:

    • il loro script per generare l'xml non mi piace perchè legge tutto quello che è sul mio server e quindi anche i file che non essendo linkati di norma non trova (es.: file usati per gli include nei siti dinamici ecc, sarei fregato 😄 )

    scusa ma questa è una stronzata assurda..google vede tutti i file del tuo sito in ogni caso 🙂 l'ha sempre fatto 😄

    in genere si basa sui link, ma se volesse potrebbe indicizzarti tutti i files anche quelli non linkati 🙂


  • User

    ? e come potrebbe farlo scusa? non ha accesso al file di log .. ne al path fisico della macchina


  • Super User

    @kerouac3001 said:

    @Rinzi said:

    • il loro script per generare l'xml non mi piace perchè legge tutto quello che è sul mio server e quindi anche i file che non essendo linkati di norma non trova (es.: file usati per gli include nei siti dinamici ecc, sarei fregato 😄 )

    scusa ma questa è una stronzata assurda..google vede tutti i file del tuo sito in ogni caso 🙂 l'ha sempre fatto 😄

    in genere si basa sui link, ma se volesse potrebbe indicizzarti tutti i files anche quelli non linkati 🙂

    forse intendevi una *affermazione sbagliata *;)

    comunque al momento non indicizza i file che non trova lincati nelle pagine e quindi i miei file di include ecc non vengono salvati nel db, al contrario se uno script estraneo ma residente sul server si occupasse della mappa google avrebbe accesso a tutto , se mai userò il servizio sitemap di ggogle lo script per generare l'xml lo scrivo di persona


  • Super User

    🙂 si..io cmq ho dato un'occhiata alla cosa e penso che non lo userò.

    Il problema è che potrebbe presto diventare una necessità, perchè un corretto utilizzo della googlemap permette certamente una migliore indicizzazione..dunque se i tuoi rivali di serp lo usano e tu non lo usi, potresti pagarne le conseguenze 🙂

    ma attualmente possiamo farne a meno


  • Super User

    @kerouac3001 said:

    Il problema è che potrebbe presto diventare una necessità, perchè un corretto utilizzo della googlemap permette certamente una migliore indicizzazione..dunque se i tuoi rivali di serp lo usano e tu non lo usi, potresti pagarne le conseguenze 🙂

    aspetta un attimo, è presto per tirare conclusioni e quindi sire che necessario per una Ottima indicizzazione, non so quanti seo ci cascheranno


  • Super User

    se molti seo ci "cascheranno" ti assicuro che sarà necessario 🙂

    è un modo per "comandare" il bot 🙂 dirgli quanto spesso visitare ogni pagina..dare un'importanza diversa ad ogni pagina e così via..se nessuno lo usera sarà uno strumento non indispensabile (ovvero tutto resta com'è)..ma se i seo cominceranno ad usarlo, allora dovremo addattarci.

    O meglio: diventerà importante analizzare la Googlemap per sfruttare al meglio le sue potenzialità

    Non credo sia presto per affermare queste cose..è solo presto per sapere se questo strumento verrà utilizzato da molti o se non lo utilizzerà nessuno 🙂


  • User

    "quanti seo ci cascheranno"??

    Se non hai nulla da nascondere perchè non farsi un buon sitemap.xml? Non vedo proprio dove possa essere il problema


  • Super User

    inoltre... google si farà dire da noi le pagine + importanti di un sito? dubito 😄


  • User Attivo

    @kerouac3001 said:

    @Rinzi said:

    • il loro script per generare l'xml non mi piace perchè legge tutto quello che è sul mio server e quindi anche i file che non essendo linkati di norma non trova (es.: file usati per gli include nei siti dinamici ecc, sarei fregato 😄 )

    scusa ma questa è una stronzata assurda..google vede tutti i file del tuo sito in ogni caso 🙂 l'ha sempre fatto 😄

    in genere si basa sui link, ma se volesse potrebbe indicizzarti tutti i files anche quelli non linkati 🙂

    Google vede tutte le pagine che tu linki dal tuo sito ma non le considera tutte,si prende in particolare quelle linkate dalla home page,le altre le considera molto..

    come farebbe a indicizzare tutti i file non linkati??non credo che si metta a sparare caratteri random per vedere se la pagian esiste 😄


  • Super User

    non capisco il motivo di tutta questa titubanza.

    un programmatore di livello medio basso con un bricciolo di capacità riesce a crearsi un sostuar per crearsi questa sitemap.

    se aiuta ad indicizzare le pagine tanto meglio no?

    a parte che sul mio sito non ho niente che voglio nascondere (tranne forse le statistiche ma quelle sono protette da pwd).

    tutti sempre a tentare di sapere quante pagine ha indicizzato gg del proprio sito, una volta che da uno strumentino semplice e pratico... vale la pena provare tanto più che ha dettoche se non c'è vale la situazione di prima quindi... si può provare la rapidità di questo sistema su un'area nuova non indicizzata.

    più pagine mi indicizza meglio è, poi per il posizionamento non penso serva a molto.

    io la provo ZUBITO.

    thanks rinzi

    :fumato: :ciauz:


  • Bannato Super User

    Ma credo che potrebbe essere interessante questo servizio, certo non l'ha certo pensato per farci un piacere 😄 pero' tornando su quanto sottolineato da Rinzi...

    Se non vuoi che legga determinate pagine potrai "credo" intervenire sulla pagina con in robot ? 🙂 A meno che se ne freghi pure di questo da oggi...


  • Super User

    se consideri l'idea di scriverlo tu questo file e di conseguenza non inserire collegamenti a pagine che non desideri vengano spiderizzate... rimane tutto esattamente come è adesso no? :mmm: :mmm:


  • Super User

    Io ho provato lo script e mi pare che abbia delle grosse magagne.

    1. non sono riuscito a fargli seguire i link dinamici (cioè .php?eccetera)
    2. dato che viene eseguito lato server lo scipt vede TUTTI i file, anche, giusto per fare un esempio, il connections.php Basta intervenire manualmente e togliere quello che non serve.
    3. per lo stesso motivo vede tutti i css, i js e le immagini, con le necessarie controindicazioni

    A me farebbe comodo usarlo, più che altro perchè il fetente mi ha indizzato 1/16 dell'1% del sito, mi piacerebbe farlo entrare un po' più in profondità ma a questo scopo la via migliore mi sembra produrre manualmente o giù di lì un file .txt con i link dinamici e passarli allo script.


  • Super User

    @Tymba said:

    se consideri l'idea di scriverlo tu questo file e di conseguenza non inserire collegamenti a pagine che non desideri vengano spiderizzate... rimane tutto esattamente come è adesso no? :mmm: :mmm:

    Forse disco una boiata e me ne scuso, ma spulciando le faq delle servizio GG dice che indicizzerà SOLO i file segnalati nel file, cioè smetterà di fare il crawl del sito?????


  • Super User

    sbagliato 🙂

    per quello non incluso nella site map verrà usata la procedura normale.
    ed in ogni caso la site map in quel modo non è per gg una regola ma il solito consiglio.