• Super User

    @Serp said:

    Vedi Stuart, il problema a cui sei andato incontro è che ti sei fatto da solo una domanda ed in virtù di quella tua domanda, a cui hai ti sei dato una risposta, hai preso una serie di infilate sbagliate.
    Anche sforzandomi, caro Serp, non riesco ad intravedere alcun problema o contraddizione in ciò che ho affermato prima e dopo il tuo stimolante intervento.

    Hai fatto una dichiarazione basata sulla tua esperienza, a ragion veduta quindi. Spero. Che per quanto tu ti possa essere impegnato, non sei riuscito a ribaltarmi contro.

    La differenza tra me e te è che tu ti sei immediatamente autoesentato dal fornire una fonte, una prova, un test, un file di log a supporto della tua tesi; io mi sono riproposto di sperimentare se quanto dici è vero (verosimile lo è sicuramente).

    Nulla di personale, s'intende. Spero di poter dire la stessa cosa di te.

    Cordialmente,
    Stuart


  • User Attivo

    Non entro nel merito di file map proprietari letti ed utilizzati anche da altri motori, perche' personalmente non mi sono mai posto neanche la domanda se utilizzare un file map.

    Non me la sono posta perche' a mio avviso la risposta e' semplicemente no.

    Per spiderizzare le pagine di un sito i motori si nutrono (letteralmente) dei link nelle pagine del sito stesso, o di quelli esterni.

    I link dentro il sito permetteno ai motori di capire i livelli, l'importanza delle pagine lincate in base a dove sono posizionati i link, in base al numero dei link che lincano una pagina, dalle keylink di riferimento e via dicendo.

    Questi dati sono vitali per i motori e pensare che un motore possa, anche solo parzialmente, affiancare queste informazioni prendendo spunto da un elenco di url (fossero anche messe in ordine di importanza da parte del wb) e' illogico.


    Se io motore non trovo una pagina perche' magari e' presente a livello diciassettesimo, ed il sito che sto analizzando non merita che il mio spider scenda ad analizzare tale livello, se la pagina non ha link esterni, col cavolo che io motore son contento di vedermi un elenco di pagine delle quali non me ne importa nulla....

    E non me importa nulla perche' allo stesso wm non importa nulla di quelle pagine, viceversa le avrebbe ben lincate dalle sue pagine forti o di buon livello. O le avrebbe lincate da siti esterni. O se valide riceverebbero link spontanei.

    Allora, no buoni link interni, no buoni link esterni... ed in un momento in cui tutti i motori cercano di ripulire i db ma miliardi di pagine poco viste, di infimo livello (inteso in senso numerico, non di contenuti), con contenuti poco richiesti, mentre cercano di ottimizzare al massimo le risorse degli spider per spingerli solo dove possono trovare pagine veramente "forti" al costo di ignorare mezzi siti... dovremmo illuderci che una "map esterna" sia usata a fini positivi?

    Ma se una pagina e' visibile al motore per vie "naturali" che senso ha elencarla nel map esterno?

    E se non e' visibile o difficilmente raggiungibile tramite vie "naturali" pensate che un motore si faccia "persuadere" da un elenco che non gli dicce nulla se non che c'e' presente nel sito anche quella pagina??


    Certo magari la spiderizzera' anche, per poi penalizzare le pagine forti in quanto le sue risorse sono state disperse, penalizzate nel prendere atto del file map e delle pagine orfane (o quasi) contenute nel suo interno.

    Le pagine sfigate elencate nel map non avranno poi accessi, o se ne avranno, si paghera' quei pochi accessi in piu' al caro costo di veder diventare "lente" le pagine forti. E piu' una pagine e' lenta piu' perde posizioni.

    Si svende il buono in cambio di una manciata di cattivo.


    Le map esterne sono state concepite per fregare il wm, con la speranza che un wm od un seo usi un solo account per elencare magari tutti i siti dei suoi clienti, cosi' da identificare i vari network.

    Sono ad uso e consumo dei motori e non del seo.


  • User

    @Stuart said:

    Dubito che gli altri motori, anche solo per principio, si adegueranno mai allo 'standard' 😉

    Ho letto invece che è diventato lo standard però non sono sicuro perché GSITE CRAWLER per Yahoo genera il file urlist.txt :mmm:


  • Super User

    Ciao Atlapur11,

    si, il nuovo standard per la sitemap 0.9 è stato condiviso da Google, yahoo e msn. Qui il post sull'annuncio e qui la descrizione del nuovo protocollo.

    Gsitecrawler è già aggiornato alla nuova versione il file xml che crea è quello "buono" per tutti...

    :ciauz:
    Nicola


  • User

    Ciao a tutti,
    ho bisogno del vostro prezioso aiuto. Devo creare una sitemap di testo .txt per yahoo (urllist.txt) ma non ho chiaro se il file deve avere una capienza massima del tipo max 50.000 url oppure 10 mb o non vi sono limiti. Devo elencare circa 300.000 url. Ho dato un'occhiata su yahoo ma non ho trovato indicazioni.
    Attendo i vostri consigli.
    Grazie mille!!!


  • User

    Ciao, posso confermare che in base alla mia esperienza su più siti, Yahoo si "digerisce" la sitemap che con Gsitecrawler creo secondo lo standard di Google.
    Da quando ho "somministrato" a Yahoo la stessa sitemap di Google (tra l'altro zippata), il sito più importante ha avuto un notevole incremento delle pagine indicizzate raggiungendo GG a quota oltre 600.000 (partendo da circa 10.000).

    Live sembra fare un po' più fatica a recepire le sitemaps, sia per siti con migliaia di pagine sia per quelli più piccoli.

    Ciao
    Lorenzo


  • User Attivo

    Non sapendo quanto possa essere vera o falsa la possibilità di avere una sitemap per yahoo, io l'ho fatta (dinamica), come si dice tentar non nuoce

    spero di averla fatta bene
    internetdiscount.it/public/urllist.txt
    quello che non ho capito è dove si posta, infatti sono andato sul lunk da voi suggerito it.search.yahoo.com/free/request
    ma quello che mi esce a me è la normale pagina dove ogni volta aggiungo un nuovo sito a yahoo, e non la sitemap.

    Ciao Hydra


  • User Attivo

    si, il nuovo standard per la sitemap 0.9 è stato condiviso da Google, yahoo e msn. Qui il post sull'annuncio e qui la descrizione del nuovo protocollo.

    Gsitecrawler è già aggiornato alla nuova versione il file xml che crea è quello "buono" per tutti...

    Sembra proprio così!
    Ma quindi urllist.txt è obsoleto??


  • User Newbie

    Si anche per msn riesci a fare adesso.


  • User Attivo

    In effetti dal novembre 2006 Google Yahoo e msn supportano lo standard sitemap.xml 0.90. (w ww.sitemaps.org)

    Se vi interessa ho pubblicato un articolo su come submittare la sitemap ai vari motori: w ww.regole-seo.com/sitemap-xml-090