• User

    @Giorgiotave said:

    Salve ragazzi, mi riferisco ad errori gravi (Errore di compressione e Formato file non supportato), non di url non accessibili e via dicendo.

    Eh pure io. il documento restituito dalle mie due sitemap era text/html, con contenuti validi. Nemmeno XML.
    Più sbagliato di così... Penso sia più grave avere un documento non xml che un 404 o altro tipo di errore.

    @Giorgiotave said:

    E' importante riuscire a capire bene questo Strumento che Google ci offre 🙂

    "Te lo appoggio".
    E' per questo che sto alimentando il thread 😄


  • User

    Uso Gsite Crawler per realizzare Sitemap, ottimo lavora in background e consente di seguire anche siti con decine di migliaia di url.

    La cosa che che mi chiedo è se il peso di una sitemap influisce negativamente

    Ho realizzato una sitemap con quasi 26.000 url e pesa quasi 5 mega...

    Altra cosa, di fatto se non ci sono modifiche sul sito conviene sempre aggiornare la site map, o non è necessario?

    Ciao, Grazie


  • Moderatore

    @ascaso said:

    Uso Gsite Crawler per realizzare Sitemap, ottimo lavora in background e consente di seguire anche siti con decine di migliaia di url.
    Lo uso anch'io e funziona bene.

    La cosa che che mi chiedo è se il peso di una sitemap influisce negativamente

    No, però va splittata se è troppo grande. Il programma mi pare possa farlo.

    Altra cosa, di fatto se non ci sono modifiche sul sito conviene sempre aggiornare la site map, o non è necessario?
    Non è necessario.


  • Community Manager

    @ctrix said:

    Eh pure io. il documento restituito dalle mie due sitemap era text/html, con contenuti validi. Nemmeno XML.
    Più sbagliato di così... Penso sia più grave avere un documento non xml che un 404 o altro tipo di errore.

    No, bisogna capire che errore ti dava.

    Inoltre dobbiamo fare attenzione a quando ti ha dato l'errore. Se l'errore te lo ha dato nel momento in cui tu hai uppato la Sitempas, o se questo errore è comparso all'improvviso dopo che tutte le tue pagine sono state indicizzate.

    riesci a descrivere dettagliatamente la tua situazione? Così vediamo di capirci qualcosa di più su tutto 😄

    @ascaso said:

    Uso Gsite Crawler per realizzare Sitemap, ottimo lavora in background e consente di seguire anche siti con decine di migliaia di url.

    La cosa che che mi chiedo è se il peso di una sitemap influisce negativamente

    Ho realizzato una sitemap con quasi 26.000 url e pesa quasi 5 mega...

    Altra cosa, di fatto se non ci sono modifiche sul sito conviene sempre aggiornare la site map, o non è necessario?

    Ciao, Grazie

    Ciao Ascaso,

    Google dice che puoi inserire fino a 50.000 urls in una Sitempas.

    Chiedo però a te e a tutti gli altri di usare la sezione Sitemaps http://www.giorgiotave.it/forum/protocollo-sitemaps/ se i vostri problemi non solo legati a quanto espresso nel primo post di questo thread, altrimenti facciamo solo confusione 🙂


  • User

    🙂 Ciao a tutti, mi sono iscritto oggi in quest forum, devo dire che oramai da diversi anni lavoro nel settore, le sitemaps per quello che ne sappia io, aiutano google ad indicizzare le pagine quindi credo di consegenza anche la posizione del sito.

    Ciao
    Domenico


  • Moderatrice

    @giorgio.
    Non so se ti aiuta comunque: il mio errore è
    Il file Sitemap non è in un formato supportato. Verifica che risponda alle nostre Norme Sitemap e reinvia
    inviato il 8 gennaio 2006 è circa sei mesi che mi da l'errore.
    Nessuna oscillazione in serp. Tant'è che è che l'errore non è mai stato rimosso 🙂

    Dimenticavo: sto parlando di un sito piccolissimo 10 pagine, posizionato con chiavi di ricerca di long tail


  • User Attivo

    salve, vi dico la mia e quello che ho notato:
    su google Risultati 1 - 10 su circa 66.500

    su webmaster tools:
    Totale URL: 123231
    URL indicizzati: 89831

    in home ho una sitemap xml che si collega a circa 150 file xml divisi in cartelle per tema, ora mi chiedo:

    perche quando 7 file xml davano errore le pagine indicizzate nel su webmaster tools erano 95mila e una volta cottetti i file sono diventate 89mila?

    perchè da giorni forse mesi pur essendo intorno alle 90mila pagine indicizzate ne risultano meno?

    ci tengo a precisare che sbattendo la testa per parecchi giorni ho capito che quei file xml alla fine non contenevano nessun errore , infatti rimettendo gli stessi file xml alla fine sono risultati corretti ma le vandomi circa 7 mila pagine... :mmm:


  • Community Manager

    @deborahdc said:

    Dimenticavo: sto parlando di un sito piccolissimo 10 pagine, posizionato con chiavi di ricerca di long tail

    Questa è una differenza sostanziale credo, ma non ne sono sicuro.

    Io parlo di un sito con oltre 500.000 url in costante aumento (ogni giorno).


  • Community Manager

    @Khendall said:

    salve, vi dico la mia e quello che ho notato:
    su google Risultati 1 - 10 su circa 66.500

    su webmaster tools:
    Totale URL: 123231
    URL indicizzati: 89831

    in home ho una sitemap xml che si collega a circa 150 file xml divisi in cartelle per tema, ora mi chiedo:

    Ciao 🙂

    @Khendall said:

    perche quando 7 file xml davano errore le pagine indicizzate nel su webmaster tools erano 95mila e una volta cottetti i file sono diventate 89mila?

    Perchè secondo me te le ha tolte dal conteggio (visto che le hai rimesse) facendo ripartire l'indicizzazione da 0.

    @Khendall said:

    perchè da giorni forse mesi pur essendo intorno alle 90mila pagine indicizzate ne risultano meno?

    A questa domanda non riesco a darti una risposta.

    Che forse ci sono pagine che sono incluse in Sitemaps ma non sono raggiungibili dagli spider?

    @Khendall said:

    ci tengo a precisare che sbattendo la testa per parecchi giorni ho capito che quei file xml alla fine non contenevano nessun errore , infatti rimettendo gli stessi file xml alla fine sono risultati corretti ma le vandomi circa 7 mila pagine... :mmm:

    Caro Khendall, ci tengo a precisare che anche i miei files non contenevano nessun errore, quindi è un mistero 😄


  • Moderatore

    @Khendall said:

    perchè da giorni forse mesi pur essendo intorno alle 90mila pagine indicizzate ne risultano meno?
    Oramai sono dell'opinione che è "perchè Google ha deciso così": nel senso che in base a chi sa quali parametri (suppungo soprattutto i contenuti) decide di far vedere "solo" 66.500 pagine. Ma è un valore costante o oscilla nel tempo? Nel mio caso, per esempio, oscilla molto.


  • Super User

    A fronte di un rilevamento iniziale immediato delle sitemap, sto verificando problemi nel ping.
    Non so se il problema sia relativo al sistema specifico per vbulletin o dipenda da un disservizio momentaneo.
    Fatto sta che ieri ho provato a pingare google e mi ha sempre respinto.
    Le sitemap aggiornate, infatti, non le ha ancora prese.


  • Moderatore

    @Giorgiotave said:

    Caro Khendall, ci tengo a precisare che anche i miei files non contenevano nessun errore, quindi è un mistero 😄

    Non ho siti con tante URL, come i vostri casi.

    Due giorni fa, comunque, il webmaster tool mi avvisa che un dominio con 38 url ha problemi con la sitemap. Segnala "ERRORE" in rosso nella bacheca.

    Essendo solo 38 URL ho controllato a mano il file xml (ma ho anche rilanciato ex novo Gsitecrawler per confrontare) e vi assicuro che errori non c'erano. Del resto aveva funzionato perfettamente per due mesi.

    Ho ri-uppato la sitemap, così com'era.

    Non da più errore. Ma, come detto sopra da qualcuno, ha ricominciato da zero il conto dei file indicizzati. Prima della segnalazione dell'errore (ma quale?) avevo 38/38.

    A distanza di 48 ore sono a 30/38.

    Mi ha stupito. Ho pensato a un piccolo bug nella segnalazione del webmaster tool.

    Mi stupisce molto meno la differenza tra i risultati ottenuti col comando "site:" e la cifra riportata nel webmaster tool.

    Ma qui chiudo la mia piccolissima parentesi e seguo la vostra discussione, ben più istruttiva e, direi, significativa.

    :lipssealed:


  • User Attivo

    Stesso problema di un utente.

    Segnalo Sitemap a Google tramite .txt ma mi da errore.

    Questo l ho fatto con vari miei forum e il problema sussiste/persiste/insiste.

    Infatti su google credo di avere meno di 10 link quando il mio forum credo che abbia piu di 5000 url.

    l errore me lo da appena invio la sitemap.
    Se invio la sitemap alle 10 alle 11 noto l errore.


  • User Attivo

    ho un sito di un mio cliente con piu di 500.000 url, ora ottimamente posizionato.
    Con gsite è venuto fuori un file enorme che ho provveduto a splittare, ma al momento di inserire queste sitemap, ho desistito, perchè toccare qualcosa che funziona fin troppo bene?? 🙂 anche perchè ogni giorno mi capitano clienti che spariscono su parole chiave fino a poco tempo prima ben posizionate... Sicuramente un file robot, ed un sito ordinato funzionano meglio di un sitemap, anche perchè il crawler "passa paro" come dicono dalle mie parti ossia prende cartelle e file non correttamente linkati, forse qualche pagina doppia, e quindi credo crei più danni per siti molto grossi, anche perchè risulta molto difficile verificare tutti i contenuti.
    Non credo il posizionamento dipenda dalla sitemap ma sicuramente può avere effetti molto negative se non utilizzata al meglio, io direi di aprire due sezioni dove condividere la nostra esperienza positiva e negativa con l'utilizzo di questo strumento per capirne effettivamente i meccanismi corretti


  • User Attivo

    aggiungo un altra cosa importante che secondo me può essere causa di problemi con le sitemap e cioè l'indice di priorità per le pagine , che credo venga assegnato in maniera automatica dai programmi che generano le sitemap che sicuramente dovrebbe essere customizzato per bene, prima di generare le sitemap:
    cioè se ci focalizziamo su questi parametri :Pagine Freq, Priority, LastMod

    la priorità va da 0,1 a 1
    la frequenza ha diversi settaggi dal sempre, giornaliero , settimanale etc..
    Vorrei capire meglio l'interazione di questi parametri


  • Super User

    Per tornare all'argomento principale ho notato che, da quando ho rilanciato la sitemap, i crawler sono diminuiti ed il tempo di indicizzazione dei post è salito moltissimo.

    Thread che prima erano in serp in 5-10 minuti, ora ci mettono ore o anche un giorno.

    Probabilmente se, da una parte, la sitemap permette di avere maggiori chance di indicizzare/posizionare le proprie pagine(quando si tratta di siti di grosse dimensioni o forum), dall'altra, il fatto di fornire una sitemap, taglia le risorse destinate al sito, in accordo ai principi di economia.

    In breve, con la sitemap hai maggiore certezza di vedere in serp le pagine del sito, ma l'indicizzazione rallenta.


  • Bannato User Attivo

    Secondo me no. Per il mio sito, un forum in Vbulletin non uso nessuna google sitemap eppure ha molte discussioni indicizzate e ben posizionate. Non so se usando le sitemaps aumenterei l'indicizzazione, mi sembra già buona così... o sbaglio?


  • Super User

    La sitemap eleva sicuramente il numero di thread indicizzati, su questo puoi metterci la mano sul fuoco 😉

    Ne approfitto per aggiornare la situazione, dopo un primo assestamento, sembra che la velocità di indicizzazione sia tornata ai livelli precedenti.
    Probabilmente, mandando la sitemap, il sito viene effettivamente rivalutato in termini di risorse dedicate.


  • Moderatore

    Io rimango dell'idea che l'utilità principale della sitemap è quello di consentire l'uso degli strumenti per webmasters. In fondo Google non ha mai detto che milgiora l'indicizzazione (almeno così mi pare).


  • ModSenior

    Gia' ma tra il dire e il fare, come al solito, c'e' sempre un abisso.