• User Newbie

    Personalmente ritengo che avere o non avere una sitemap NON influenza per niente i posizionamenti nelle serp. Avere una sitemap ha un senso in questi casi:

    1. Siti con menu in Java/Javascript/Flash, dove lo spider non riesce ad individuare il plain-link, e quindi non riesce a raggiungere e quindi indicizzare alcune parti del sito;

    2. Siti con un numero molto grande di pagine (>100.000 per esempio) : aggiornando spesso la sitemap (almeno ogni 2/3 giorni intendo) e utilizzando il <lastmod> si può indicare allo spider quali pagine sono state aggiunte e quali sono cambiate di recente;

    3. Siti dove sia importante ottenere un posizionamento di una nuova pagina, o una modifica dei contenuti in una pagina esistente nel minor tempo possibile, sempre utilizzando il <lastmod>, il <changefreq> e il <priority> e meglio ancora utilizzando una sitemap indice.

    Non mi sono mai trovato nel caso 1) ma la sua utilità è scontata.
    Ho invece un'esperienza diretta con un portale con più di un milione di pagine con il quale, senza una sitemap, ci vogliono settimane perché lo spider si accorga della nuova pagina o del cambiamento di una esistente, mentre i tempi si riducono drasticamente con una sitemap sempre aggiornata.

    Il problema in fondo è questo... una sitemap ha un senso se è costantemente aggiornata. Bisogna tenere presente infatti che aggiornare una sitemap manualmente per un sito con anche solo poche migliaia di pagine è un lavoro "infernale" e non ne vale la pena per i vantaggi che si possono ottenere.
    La mia soluzione è stata quella di sviluppare un event-gateway che monitorizza contemporaneamente alcune directory e alcune tabelle del mio db. Quando viene fatta una modifica ad un file o in una tabella l'event-gateway segnala il tutto ad un task che si occupa di ricostruire la sitemap specifica e infine la sitemap indice. Così ogni 20 minuti ho una sitemap aggiornata... e non ci penso più! 🙂

    A presto
    Dip


  • User Attivo

    Sicuramente esiste una correlazione forte ... un'esperienza "concreta" l'ho vissuta trasformando un sito html in php già indicizzato e dotato di sitemap da qualche mese ..... l'indicizzazzione delle nuove pagine (dopo l'upload massivo di tutto il nuovo sito) è avvenuta rapidamente nel giro di due settimane e nello stesso tempo tutte le pagine con estensione .html sono state deindicizzate massivamente ... una cosa che ancora non ho capito è perchè esiste uno "zoccolo" di pagine che google proprio non vuole:

    Statistiche sitemap:
    Totale URL: 361
    URL indicizzati: 292

    Eppure il bot passa regolarmente ogni 5-10 giorni ... Altra cosa che ho notato e che quando lo "chiami" segnalando la presenza di una sitemap nuova attraverso i google tool i tempi si fanno più stretti e il bot passa ogni 3-4 giorni in media per un paio di settimane. Qualcuno ha avuto la stessa sensazione/esperienza ?


  • User Attivo

    ... fino alla settimana scorsa avrei risposto :

    "non credo che una sitemap al momento possa incidere sul fattore di posizionamento, credo che quantomeno possa aiutare ad indicizzare più velocemente le pagine, ed aiutare google a raggiungere le pagine più difficili. In ogni caso posso dirvi che per velocizzare l'indicizzazione più celermente senza l'uso della sitemap basta valorizzarle linkandole da pagine a tema forti, passando page rank ed incrementando il trust rank."

    ...ma ad oggi ho un dubbio in seguito ad una case history recentissima che sto analizzando e che forse potrebbe essere in trust con quello che affermate. Un sito web con una sotto directory, con una serie di pagine (5 per la precisione) non direttamente collegata alla homepage, diversa tematicità dal resto del sito web, linkata da altre sotto directory sullo stesso sito web, anch'esse non collegate con la homepage ed il resto del sito web, e di diversa tematicità.

    Capita che mi si indicizza una sola pagina contente una sorte di mappa con collegamento alle restanti pagine della sotto directory con un buon rank, le altre pagine no, ad oggi tutte le pagine sono scomparse, mi sarei atteso l'indicizzazione delle restanti pagine con un ulteriore miglioramento del rank... si tratta di una serie di landing page che linkano ad un sito web esterno, non credo sia un caso di duplicazione, il sito web esterno ha avuto una forte crescita nel rank.

    Ora vi chiedo , potrebbe essere determinato dal fatto che le pagine della sotto directory , non sono state inserite nella sitemap principale del sito web anche se pagine di diversa tematicità ? Il processo di indicizzazione e di cancellazione dalle serp google è avvenuto nell'arco di una settimana.

    Se fosse determinato da un qualcosa relativo alla Sitemap , è una variante inserita da poco da google.

    Attendo un vostro feedback
    :mmm:


  • User Attivo

    @Markus:

    Non essendo direttamente linkate dalla homepage, il motore di ricerca non riesce ad arrivare sempre e comunque alle sub-sub-sub landing page che hai creato.

    Ricordiamoci che solitamente la pagina più linkata dagli altri siti e anche più scasionata (credo) sia la homepage. Tutti i collegamenti che sono presenti in quella pagina verranno scansionati tra N giorni.

    Dopo N giorni verrà scansionata la pagina allo scalino dopo. Dopo n + x giorni verrà scansionata la pagina allo scalino successivo. Dopo n + x + y giorni verrà scansionata la pagina allo scalino dopo ancora e così via.

    Se il tuo collegamento è al 10imo scalino è "normale" che stai rischiando che le pagine non vengano scansionate.

    E qui entra in gioco la sitemap che permette al motore di ricerca di tenere controllate anche pagine in sub-sub-sub livelli d un sito (anche se al mio modesto parere sotto il quinto scalino è già esageratamente lontano) 😉


  • Moderatore

    @mimmob32 said:

    una cosa che ancora non ho capito è perchè esiste uno "zoccolo" di pagine che google proprio non vuole:
    Per mia esperienza questo può dipendere principalmente da pochi motivi:

    1. contenuti (poveri o duplicati).
    2. mancanza di link alle pagine non indicizzate (in siti esterni al tuo).
    3. carenze in title e description.
      La sitemap aiuta ma non fa miracoli.

  • ModSenior

    Quoto in pieno Webtronic


  • Moderatrice

    A me è successa una cosa interessante quando ho inserito la sitemap.
    Avevo fatto una sciocchezza e avevo il sito in penalizzazione. (doppio tema)
    Caricavo pagine con il tema principale ma gg non le prendeva considerando i classici giorni di attesa.
    Ho aumentato una 50 di pagine e poi ho messo la sitemap.
    Dopo 5 minuti esatti mi ha letto tutto, anche quelle precedenti e mi ha fatto uscire dalla penalizzazione.


  • User Attivo

    ci sono 2 tipi di sitemap da analizzare: le sitemap segnalate tramite wm tool, e le sitemap non segnalate ma linkate semplicemente dal sito.

    Per esperienza personale succedere questo:

    • Sitemap non segnalata: Google la considera come consiglio ma non è troppo vincolante, ovvero continua a far girare lo spider alla ricerca di pagine da indicizzare indipendentemente se sono presenti o meno nella sitemap.
    • Sitemap segnalata: Google considera esclusivamente essa, e tende a perdere le pagine non presenti nella stessa.

    Ho un sito con sopra montati diversi blogs wordpress, e fino a 1 mese fa avevo oltre 2000 pagine indicizzate (tra cui moltissime pagine di tags). Per una penalizzazione provo a segnalare le sitemap (sono più di una) a Google tramite WM tool, e pian piano diminuiscono le pagine indicizzate.. mi chiedo: perchè? le sitemap erano già presenti anche prima nel sito.. semplice, Google ha iniziato a considerare solo sitemap dopo la segnalazione ed ha perso tutti i tags, che non sono presenti in sitemap..

    A questo punto non so quanto mi è convenuto segnalare le sitemap....


  • Community Manager

    Sto facendo ulteriori test.

    Posso confermare una cosa: se la Sitemaps da errore, tutti gli url presenti vengono rimossi da Google Search anche se questi url non variano nessun contenuto.

    Secondo me questo è una delle scelte sbagliate che vanno contro il lavoro dei webmaster 🙂

    Oggi ad esempio sono andate in errore 10 Sitemaps da 20.000 url. Le pagine indicizzate sono calate di 200.000.

    Appena le Sitemaps sono state reinviate alla selezione e quindi sono state messe in attesa, le url indicizzate nel pannello sono salite di nuovo (senza neanche aspettare una nuova scansione).

    A questo punto non so se è una scelta precisa o se è un bug, trovo che sia veramente inusabile un servizio del genere.

    La domanda che vorrei girare allo Staff di Google è:

    Perchè se la mia Sitemaps da errore le url presenti in quella spariscono dall'indice di Google Search senza che venga effettuato un controllo sui contenuti?

    Gli URL non hanno subito nessuna variazione, anche se la Sitemaps che li contiene da errore; gli URL continuano a fornire un contributo valido agli utenti, quindi perchè vengono rimossi?

    :smile5:


  • Moderatrice

    Giorgio puoi precisare:

    Posso confermare una cosa: se la Sitemaps da errore, tutti gli url presenti vengono rimossi da Google Search anche se questi url non variano nessun contenuto.

    se nel pannello google webmaster c'è errore, rimuove tutto dalla serp?


  • Community Manager

    @deborahdc said:

    se nel pannello google webmaster c'è errore, rimuove tutto dalla serp?

    Si confermo 🙂

    Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():

    Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.


  • User

    @Giorgiotave said:

    Si confermo 🙂

    Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():

    Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.

    Concordo parzialmente.
    Ho un sito che ha una sitemapindex ed una decina di sitemaps.
    Due di queste danno errore perchè sono vuote. Eppure sono indicizzato correttamente, non sono rimosso dalle serp.

    Due i casi quindi:

    • o rimuove solo le URL in quella specifica sitamap (e non tutte quelle del sito)
    • oppure quello che dici tu è vero in base all'errore che google trova (ad esempio, se è un errore nell'XML malformattato, lui butta via tutto, ma non se sono vuote come le mie).

  • Moderatrice

    No non confermo.
    Ho un errore in sitemap ma nessun problema per l'indicizzazione e il posizionamento in serp


  • Community Manager

    @ctrix said:

    • o rimuove solo le URL in quella specifica sitamap (e non tutte quelle del sito)
    • oppure quello che dici tu è vero in base all'errore che google trova (ad esempio, se è un errore nell'XML malformattato, lui butta via tutto, ma non se sono vuote come le mie).

    Si, mi riferisco solo a quella specifica Sitemaps che da errore, non a tutte le Sitemaps presenti.

    Ho letto velocemente la domanda di Deborah, quindi rettifico la mia risposta:

    Se una delle vostre Sitemaps da errore, tutti gli url di QUELLA Sitempas vengono rimossi dalle SERP Ovviamente parlo di errori gravi (Errore di compressione, Formato file non supportato), non di url non accessibili e via dicendo. Per trovare tutti gli errori ecco qui la lista.


  • Super User

    Confermo l'esperienza di Giorgio, ho fatto test suicidi per capire come ragiona google, ed in effetti gli accessi son scomparsi a causa degli errori nella sitemap, o meglio dal fatto che non le stavo più utilizzando e quindi dalle pagine finite rimosse.

    Ieri le ho caricate e le ha prese subito, vi farò sapere come andrà.
    Al momento nessuna variazione significativa nelle url restituite dal site:


  • Community Manager

    @Karapoto said:

    Ieri le ho caricate e le ha prese subito, vi farò sapere come andrà.
    Al momento nessuna variazione significativa nelle url restituite dal site:

    Ad una prima verifica, mi sembra (non ne sono sicuro), che il numero di url indicizzate nel pannello di controllo di Google sia subito calcolato, mentre la risposta nelle SERP avviene il giorno successivo (ma potrei sbagliarmi).

    Facci sapere 😉


  • Super User

    Si, le url sono subito conteggiate nel pannello, mentre nelle serp non so ancora dirti quanto ci vuole per trovarsele.

    Per ora ancora nulla.


  • Moderatore

    @Giorgiotave said:

    Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP
    Ciao Giorgio, che tipo di errore? A me è capitato alcuni giorni fà una segnalazione per troppi errori 302 che riportava che le altre pagine sarebbero state regolarmente indicizzate.. e così avvenne. In pratica avevamo rimosso una serie di prodotti dal catalogo, quando l'utente o il motore cercava quell'url aveva in risposta una paginetta con un redirect 302. La sitemap era poco aggiornata e G. riportò quella indicazione negli strumenti per webmaster. Risolsi la cosa impostando una frequenza di aggiornamento più elevata (ogni settimana).


  • User

    @Karapoto said:

    Confermo l'esperienza di Giorgio, ho fatto test suicidi per capire come ragiona google, ed in effetti gli accessi son scomparsi a causa degli errori nella sitemap, o meglio dal fatto che non le stavo più utilizzando e quindi dalle pagine finite rimosse.

    Ieri le ho caricate e le ha prese subito, vi farò sapere come andrà.
    Al momento nessuna variazione significativa nelle url restituite dal site:

    Ho fatto anche io un test suicida stanotte (per sbaglio).
    Ho scazzato del codice, stanotte, e le sitemap me le restituiva sostituendole con un contenuto html del sito. Le sitemap erano solo 2 su 10 di quelle di quel sito.

    Oltre a correggere l'errore, ho notato che le pagine indicizzate erano sempre presenti nell'indice.

    Forse il comportamento che notate è solo riferito alle pagine in fresh cache e non alle pagine già digerite da giorni ?


  • Community Manager

    @Webtronic said:

    Ciao Giorgio, che tipo di errore? A me è capitato alcuni giorni fà una segnalazione per troppi errori 302 che riportava che le altre pagine sarebbero state regolarmente indicizzate.. e così avvenne. In pratica avevamo rimosso una serie di prodotti dal catalogo, quando l'utente o il motore cercava quell'url aveva in risposta una paginetta con un redirect 302. La sitemap era poco aggiornata e G. riportò quella indicazione negli strumenti per webmaster. Risolsi la cosa impostando una frequenza di aggiornamento più elevata (ogni settimana).

    @ctrix said:

    Ho fatto anche io un test suicida stanotte (per sbaglio).
    Ho scazzato del codice, stanotte, e le sitemap me le restituiva sostituendole con un contenuto html del sito. Le sitemap erano solo 2 su 10 di quelle di quel sito.

    Salve ragazzi, mi riferisco ad errori gravi (Errore di compressione e Formato file non supportato), non di url non accessibili e via dicendo.

    @ctrix said:

    Forse il comportamento che notate è solo riferito alle pagine in fresh cache e non alle pagine già digerite da giorni ?

    Questo è un altro discorso che vorrei affrontare.

    Le pagine digerite da mesi mi sono sparite, non solo quelle recenti.

    Ma la cosa preoccupante di questo aspetto è la seguente: nella sezione del sito dove la sitemaps ha dato errore (giorgiotave.it/forum/) nascono al giorno centinaia di pagine nuove (circa 200). La Sitemaps ha dato errore per due settimane. Nessuna delle pagine create in quelle due settimane è stata mai messa nell'indice (parliamo di oltre 2000 documenti).

    E' importante riuscire a capire bene questo Strumento che Google ci offre 🙂