• User

    Ciao,
    Secondo me, no.
    Io ho, ad esempio, url del tipo /miosito.it/pagina che sono regolarmente in sitemap e /miosito.it/pagina/it (filtro per le entry in italiano nella stessa pagina) che non sono riportati nella sitemap. Entrambe vengono regolarmente robotizzate (la /it forse meno frequentemente, ma dovrei verificare) e appaiono in site:

    Ciao
    Bruno


  • Community Manager

    @Karapoto said:

    Dopo poco aver tolto la sitemap, gli accessi sono precipitati.

    Perchè toglie le pagine indicizzate.

    Credo però si tratta di una situazione che dalle parti di Google non hanno mai preso in considerazione; almeno questo è quello che penso.

    @Bruno61 said:

    Entrambe vengono regolarmente robotizzate (la /it forse meno frequentemente, ma dovrei verificare) e appaiono in site:

    Ciao Bruno,

    non è quello che stiamo dicendo, la situazione che ti ho quotato la vedo anche io.

    Il problema è che se togli la Sitemaps lui ti toglie le pagine indicizzate (o comportamenti simili).

    :ciauz:


  • User

    @Giorgiotave said:

    non è quello che stiamo dicendo

    Vabbe', mi sa che non ho ancora digerito il SEO-linguaggio, prometto di impegnarmi di piu' :wink3:

    Ciao
    Bruno


  • User Attivo

    @Giorgiotave said:

    Una volta che utilizziamo le nostre Google Sitemaps per i nostri siti, l'indicizzazione dipende da queste esclusivamente?

    Secondo me ni. 😄

    Perchè ni:

    Se io ho un sito di una ventina di pagine tutte allo stesso livello (che ne so www.sito.it/npagine.php) e non faccio la sitemap ma collego tutte le pagine dalla homepage, durante le scansioni del sito piano piano essendo poche pagine tutte vengono indicizzate senza l'aiuto di una sitemap.

    Se ho un megaportale ed un e-commerce ecco che secondo me entra in gioco la sitemap per permettere al motore di ricerca di scansionare le pagine anche al livello più nascosto e basso. Quindi a questo punto la sitemap dovrebbe essere rilevante e aggiornata, almeno secondo il mio parere, una volta alla settimana, per permette al motore di "notare" anche i minimi cambiamenti nel mio sito.

    Però non credo che se io dovessi un giorno togliere la mia sitemap google mi cancella le pagine, potrebbero essere scansionate più lentamente e meno frequentemente, ma addirittura sparire non ne sono così sicura...

    Spero di essere stata chiara e aver capito cosa state dicendo 😊


  • User

    Ciao a tutti, le sitemaps per mia esperienza fanno solo perdere tempo a noi e risparmiare tempo a Google, ma non influiscono con il posizionamento forse solo per siti giovani. Io le ho tolte tutte. Meglio inserire nuovi contenuti.


  • Moderatore

    @JennyM said:

    Secondo me ni. 😄
    Se ho un megaportale ed un e-commerce ecco che secondo me entra in gioco la sitemap per permettere al motore di ricerca di scansionare le pagine anche al livello più nascosto e basso. Quindi a questo punto la sitemap dovrebbe essere rilevante e aggiornata, almeno secondo il mio parere, una volta alla settimana, per permette al motore di "notare" anche i minimi cambiamenti nel mio sito.
    Ciao, per la mia esperienza hai ragione. Abbiamo (credo) trovato un giusto compromesso proprio nell'aggiornare la sitemap una volta alla settimana. Avevamo provato ad aggiornarla meno di frequente e G. ha cominciato a segnalare errori di redirect 302 (quando un nostro prodotto va fuori catalogo) e che "potrebbero esserci problemi nella scansione", anche se poi diceva che tutte "le altre pagine verranno comunque regolarmente inviate".
    Devo però dire che in base alla mia esperienza non è del tutto vero quel che dice Google (ora se leggono qui mi buttano giù il PR!;-)) cioè che le sitemaps siano utili a far indicizzare pagine di un sito difficili da raggiungere da parte di uno spider: credo che questo non debba mai accadere e che le sitemaps non aiutino in questo senso. Chiaramente è la mia, opinabilissima opinione.
    Per Segiohu: non penso che tu abbia del tutto torto.. però le sitemaps fanno comodo non foss'altro che per l'utilizzo degli strumenti per webmaster di Google.


  • User Attivo

    Ciao JennyM,
    anche io ho fatto come te, ho inserito nel footer o nell'header la home page (trattandosi di pagine php) e quindi automaticamente addando la URL a GG mi ha visto anche le altre(test su due siti web).
    E' anche vero quello che dice Giorgio, nei grandi portali se non aggiungi la sitemap questo discorso non puoi farlo, GG si perde e cerca una sorta di percorso valido, alfine di individuare ciò che realmente è utile per l'utente, quindi bisogna sempre aggiornarla.
    Un altro elemento importante è inserire il robots.txt oppure meglio ancora inserire il meta nella home page principale con content="index, follow", così il MDR sa come muoversi e avendfo la home come riferimento principale include nella ricerca tutte le pagine..
    Saluti
    Adriano


  • User

    Ciao a tutti, sono nuovo del forum, ma da parecchi anni bazzico e lavoro nel settore, le sitemaps per mia esperienza e per quello che si dice sui Forum Google, aiutano il motore di ricerca ad indicizzare le pagine inserite nel file sitemap.xml e di consegenza il posizionamento del sito.

    Saluti
    Clickare


  • User Newbie

    Personalmente ritengo che avere o non avere una sitemap NON influenza per niente i posizionamenti nelle serp. Avere una sitemap ha un senso in questi casi:

    1. Siti con menu in Java/Javascript/Flash, dove lo spider non riesce ad individuare il plain-link, e quindi non riesce a raggiungere e quindi indicizzare alcune parti del sito;

    2. Siti con un numero molto grande di pagine (>100.000 per esempio) : aggiornando spesso la sitemap (almeno ogni 2/3 giorni intendo) e utilizzando il <lastmod> si può indicare allo spider quali pagine sono state aggiunte e quali sono cambiate di recente;

    3. Siti dove sia importante ottenere un posizionamento di una nuova pagina, o una modifica dei contenuti in una pagina esistente nel minor tempo possibile, sempre utilizzando il <lastmod>, il <changefreq> e il <priority> e meglio ancora utilizzando una sitemap indice.

    Non mi sono mai trovato nel caso 1) ma la sua utilità è scontata.
    Ho invece un'esperienza diretta con un portale con più di un milione di pagine con il quale, senza una sitemap, ci vogliono settimane perché lo spider si accorga della nuova pagina o del cambiamento di una esistente, mentre i tempi si riducono drasticamente con una sitemap sempre aggiornata.

    Il problema in fondo è questo... una sitemap ha un senso se è costantemente aggiornata. Bisogna tenere presente infatti che aggiornare una sitemap manualmente per un sito con anche solo poche migliaia di pagine è un lavoro "infernale" e non ne vale la pena per i vantaggi che si possono ottenere.
    La mia soluzione è stata quella di sviluppare un event-gateway che monitorizza contemporaneamente alcune directory e alcune tabelle del mio db. Quando viene fatta una modifica ad un file o in una tabella l'event-gateway segnala il tutto ad un task che si occupa di ricostruire la sitemap specifica e infine la sitemap indice. Così ogni 20 minuti ho una sitemap aggiornata... e non ci penso più! 🙂

    A presto
    Dip


  • User Attivo

    Sicuramente esiste una correlazione forte ... un'esperienza "concreta" l'ho vissuta trasformando un sito html in php già indicizzato e dotato di sitemap da qualche mese ..... l'indicizzazzione delle nuove pagine (dopo l'upload massivo di tutto il nuovo sito) è avvenuta rapidamente nel giro di due settimane e nello stesso tempo tutte le pagine con estensione .html sono state deindicizzate massivamente ... una cosa che ancora non ho capito è perchè esiste uno "zoccolo" di pagine che google proprio non vuole:

    Statistiche sitemap:
    Totale URL: 361
    URL indicizzati: 292

    Eppure il bot passa regolarmente ogni 5-10 giorni ... Altra cosa che ho notato e che quando lo "chiami" segnalando la presenza di una sitemap nuova attraverso i google tool i tempi si fanno più stretti e il bot passa ogni 3-4 giorni in media per un paio di settimane. Qualcuno ha avuto la stessa sensazione/esperienza ?


  • User Attivo

    ... fino alla settimana scorsa avrei risposto :

    "non credo che una sitemap al momento possa incidere sul fattore di posizionamento, credo che quantomeno possa aiutare ad indicizzare più velocemente le pagine, ed aiutare google a raggiungere le pagine più difficili. In ogni caso posso dirvi che per velocizzare l'indicizzazione più celermente senza l'uso della sitemap basta valorizzarle linkandole da pagine a tema forti, passando page rank ed incrementando il trust rank."

    ...ma ad oggi ho un dubbio in seguito ad una case history recentissima che sto analizzando e che forse potrebbe essere in trust con quello che affermate. Un sito web con una sotto directory, con una serie di pagine (5 per la precisione) non direttamente collegata alla homepage, diversa tematicità dal resto del sito web, linkata da altre sotto directory sullo stesso sito web, anch'esse non collegate con la homepage ed il resto del sito web, e di diversa tematicità.

    Capita che mi si indicizza una sola pagina contente una sorte di mappa con collegamento alle restanti pagine della sotto directory con un buon rank, le altre pagine no, ad oggi tutte le pagine sono scomparse, mi sarei atteso l'indicizzazione delle restanti pagine con un ulteriore miglioramento del rank... si tratta di una serie di landing page che linkano ad un sito web esterno, non credo sia un caso di duplicazione, il sito web esterno ha avuto una forte crescita nel rank.

    Ora vi chiedo , potrebbe essere determinato dal fatto che le pagine della sotto directory , non sono state inserite nella sitemap principale del sito web anche se pagine di diversa tematicità ? Il processo di indicizzazione e di cancellazione dalle serp google è avvenuto nell'arco di una settimana.

    Se fosse determinato da un qualcosa relativo alla Sitemap , è una variante inserita da poco da google.

    Attendo un vostro feedback
    :mmm:


  • User Attivo

    @Markus:

    Non essendo direttamente linkate dalla homepage, il motore di ricerca non riesce ad arrivare sempre e comunque alle sub-sub-sub landing page che hai creato.

    Ricordiamoci che solitamente la pagina più linkata dagli altri siti e anche più scasionata (credo) sia la homepage. Tutti i collegamenti che sono presenti in quella pagina verranno scansionati tra N giorni.

    Dopo N giorni verrà scansionata la pagina allo scalino dopo. Dopo n + x giorni verrà scansionata la pagina allo scalino successivo. Dopo n + x + y giorni verrà scansionata la pagina allo scalino dopo ancora e così via.

    Se il tuo collegamento è al 10imo scalino è "normale" che stai rischiando che le pagine non vengano scansionate.

    E qui entra in gioco la sitemap che permette al motore di ricerca di tenere controllate anche pagine in sub-sub-sub livelli d un sito (anche se al mio modesto parere sotto il quinto scalino è già esageratamente lontano) 😉


  • Moderatore

    @mimmob32 said:

    una cosa che ancora non ho capito è perchè esiste uno "zoccolo" di pagine che google proprio non vuole:
    Per mia esperienza questo può dipendere principalmente da pochi motivi:

    1. contenuti (poveri o duplicati).
    2. mancanza di link alle pagine non indicizzate (in siti esterni al tuo).
    3. carenze in title e description.
      La sitemap aiuta ma non fa miracoli.

  • ModSenior

    Quoto in pieno Webtronic


  • Moderatrice

    A me è successa una cosa interessante quando ho inserito la sitemap.
    Avevo fatto una sciocchezza e avevo il sito in penalizzazione. (doppio tema)
    Caricavo pagine con il tema principale ma gg non le prendeva considerando i classici giorni di attesa.
    Ho aumentato una 50 di pagine e poi ho messo la sitemap.
    Dopo 5 minuti esatti mi ha letto tutto, anche quelle precedenti e mi ha fatto uscire dalla penalizzazione.


  • User Attivo

    ci sono 2 tipi di sitemap da analizzare: le sitemap segnalate tramite wm tool, e le sitemap non segnalate ma linkate semplicemente dal sito.

    Per esperienza personale succedere questo:

    • Sitemap non segnalata: Google la considera come consiglio ma non è troppo vincolante, ovvero continua a far girare lo spider alla ricerca di pagine da indicizzare indipendentemente se sono presenti o meno nella sitemap.
    • Sitemap segnalata: Google considera esclusivamente essa, e tende a perdere le pagine non presenti nella stessa.

    Ho un sito con sopra montati diversi blogs wordpress, e fino a 1 mese fa avevo oltre 2000 pagine indicizzate (tra cui moltissime pagine di tags). Per una penalizzazione provo a segnalare le sitemap (sono più di una) a Google tramite WM tool, e pian piano diminuiscono le pagine indicizzate.. mi chiedo: perchè? le sitemap erano già presenti anche prima nel sito.. semplice, Google ha iniziato a considerare solo sitemap dopo la segnalazione ed ha perso tutti i tags, che non sono presenti in sitemap..

    A questo punto non so quanto mi è convenuto segnalare le sitemap....


  • Community Manager

    Sto facendo ulteriori test.

    Posso confermare una cosa: se la Sitemaps da errore, tutti gli url presenti vengono rimossi da Google Search anche se questi url non variano nessun contenuto.

    Secondo me questo è una delle scelte sbagliate che vanno contro il lavoro dei webmaster 🙂

    Oggi ad esempio sono andate in errore 10 Sitemaps da 20.000 url. Le pagine indicizzate sono calate di 200.000.

    Appena le Sitemaps sono state reinviate alla selezione e quindi sono state messe in attesa, le url indicizzate nel pannello sono salite di nuovo (senza neanche aspettare una nuova scansione).

    A questo punto non so se è una scelta precisa o se è un bug, trovo che sia veramente inusabile un servizio del genere.

    La domanda che vorrei girare allo Staff di Google è:

    Perchè se la mia Sitemaps da errore le url presenti in quella spariscono dall'indice di Google Search senza che venga effettuato un controllo sui contenuti?

    Gli URL non hanno subito nessuna variazione, anche se la Sitemaps che li contiene da errore; gli URL continuano a fornire un contributo valido agli utenti, quindi perchè vengono rimossi?

    :smile5:


  • Moderatrice

    Giorgio puoi precisare:

    Posso confermare una cosa: se la Sitemaps da errore, tutti gli url presenti vengono rimossi da Google Search anche se questi url non variano nessun contenuto.

    se nel pannello google webmaster c'è errore, rimuove tutto dalla serp?


  • Community Manager

    @deborahdc said:

    se nel pannello google webmaster c'è errore, rimuove tutto dalla serp?

    Si confermo 🙂

    Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():

    Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.


  • User

    @Giorgiotave said:

    Si confermo 🙂

    Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():

    Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.

    Concordo parzialmente.
    Ho un sito che ha una sitemapindex ed una decina di sitemaps.
    Due di queste danno errore perchè sono vuote. Eppure sono indicizzato correttamente, non sono rimosso dalle serp.

    Due i casi quindi:

    • o rimuove solo le URL in quella specifica sitamap (e non tutte quelle del sito)
    • oppure quello che dici tu è vero in base all'errore che google trova (ad esempio, se è un errore nell'XML malformattato, lui butta via tutto, ma non se sono vuote come le mie).